社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

2024年,深度学习,你心目中的top10算法是什么?

新机器视觉 • 2 月前 • 313 次点击  
       

来源:https://www.zhihu.com/question/638660013

作者:小满哥

个人名单,排名不分先后:

1、AlexNet (深度学习复兴的源头)

2、GAN(左右互博的思想到现在依然很惊艳)

3、Attention (提出注意力机制并应用于NLP)

4、ResNet (残差思想简洁有效,广泛应用于深度学习各个领域,毋庸置疑的top10)

5、UNet (对称编解码器架构,泛化性能很好,广泛应用于医疗遥感以及AIGC领域)BatchNormalization (有效加快模型收敛并防止过拟合)

6、YOLO系列 (端到端目标检测模型,简洁优雅高效,落地最广泛的目标检测模型)Transformer (同样毋庸置疑,大模型基石)

7、GPT系列 (基于Transformer解码器的大语言模型,掀起LLM浪潮的领航员)

8、StableDiffusion (图像生成里程碑,与LLM并列的AIGC模型)

以上是个人排名,仅限于本人涉足的领域,存在一定主观性,很难达到全面客观的标准。还有很多非常好的算法也可排进特定领域top10,候选名单:VGG,Seq2seq,Faster-RCNN,Mask RCNN,Bert,ViT,Swin Transformer,DALLE,CLIP,GCN,GAT,RoPE等,这些都是非常经典的算法,经过了后续研究实践的考验。

还有一些很有创新性,有希望进入特定领域top10候选的作品,例如:DiT, RWKV,Mamba,LORA等


作者:theigrams

实际效果不一定是最好的,但背后的理论肯定是优美而深刻的,以下是我喜欢的 Top10:

Word2vec

第一次接触机器学习时,看到书中的例子「中国-北京 = 法国-巴黎」,感觉整个人的认知都被颠覆了,从此踏进了机器学习的深坑。

Variational Autoencoder (VAE)

变分推断与自编码器的完美融合,与传统自编码器相比,通过随机采样的方式强迫特征网络学到的编码具备局部空间结构,这种范式对整个生成模型领域产生了深远的影响。

Generative Adversarial Network (GAN)

超脱于传统 Encoder-Decoder 结构,走出了一条全新的路,将 min-max 优化问题转化为生成器网络和判别器网络的对抗学习过程。

Graph Convolutional Network (GCN)

这里指的是广义的图卷积网络,一共包括 Spectral Networks and Locally Connected Networks on Graphs,Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering,Semi-Supervised Classification with Graph Convolutional Networks 三篇论文。

Spectral CNN 是开山之作,基于谱图理论首次将卷积推广到了图网络。

Chebyshev Spectral CNN 用拉普拉斯矩阵的Chebyshev多项式来代替滤波函数,极大减少了计算量。GCN 则是集大成者,继续做减法,最终将图卷积浓缩成一个矩阵,优美到了极致。

可惜自此之后的 GNN 再无图卷积,只剩消息传递。

PointNet

用神经网络处理点云的开山之作,解决了点云数据的无序性和不规则性,从此三维视觉进入深度学习时代。

Neural Radiance Field (NeRF)

用神经网络学习空间中每一点的光场,然后用体渲染积分成图像,简直是暴力美学。虽说三维视觉领域又多了个新方向,但搞这个掉头发很快。

Deep Q-Network (DQN)

毋庸置疑的经典,将 Q-learning 的天赋带到深度学习,产生了很好的化学反应,强得不可思议。

AlphaGo

蒙特卡洛树搜索+深度学习,击败柯洁算得上是 AI 领域的历史性时刻。

Proximal Policy Optimization (PPO)Schulman

在 TRPO 中引入了信赖域来缓解学习不稳定的问题,但是计算开销太大,于是他又将其简化成了 PPO,显然他觉得这种改进工作贡献不大,甚至都没投论文,就挂在Arxiv上。没想到的是 PPO 太好用了,简单稳定高效,搞应用的人手一个,甚至 ChatGPT 也用的 PPO。

Neural Tangent Kernel (NTK)

解释了神经网络(在无限宽的情况下)的训练为什么能稳定收敛,为什么收敛性与网络的初始化无关,而与网络的结构有关。


作者:兵临城下

0 AlexNet: 我觉得是卷积神经网络最具代表的工作;

1 ResNet: 至少不比之前差;

2 Transformer: Attention is all your need;

3 GAN:用模型打败模型; 

4 LSTM:时间序列最广泛典型的网络,三个门的设计;

5 GPT: Decoder-Only,第一个大模型时代标志性网络;

6 BERT:Encoder-Only,你的模型会做阅读理解吗?

7 Diffusion:开启了文生图的时代;

8 YOLO:  You Only Look Once;

9 DiT: 最开始放的gemini,但是最近被DiT的算法惊艳到了,Transformer作为Block代替之前的U-Net,解决了困扰了我很久的问题,就是生成式模型选用transformer还是diffusion系列,scale和Shift又可以保证视频生成的扩散,目前看到的算法里好像是降龙十八掌的最后一招了;

有很多精巧的想法如LoRA, FastSpeech, FastText, Word2Vec, RLHF,甚至于VGG, VAE,U-Net这类典型网络本应该出现在前十,但排名带有一些主观色彩,期待未来五年能够让我这个主观色彩的榜单全部更换。

来源:计算机视觉工坊

本文仅做学术分享,如有侵权,请联系删文。


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/174079
 
313 次点击