Py学习  »  机器学习算法

计算机孟灿|AI行业深度-深度学习算法发展:从多样到统一

国金证券研究 • 1 年前 • 302 次点击  

金选·核心观点


投资建议


行业策略:深度学习的三要素包括算法、数据和算力,本文主要对算法的演进历程进行了回顾,认为深度学习底层算法被统一为Transformer之后发展放缓;而算法的行业落地应用、大数据的生成与处理、高算力芯片成为重点发展方向。


推荐组合:建议关注受益于人工智能算法进步,并能成功实现商业化应用的海康威视、科大讯飞、中科创达、商汤科技等公司,以及关注可提供大算力AI芯片的海光信息等公司。


行业观点


神经网络的发展以Relu激活函数的提出为分水岭,可分为浅层神经网络和深度学习两个阶段。浅层神经网络阶段最重要的任务是解决梯度不稳定的问题,在这个问题未被妥善解决之前,神经网络受限于激活函数梯度过大或过小、以及神经元全连接对高算力的要求,因此应用性能不佳,而属于非神经网络的支持向量机(SVM)是当时解决人工智能模式识别的主流方法。


过去10年,深度学习经历了从多样化发展到融合统一的阶段。深度学习时代的开启依托于2011年Relu激活函数被提出、梯度消失问题被大幅缓解,此后深度学习算法和应用的发展均突飞猛进。


最初卷积神经网络(CNN)通过对高层次特征的提取和压缩,擅长图像分类等任务;循环神经网络(RNN)通过对时序信息的提取,擅长文字、语音识别和理解等任务。2017年Transformer的提出让深度学习进入了大模型时代、2020年Vision Transformer的提出让深度学习进入了多模态时代。


由于Transformer在大数据并行计算方面具备优势,且训练数据增长后对模型精度提升明显,自此各模态和各任务底层算法被统一为Transformer架构。


深度学习底层算法发展放缓,数据无监督学习、数据生成以及高算力芯片成为行业发展的重点方向。目前深度学习算法主要是基于Transformer骨干网络来进行分支网络的创新。


如OpenAI在多模态主干网络CLIP的基础上引入扩散模型,即训练出能完成语义图像生成和编辑的DALL·E2,引发AIGC浪潮;在GPT-3模型基础上引入了人类反馈强化学习方法(RLHF),训练出InstructGPT模型,并据此发布了对话机器人ChatGPT,引起了互联网用户的注意。


但随着Transformer基本完成底层算法统一之后,整个行业底层算法发展速度开始放缓,静待骨干网络的下一次突破。同时基于Transformer对大数据的需求,催生了无监督学习、高算力芯片的发展。


风险提示

海外基础软硬件使用受限;骨干网络创新放缓;应用落地不及预期。


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/150699
 
302 次点击