Sora有多火?2月16日OpenAI发布文生视频大模型Sora,引起了行业内(各位大佬:马斯克、杨立昆、贾扬清、周鸿祎等)外的激烈讨论。Sora本质上并没有真正理解物理世界,而是通过深度学习技术,成功地从大量的视频数据中“学习”到了物理现象的规律。
目前深度学习模型已成为推动技术进步的核心动力,已广泛被应用于各种领域,模型性能的提高同时也引入了巨大的参数量和计算量。与ChatGPT需要大量的数据进行训练不同,Sora则是专门针对推理阶段的加速,行业内的普遍观点认为,Sora的推理算力需求是GPT-4的100倍—1000倍之间。很多模型越复杂,对计算资源的需求也逐步增加,而且边缘端对模型推理耗时的需求也更为苛刻。
为解决计算性能的问题,深度学习模型压缩技术应运而生。它是通过量化或者稀疏等压缩技术,把模型以更高效的方式进行部署,提高推理速度,降低计算强度、内存损耗及部署成本等。从计算机视觉模型到大语言模型,模型压缩都是实际部署落地必备环节。
学习模型压缩技术,有助于打通整个AI模型的生产环节,加深对实际项目落地流程的理解。遗憾的是,绝大多数AI领域的工作者更注重训练过程,反而忽视了模型压缩的价值,同时模型压缩技术路线较多,入门门槛较高,进一步导致目前市面上相关人才稀缺。
深蓝学院联合商汤科技模型工具链团队推出『深度神经网络模型压缩 (技术解析与实战经验分享)』课程。通过该课程的学习,同学们可以逐步理解并掌握模型压缩的相关技术知识,并独立进行相关工作的开发和研究。
扫码添加,了解详情
1.系统讲解深度神经网络中的模型压缩典型算法
2.代码级讲解多种压缩工具的原理细节和使用方式
3.覆盖视觉和大语言模型的全方位压缩知识和实际部署经验
1.掌握模型压缩领域的典型算法的原理和技术细节
2.掌握对模型压缩工具的熟练使用和内在原理
3.通过实战部署操作对模型压缩技术有全方位的理解和经验掌握
扫码添加,了解详情