社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

反超ChatGPT,重创美股,DeepSeek除夕再放大招震动全球科技圈

时代财经APP • 1 周前 • 37 次点击  

作者 | 庞宇

编辑 | 罗丽娟

这两天,中国人工智能初创公司深度求索(DeepSeek)成为全球科技圈热议的主角。

就在刚刚过去的24小时内,DeepSeek AI智能助手同时登顶中美iOS免费应用排行榜第一,刷爆国内外社交平台,应用更是多次被“挤”到宕机。

美股半导体股受此冲击,芯片巨头英伟达(NVIDIA)股价历史性暴跌,纳斯达克综合指数大幅下跌。

就在1月28日除夕凌晨,DeepSeek在GitHub平台发布了Janus-Pro多模态大模型,进军文生图领域。像是送给科技圈的新春礼物。

DeepSeek掀起的声量也受到了各界大佬高度关注。

英伟达发言人回应时代财经记者称:“DeepSeek是一项卓越的人工智能进展,也是测试时扩展的绝佳范例。”他提到,推理过程还“需要大量英伟达GPU和高性能网络”。

OpenAI首席执行官萨姆·奥尔特曼发文称“有了新的竞争对手令人振奋”;美国总统特朗普在佛罗里达州迈阿密发表讲话时,谈到DeepSeek的出现“给美国相关产业敲响了警钟”,美国“需要集中精力赢得竞争。

源:图虫

美股科技股巨震

DeepSeek再发新模型


美股1月27日收盘,纳斯达克综合指数下跌3.07%,标准普尔500指数跌1.46%,道琼斯工业平均指数逆势上涨0.65%。据外媒报道,道琼斯市场数据显示,当地时间周一的“市场大屠杀”总共使股市市值蒸发了约1万亿美元。

其中,欧美科技股重挫。AI龙头英伟达暴跌16.97%,单日市值蒸发5890亿美元,创史上最大单日个股市值蒸发纪录。一夜之间,英伟达创始人黄仁勋的身家大幅缩水210亿美元。

此外,甲骨文下跌13.78%,超微电脑下跌12.49%,芯片制造商博通下跌17.4%,台积电跌13%。当日,芯片指数大跌超9%。

市场分析认为,核心原因是中国人工智能初创公司深度求索(DeepSeek)的最新突破,动摇了美国科技行业的“无敌”地位。

消息面上,1月27日,DeepSeek应用登顶苹果中国地区和美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。这距离其1月20日新模型DeepSeek-R1的发布,才过去短短一周时间。

就在1月28日,DeepSeek又抛出的新模型,再次引发市场高度关注。

Github社区信息显示,Janus-Pro是去年发布的Janus的高级版本,可显著提高多模式理解和视觉生成。相比此前的Janus,Janus-Pro优化的训练策略、扩展的训练数据和扩展到更大的模型尺寸。通过这些改进,Janus-Pro在多模态理解和文本到图像的指令遵循能力方面都取得了显著的进步,同时也增强了文本到图像生成的稳定性。

在文生图GenEval和DPG-Bench基准测试中,Janus-Pro-7B的准确率较前代Janus大幅提高,准确率测试结果分别为80%和84.2%,高于包括OpenAI DALL-E 3在内的其他对比模型,Janus的准确率分别为61%和79.7%。

简单来说,Janus-Pro模型既能让AI读图(基于SigLIP-L),又能让AI生图(借鉴LlamaGen),分1.5B和7B两个大小。而要知道的是,GPT-4o的图片生成多模态模型至今没开放。

Janus与Janus Pro 7B生成图像的对比,来源:DeepSeek技术报告

DeepSeek对AI行业意义方面,dropbox AI 副总裁 Morgan Brown曾做了一系列总结:“DeepSeek 突然出现并说,如果我们花 500 万美元做这件事会怎么样?他们不只是说说而已——他们真的做到了。他们的模型在许多任务上匹敌甚至击败了 GPT-4 和 Claude。”“关键在于,DeepSeek 的团队不到 200 人,但 Meta 的团队仅薪酬就超过了DeepSeek 的整个培训预算……而且他们的模型并不那么好。”

最先感受到DeepSeek带来的压力的是硅谷。

Information网站消息称,目前脸书母公司Meta已成立了四个专门研究小组来研究量化巨头幻方量化旗下的国产大模型DeepSeek的工作原理,并基于此来改进旗下大模型Llama。其中两个小组正在试图了解幻方量化如何降低训练和运行DeepSeek的成本;第三个研究小组则正在研究幻方量化可能使用了哪些数据来训练其模型;第四个小组正在考虑基于DeepSeek模型属性重构 Meta 模型的新技术。

DeepSeek所推动的低成本大模型训练方案,引发科技圈的思考:当仅凭相对有限的算力就能达到与OpenAI模型相媲美的性能水平时,这是否预示着以英伟达为代表的高端算力芯片市场正面临新的泡沫风险?

1月28日,萨姆·奥尔特曼在社交平台X发文肯定了DeepSeek的表现,并表态将加快产品发布速度。他在推文中写道:DeepSeek的推理大模型R1是一款令人印象深刻的模型,尤其是考虑到其性价比。显然,我们将推出更好的模型。

不过,奥尔特曼特地强调,“我们很高兴能继续执行我们的研究路线图,并相信更多的算力比以往任何时候都更重要,以成功完成我们的使命。”

同样,英伟达发言人回应时代财经记者称:“ DeepSeek的研究展示了如何运用该技术,借助广泛可用的模型以及完全符合出口管制规定的算力,创建新模型。推理过程需要大量英伟达GPU和高性能网络。如今我们有三条扩展定律:持续适用的预训练和后训练定律,以及新的测试时扩展定律。”

不过,随着大量新用户的涌入,DeepSeek称近期线上服务受到“大规模恶意攻击”,1月28日官方公告称,为持续提供服务,暂时限制了+86手机号以外的注册方式,已注册用户可以正常登录,感谢理解和支持。

反超ChatGPT

从“好学生”升级至“学霸”


随着DeepSeek-R1引爆大模型的舆论场,其背后的DeepSeek公司也随之受到更热烈的关注。

DeepSeek,运营主体为杭州深度求索人工智能基础技术研究有限公司,成立于2023年7月17日,是一家创新型科技公司,专注于开发先进的大语言模型(LLM)和相关技术,其创始人梁文锋也是头部量化私募幻方量化的创始人。

2015年,幻方量化正式成立,2019年,其资金管理规模就突破百亿元。幻方量化官网显示,其在2018年就确立以AI为公司的主要发展方向。

2023年7月,幻方量化宣布成立大模型公司DeepSeek,正式进军通用人工智能领域。仅仅不到一年的2024年5月,DeepSeek就推出了史无前例高性价比的DeepSeekV2,因此被外界成为“AI届的拼多多”。

据DeepSeek官方表示,DeepSeek-V2采用了创新的架构,例如注意力机制方面的MLA(多头潜在注意力)和前馈网络方面的DeepSeekMoE架构等,以实现具有更高经济性的训练效果和更高效的推理。

自去年12月DeepSeek-V3发布后,DeepSeek变得更加“惊艳”。AI数据服务公司Scale AI创始人Alexander Wang就曾发贴称,DeepSeek-V3是中国科技界带给美国的苦涩教训。“当美国休息时,中国(科技界)在工作,以更低的成本、更快的速度和更强的实力赶上。”

而不到一个月之后,今年1月20日,DeepSeek正式开源R1推理模型,让这番关注量级再上一层楼。1月24日,在国外大模型排名Arena上,DeepSeek-R1基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一;紧接着,1月27日,DeepSeek应用冲上苹果中美区免费APP下载排行榜。爆火的用户体验场面,更是直接导致DeepSeek1月26日、27日在两天之内接连出现服务宕机现象。

新模型DeepSeek-R1引发国内外高度关注原因在与其性能和成本。

据DeepSeek介绍,其最新发布的模型DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版。

“这就相当于是说,它(DeepSeek-R1)生成的内容不是仅依靠已经标注给它的数据,而是它可以根据标注内容去深度思考、反向标注更多的东西。”资深互联网分析师张书乐向时代财经记者表示。

“它实际上提供了一个思路,就是人工智能如何完成从‘好学生’到‘学霸’的突破。我们之前的人工智能就像一个‘好学生’,通过深度学习,对资料进行反复的消化吸收,然后生成答案。这些资料就相当于是课本,好学生一旦遇到课本之外的超纲题就不会做了。而DeepSeek就像掌握了课本里方法论的‘学霸’,能够举一反三,通过学习课外读物,扩大知识面,而这些课外读物不一定是标注好的。”张书乐解释道。

除了性能外,而更令市场惊讶的是,DeepSeek-R1的预训练费用不到600万美元,在2048块英伟达H800 GPU(针对中国市场的低配版GPU)集群上运行55天完成,仅是OpenAI GPT-4o模型训练成本的不到十分之一。

据了解,随着数据规模效益的Scaling Law(模型规模定律)逼近极限,OpenAI去年9月发布采用RL训练的新推理模型o1,引领大模型领域“范式转移”。此前,国内大模型厂商无人能及OpenAI o1。而DeepSeek R1的问世,标志着国内首次突破OpenAI技术壁垒。

可以说,DeepSeek大模型证明了在Scaling Law之外,AI大模型或许还有另一条制胜之道。

“DeepSeek-R1的成功确实起到示范作用,它证明了AI初创公司确实能够在开源大模型上打破科技大厂垄断的局面,甚至在某些方面超越国内外科技巨头。这才是最刺激人心的东西。”张书乐分析道。

而在数日前,就有Meta的工程师们在匿名社交平台TeamBlind上表示DeepSeek所研发的AI模型为其带来了巨大压力。Meta首席AI科学家杨立昆(Yann LeCun)在其发表在Threads上的一篇文章中指出,比起“中国AI超越了美国”的观点,DeepSeek-R1更重要的是证明了“开源模型正在超越专用模型”:“DeepSeek得益于开源研究和开源项目(例如PyTorch和来自Meta的Llama)。这就是开放研究与开源的力量。”

(欢迎转载,开白请添加微信,ID:rafe0101)

-广东时代传媒集团出品-


⚆_⚆八马茶业冲击港股,背后站着福建富豪圈
⚆_⚆重庆全域肿瘤医院破产,投资高达30亿
⚆_⚆4家钢企预亏53亿,八一钢铁亏损扩大
⚆_⚆金租第一股换帅,20年老董事长辞职


请看官点赞点在看,给小编加一杯奶茶↓

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/178505
 
37 次点击