社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

强化学习成Scaling Law后时代的关键突破口!全球机器学习技术大会盛大开幕

人工智能学家 • 3 天前 • 12 次点击  

作者 | 《新程序员》编辑部
出品 | CSDN(ID:CSDNnews)

当下,生成式 AI 正加速重构技术版图,而以大语言模型为核心的新一轮 AI 革命,正在驱动从软件开发到产业落地的全方位变革。

为了进一步推动技术交流与产业融合,4 月 18 日,由 CSDN 联合高端 IT 咨询与教育平台 Boolan 主办的 2025 全球机器学习技术大会(ML-Summit 2025)在上海虹桥西郊庄园丽笙大酒店盛大开幕。作为年度最具影响力的 AI 技术盛会之一,本次大会云集院士、学术领军者、IEEE Fellow、顶会论文作者、一线科技产品技术实战派、开源先锋组成的超 50 位重磅嘉宾,共同探讨大模型时代下的技术突破与落地实践。

在主会场上,CSDN 高级副总裁、Boolan 首席技术专家李建忠,加拿大工程院及加拿大皇家学院院士香港理工大学 AI 高等研究院院长杨强,IEEE Fellow、清华大学人工智能研究院副院长、生数科技创始人兼首席科学家朱军,数势科技创始人兼 CEO、原京东集团副总裁、原京东商城技术负责人黎科峰结合其最新技术成果和实践经验,为现场技术人带来了前沿洞察与实战启发。

本次大会聚焦 12 大专题,涵盖大语言模型技术演进、GenAI 产品创新与探索、AI 智能体、DeepSeek 技术解析与行业实践等热点方向,来自微软、百度、阿里巴巴、腾讯、字节跳动、蚂蚁集团、智源研究院、小红书、网易、商汤科技、小米、360、AMD、数势科技、Neuriva 纽睿华、极狐、飞瓴德移民、声网、人民邮电出版社异步社区、电子工业出版社博文视点、清华大学出版社等数十家领军企业和组织的技术专家齐聚现场,分享了他们从模型训练到产品化落地的全链路实践,为现场听众呈现一场兼具深度、广度与前瞻视野的技术盛宴。

大会现场座无虚席


李建忠:大模型技术创新驱动的 AI 生态和应用演进

上午九点,CSDN 高级副总裁、Boolan 首席技术专家李建忠以《大模型技术创新驱动的 AI 生态和应用演进》为题,为大会带来开场演讲。

李建忠首先分享了 AI 发展的几个阶段:感知 AI、生成式 AI、智能体、物理 AI,结合生物智能的发展,从动物的视觉能力、人类的语言文字、科学革命等轨迹来看,语言在人类智能发展过程中起着关键作用。

结合最近 Claude 的一些研究,李建忠指出大语言模型并不是简单概率所谓“Predict Next Token”只是表现形式,模型会提前规划整个输出逻辑。大模型 不是简单地“背诵”人类知识,而是通过复杂的抽象与逻辑推理进行“理解”与“生成”。大模型内部已形成跨语言的概念映射区域,显示出其拥有更深层次的概念抽象能力

CSDN高级副总裁,Boolan首席技术专家 李建忠

李建忠引用哲学家维特根斯坦的观点:“语言是思想的图画”,进一步指出语言本身是人类智能的缩,其背后的“抽象”过程其实是一种“压缩”和“去噪”。神经网络在本质上也具备类似机制。例如,Transformer 是典型的“压缩”,而 Diffusion Model 则是典型的“去噪”。

在技术演进方面,他提到,自 2023 年 9 月 OpenAI 推出 o1 模型起,到 2024 年初 DeepSeek R1 的发布,强化学习显著推动了模型从“训练范式”(预训练 + 后训练)向“推理范式”转变。他用一句话总结三者的关系:“预训练讲知识,后训练讲文明,推理讲道理。

李建忠认为,大模型去年在预训练方面遇到瓶颈——也就是外界广泛讨论的“Scaling Law 失效”问题,其根本原因在于公域语料趋近耗尽。强化学习的引入让模型生成数据,摆脱了对人类提供数据的依赖,这也使得推理范式成为新一轮 Scaling Law 曲线增长的核心驱动力。

在应用层面,李建忠指出,大模型正沿着两个主要方向发展:生成式 AI(AIGC)与智能体(Agent)。AIGC 正从单一文本向图像、音频、视频等多模态扩展,通过降低创作门槛重塑内容产业生态。而智能体则更偏向“执行任务”——通过规划、调用工具、协作、记忆与行动完成复杂任务。其中,规划能力依赖强化学习所带来的推理能力,是推动 2024 年智能体爆发的关键引擎。

李建忠谈到当下火热的 MCP 协议和 Agent2Agent 分别对应“大模型调用工具” 和 “智能体之间交互”。MCP 是大模型调用传统结构化软件、工具和 API 的关键协议,沟通以结构化数据为主。Agent2Agent 将成为未来智能体协作网络的主要协议 ,其沟通方式则更多依赖自然语言。他谈到,未来人类会很少直接使用传统软件,传统软件要么成为可被智能体调用的 Tools, 要么面临消亡。独立应用是结构化软件时代的遗产,智能体服务链将无缝协作。


杨强:联邦大小模型协作学习

在《联邦大小模型协作学习》的主题演讲中,加拿大工程院及加拿大皇家学院院士香港理工大学AI高等研究院院长杨强指出,目前数据分散化与隐私保护需求对传统中心化 AI 架构提出挑战——如何在数据不出域的前提下,实现跨机构数据协同与模型训练?

从宏观视角来看,AI 的发展史就是不断提升模型维度的历史,到了如今的生成式 AI 阶段,模型维度更是变得极其庞大。基于此,杨强认为必须从学术与理论层面重新思考一个问题:大模型到底还能走多远?

当前,大模型发展大多采用中心化模式:数据集中在一起,算力也集中在一起。然而,以金融领域为例,这种中心化方式存在一定局限:例如,用户在申请贷款时,系统需要向多个金融机构查询数据,最终整合各方反馈做出判断——这个过程中不仅需要跨节点的推理,还需防范洗钱、循环贷款等高风险行为,同时数据安全也是一个备受关注的问题。

为此,杨强指出联邦学习(Federated Learning)——一种结合隐私保护的分布式 AI 方法,是更好的选择:“与其将数据集中喂养模型,不如在数据不出域的前提下,通过模型之间的参数交换来实现知识共享。”

联邦学习分为两种核心范式,即横向联邦学习(增加样本数量)和纵向联邦学习(扩展特征空间)。通过这两种方式,便可以构建出一个联邦学习网络。根据 Gartner 曲线,近年来联邦学习在学术界、工业界和政府领域持续增长,但面临落地应用的考验。

而大模型的出现,为联邦学习带来了新机遇。杨强表示,他们开源了联邦学习系统 FATE,并正将其与大模型结合,让大模型能在联邦学习的架构下构建成一个网络形态,在彼此学习的同时保障数据隐私。

在这一系统的建立过程中,迁移学习(Transfer Learning)是赋予大模型“举一反三”能力的关键技术,其本质就是将已有模型在成熟领域中的能力迁移到新任务或新数据上:

  • 大模型“教授”小模型:利用知识蒸馏(Knowledge Distillation)将大模型的通用能力(如自然语言理解)蒸馏至本地小模型,解决算力受限问题。

  • 小模型“反馈”大模型:小模型可为大模型带来领域专业知识(如金融、医疗等),并生成脱敏“人造数据”向大模型查询,从而在保护隐私的前提下,实现高质量的知识迁移。

不过杨强也指出,目前联邦学习与大模型的结合仍存在挑战,例如幻觉问题、缺乏高质量数据(尤其在金融、医疗等领域),以及多方数据合规和模型安全等问题。

在演讲最后,杨强总结道:AI 发展将是一场持久战,其实现过程是一个长期闭环,人类需要通过提示、反馈与调整,不断协助 AI 提升认知能力。此外,他还提到分布式架构也是一个当前值得关注的重要趋势:就像当年从单机服务器向移动互联网过渡的技术转折点一样,现在也许正是 AI 融合分布式系统的关键节点。


朱军:扩散策略学习的若干进展

扩散策略是强化学习领域的前沿研究方向。在本次大会上,IEEE Fellow、清华大学人工智能研究院副院长、生数科技创始人兼首席科学家朱军带来了《扩散策略学习的若干进展》主题演讲。

朱军解释道,“扩散策略”指的是将生成式模型,尤其是扩散模型,应用于强化学习,用于策略的建模与优化。相比依赖实时交互的在线强化学习,离线强化学习更加注重对历史行为数据的利用,通过对已有数据的建模,实现策略学习和优化。同时,其总结了扩散策略三大优势,一是其具有强大的行为建模能力,能够模拟复杂的人类行为模式;二是生成多样解法,同一任务下可生成多种合理解决路径;三是易于与多模态基础模型集成,可与视觉、语言等模态自然融合。

自 2022 年底起,朱军团队围绕扩散策略展开了系统研究,并提出了多个关键模型与方法。对此,朱军于会上分享了以下三个方面的进展:

  • RDT-1B:双臂操作的扩散基础模型(ICLR 2025)。以往构建基础模型时,通常采用 VAE 或基于 Transformer 的架构,但这些方法存在一些局限性,例如需要对信息进行 Token 化,难以精准表达连续动作;VAE 常用于回归任务,输出结果趋于平均值,缺乏代表性;且模型本质上是确定性的,缺乏生成多样性与泛化能力。朱军分享道,他们选择以扩散模型为基础,构建更具表达力的策略模型,特别适用于如双臂机器人等动作分布天然复杂的场景。RDT-1B 的整体流程涵盖数据准备、任务设计等环节,目标是在统一架构下支持多任务泛化,提升机器人跨任务、跨本体的泛用能力。该模型输入包括视觉信息、语言指令、机器人本体参数、带噪动作等。通过扩散模型进行动作去噪,实现精准、高效、泛化的控制策略。

  • SRPO:推理速度优化方法。尽管扩散策略具有强大的生成能力,但推理速度较慢,难以应用于实时控制任务。为此,朱军团队提出了 SRPO(Single-step Retrieval Policy Optimization)方法,能够将推理速度提升约 50 倍,大幅提高扩散策略在高频控制任务中的实用性。SRPO 的核心思想是跳过逐步采样过程,直接从价值函数和预训练的扩散行为模型中提取高效、确定性的策略。通过行为分布的 score 函数对策略梯度进行正则化,避免逐步采样,能够快速得到稳定的输出。在 D4RL 的 locomotion 任务中,SRPO 在保持SOTA 性能的同时,采样速度提升了超过 25 倍。

  • EDA:扩散行为模型的对齐方法。EDA 项目探索如何将大语言模型中的对齐技术迁移至扩散模型的策略微调中。目前,决策类大模型多基于自回归结构,且研究主要集中在预训练阶段。EDA 项目提出了探索扩散模型的预训练路径,并研究其强化学习微调机制。由于扩散模型处理的是连续动作,缺乏可解析的概率分布,不能直接使用语言模型中的最大似然方法;同时,强化学习中的 Q 函数也无法直接替代语言模型中常用的偏好比较标签。EDA 的对齐技术在提升策略性能的同时,具有收敛速度快、数据需求少的优点,提供了将语言模型对齐方法迁移至具身智能控制任务的可行路径。

朱军指出,Diffusion Policy 作为一个新兴方向,正逐步展现出成为具身智能基础模型的潜力。目前,团队发布的 RDT-1B 已在多个下游项目中得到应用,社区也开始使用其开源版本进行新模型的训练实验。与此同时,SRPO 和 EDA 项目分别在推理加速与对齐机制上为扩散策略的发展提供了关键支撑。在朱军看来,未来随着研究从数字域逐步走向物理域,将面临更多挑战,例如如何高效应对高频交互的问题,如何实现模型的在线学习和更好的泛化能力,这些都是非常值得关注和攻克的关键问题。


黎科峰:DeepSeek 范式重构:从大模型平权到企业级智能决策 Agent 的产业革命

今年春节 DeepSeek 发布 R1 模型,其模型性能达到 OpenAI 同类模型水平的同时,将训练与推理成本大幅压缩并以开源形式向全球开放,赢得了全球研究者的广泛关注。在此背景下,数势科技创始人兼 CEO原京东集团副总裁、原京东商城技术负责人黎科峰带来了《DeepSeek 引领产业智能革命:从大模型平权到 AI Agent 爆发》的主题演讲。

数势科技创始人兼 CEO原京东集团副总裁、原京东商城技术负责人 黎科峰

演讲伊始,黎科峰首先回顾了 AI 的发展历程,大体可分为三个阶段:

  • 规则时代(AI 1.01990s):AI 主要依赖专家系统和基于规则的逻辑推理,如 IBM 的深蓝,标志着 AI 的初步应用;

  • 数据时代(AI 2.0,2010s):深度学习和神经网络成为核心技术,AlphaGo 等推动了 AI 在图像识别、语音识别等领域的突破;

  • 生成时代(AI 3.0,2020s):大语言模型和生成式 AI 如 ChatGPT 引领潮流,AI 开始具备高质量内容生成和多模态交互能力,GPT3.5 与 DeepSeek-V3 成为划时代产物。

事实上,在黎科峰看来,过去每一次的技术普及都离不开两个核心条件:技术足够好+成本足够低——而 DeepSeek 以极低的成本复现并超越了部分技术成果且开源开放,如同开启智能时代的“Android Moment”,推动大模型从技术霸权走向了平权时代

与此同时,大模型的足够好足够便宜促成了应用的集中爆发。黎科峰指出,从春节至今短短两个月,围绕 DeepSeek 等模型的应用已呈现百花齐放之势,Manus 等 AI 智能体(AI Agent)概念也逐渐进入公众视野。正如移动互联网时代的核心应用是 App,在 AI 时代,大模型之上的核心应用形态则是 AI Agent,其核心能力可归纳为五大魔法:多模态环境感知、动态复杂推理、面向目标的行动规划、智能工具调用执行和持续学习进化。目前,AI Agent 正快速渗透到办公、编程、客服、教育、医疗等多个领域,部分产品已实现年收入(ARR)超 亿美元,标志着新一轮 AI 应用浪潮的崛起。

相比 C 端应用的流量争夺,企业端(端)更强调价值与实际场景落地。对此黎科峰表示,尽管中国在过去的企业数字化转型中起步较晚,但这反而会成为 AI 落地的新红利。而企业级 AI Agent 的部署通常需满足三大要求:

1)效果稳定性:必须足够好一直好,幻觉问题在企业环境中是不可接受的;

2)系统安全性:私域数据的保密性与合规性是企业 AI 系统设计的重要基石;

3)能力可扩展性:AI 必须嵌入现有 IT 系统,避免成为孤岛应用。

当前常见应用如文档写作、知识问答、智能客服等多集中于提效场景;但黎科峰认为,更具价值潜力的,是围绕企业战略与经营的 智能决策 Agent”赛道——虽然落地难度高,但企业收益也最大。以数势科技 SwiftAgent 为例(一款企业决策分析智能体平台),他表示目前 SwiftAgent 已在头部城商行落地,并取得了极大收益:数据需求满足效率提升 50 倍,领导分析需求满足度超 90%,指标语义理解准确率 100%上线一周领导主动问询数量超 1200 次。

同时,黎科峰也在现场发布了数势科技企业决策分析智能体平台 SwiftAgent 3.0基于 DeepSeek R1/V3 大模型与行业领先的智能引擎,重构企业数据分析与决策范式,实现从“数据可视化”到“决策自动化”的跨越式升级。

数势科技 SwiftAgent 3.0 实现了六大进化:一、语言理解能力全面增强;二、增强数据提取的准确性与效率;三、数据呈现直观性大幅提升;四、异构数据源全面接入;五、洞察报告能力深度提升;六、洞察与决策路径全面打通。

展望未来,黎科峰对中国 AI Agent 的发展充满期待:中国在算法层面已与美国同步;算力层面通过  DeepSeek 等项目打破壁垒,形成自主生态;作为全球最大实体经济体,中国具备海量应用场景;在数据层面,公域数据已殆尽,因此私域数据 生成数据将是关键。


圆桌对话:大模型技术趋势展望与产业落地

作为上午主会压轴的圆桌对话环节,在格蠹科技创始人、《软件调试》和《软件简史》作者张银奎的主持下,CSDN 高级副总裁、Boolan 首席技术专家李建忠,加拿大工程院及加拿大皇家学院院士香港理工大学 AI 高等研究院院长杨强,AMD 人工智能事业部企业副总裁 Ramine Roane,极狐 GitLab CEO 柳钢围绕“大模型技术趋势展望与产业落地”主题,就算法、算力、数据三大 AI 核心要素如何驱动大模型持续演进展开了深入探讨。

张银奎(主持人):语言模型是我们实现通用人工智能的最终路径吗?

李建忠:这个问题不简单,确实有很大争议,到今天也没有形成共识。所以我只能代表我个人的观点。我认为,如果我们谈的是数字领域(也就是比特世界),而非物理领域(原子世界),那语言模型确实是通往 AGI 的最核心、最关键的道路。物理领域对应的可能是具身智能,是另一种范式的革命。

如果我们回顾地球上生物的演化史,会发现视觉早在 5 亿年前的生物中就已经出现了,但直到人类出现之后,智能才真正得到了巨大的飞跃。而推动人类智能发展的关键,就是语言。即便在动物界,那些拥有一定语言能力的动物,比如说海豚,也普遍被认为更聪明。最近我看到谷歌还出了一个关于海豚语言模型的研究。但即便如此,动物的语言系统依旧很初级,因为它们缺乏文字符号来记录信息。这说明,语言在智能发展中扮演着极其关键的角色。语言不仅是信息的载体,更是抽象思维的基础。

当然,也有人认为现象并不等于本质,可能只是巧合。但我在演讲中还引用了一篇 Claude 大约一个月前发布的论文(https://www.anthropic.com/research/tracing-thoughts-language-model),我觉得这篇论文的重要性在业界被低估了。这篇论文其实非常有力地反驳了以杨立坤为代表的“视觉派”的观点——他们认为语言不具备智能,不具备推理能力。而 Claude 的研究很清楚地展示了大模型是如何将语言抽象成概念体系,并在这些概念之间进行推理的。

过去大家总觉得大模型只是个概率分布器,只是在“下一个词该说什么”上做预测。但其实它在生成下一个 token 时,已经做了很多规划性的思维。像演绎法、归纳法这样的推理过程,其实都依赖于抽象概念体系。而 Claude 的论文恰恰展示了,大模型已经构建出类似人类的思维结构。

今天大家用 DeepSeek 的时候也能明显感受到,它的“思维链”已经非常惊人。我相信去年还有很多人不信,但今年看了 DeepSeek,我已经敬畏地承认:这个模型的智力,已经超过我了。所以从现有研究和效果来看,我认为语言是人工智能的核心。

张银奎(主持人):我认为,不管是什么样的算法,背后都离不开算力的支持。我记得 20 年前我在翻译机器学习相关内容时,当时的神经网络也就三层结构。那个年代,尽管研究这些模型的人已经非常厉害了,但模型本身的智能程度仍然很有限。

今天我们为什么能够实现如此高水平的智能?很大程度上是因为算力的飞跃。从传统以 CPU 为核心的冯·诺依曼架构出发,如今我们正面临巨大挑战。GPU、TPU、NPU 等具备高并行处理能力的神经网络架构,正在逐步成为新的计算主流。大家如何看待这个转变?

Ramine Roane:众所周知,摩尔定律大概从 20 到 25 年前开始放缓了。简单科普一下,摩尔定律的意思是:每 18 个月,晶体管数量会以指数级速度翻倍。在早些年,摩尔定律还在快速推进,而软件算法的变化其实不大。但近些年,尤其是从最近几年开始,摩尔定律明显放缓,直接刺激了计算架构和算法层面的创新。

回顾历史,从 2000 年初开始,计算机从单核心向多处理器演进。但这类提升其实对软件开发者帮助不大,因为他们不得不开始编写多线程程序。这些算法虽然是基于旧时代的,但即使给你无限晶体管,最多也只能提升四倍性能,永远无法突破这个极限。所以,算法也必须随之变革。

随着 AI 时代到来,传统的顺序算法,像 C++ 编程,正在逐步被深度学习取代。这里的变化非常巨大。正因如此,计算架构也从早期的 CPU 符号处理器,发展到了多处理器,再到专用加速器,也就是 AI 加速器。当时最早的 GPU 只是用于图形处理,后来转向高性能计算(HPC),再到今天的机器学习。

这就是为什么我们要重新选择适用于特定数据类型的 AI 加速器。但也正因如此,编程难度大幅提升。我们今天的 AI 系统,尤其是AI Agent 之间的通信,最终还是得依靠 CPU 来完成。

张银奎(主持人):当前大模型的开源已经成为一种新的趋势。相比传统的软件代码开源,大模型开源面临的挑战和复杂度似乎更高。比如一个模型文件动辄几十个G,对于柳总你们来说,是否也是一个巨大的挑战?

柳钢:谈到开源,我们确实感触颇深。作为开源的推动者,我认为大模型开源与传统软件开源有一个显著的区别,那就是它的影响力截然不同。

传统软件,即使开源,它的目标通常是解决某个具体问题。例如,GitLab 极狐旨在为数百万乃至数千万程序员提供一个高效的软件研发平台。这种影响虽然广泛,但仍然较为聚焦。而大模型开源则不同,一旦开源,其影响力会迅速渗透到各行各业。用一个形象的比喻来说,大模型开源的影响力不仅仅是“更大一个量级”,而是“完全不同的维度”。

更重要的是,大模型开源并不仅仅是将代码或权重公开。如果只是这样,其复现的难度会非常高,因为训练大模型所需的数据量和计算能力非常庞大。很多时候,这样的大模型开源更像是“我请你吃满汉全席,但只给你调料包”。你可以对模型进行微调和修改权重,但很难从零开始再造出一个完全一样的模型。

正因如此,大模型开源带来了一个重要转变——它让你可以免费获得一个具备基础智能能力的核心技术。这本质上强化了开源的意义,也使得开源的影响力更加深远。

像 Deepseek 这样的大模型项目,通过开源推动技术普及,正是我们长期倡导的开源精神的延续和拓展。我们非常欣慰地看到,开源在中国乃至全球越来越受到重视,开源的价值也在不断得到验证。

张银奎 (主持人): 大语言模型的能力确实存在局限,未来我们应该如何提升其性能呢?强化学习是否是一种可行的方案?我个人认为,强化学习是一种相对传统的算法。那么,您如何看待强化学习在大模型应用中的地位呢?

杨强: 强化学习确实是一种传统的学习方法,很多人可能好奇它的来源。实际上,强化学习的源头可以追溯到动物学,许多动物学家研究过鸟类在沙漠中如何生存。有些鸟类能够在恶劣环境中生存下来,而有些则灭绝了。这是因为它们在寻找食物的过程中,有些鸟类会不断地学习如何找到食物,而有些则会把所有的食物都吃光,最终无法找到新的食物来源。强化学习的优点在于它既能推理,又能学习。

换句话说,强化学习是一种持续学习的架构。我认为,大家现在可能更多关注强化学习的推理功能,比如思维链的应用。但强化学习的核心思想其实是一个在生命周期中不断学习、不断推理的过程。因此,强化学习的真正潜力还远未被挖掘。

当大模型真正能够落地时,我们希望打破传统的“先训练、再推理”这种固守的两阶段过程。未来的模型应该是无缝衔接学习与推理的。此外,我们也不希望每个大模型的开发者都从零开始进行学习,而是应该在已有的基础上相互借力。一个强大的合作网络能够提高学习效率,而目前的中心化大模型学习和推理仍然存在重复劳动。我们需要一个安全、可靠且高效的连接方式,让大模型形成一个类似互联网的协作平台,从而大大提升学习效率。

张银奎(主持人):最后请各位嘉宾用一句话预测 AI 下一轮发展的重大趋势,或者说“The next big thing”是什么?

李建忠:当前主流的大语言模型普遍依赖人类数据对齐与监督学习机制,而我认为下一代 AI Agent 的突破将更多来自强化学习。通过与环境交互(如奖励或惩罚机制),AI 可能突破人类经验边界,在科学研究、药物研发、气象预测等领域探索全新策略——正如 AlphaZero 在围棋中超越人类棋手的创新路径。

杨强:我认为 AI 技术的下一站,是从中心化转向分布式,并从单一的预训练和推理阶段升级为混合的多模态模型。

Ramine Roane:Transformer 架构及其注意力机制在当前阶段仍是主力,但它计算复杂度高(呈二次方增长),可扩展性不足。因此,目前的研究趋势正在向两极分化:一是完全替代 Transformer,二是引入符号图(Symbolic Graph)补强。未来,我们很可能会见到符号主义的回归,也许它不会完全取代现有架构,但至少会与现有的架构协同工作,并以某种可扩展的方式相互补充。

柳钢:在我看来,未来 AI 的大事件应该是基于开源大模型、多模态大模型技术构建的 AI Agent 在企业应用的落地,其中我最看好的一个领域是 AI 智能编程。而在构建 AI Agent 这类产品方面,最后我也想分享对于“护城河”的两种理解:

  • 对于坚持开源的企业来说,其唯一的护城河就是持续进步,不断迭代,实现更优性能和更高效率;

  • 对于以模型为基础做产品的企业而言,真正的护城河只有三个字:好产品。好产品不是凭空诞生的,而是通过一个个“踩坑”积累而来——只有深入企业现场、解决实际问题,才能在这个眼花缭乱的市场中立足。


技术盛宴首日收官,精彩互动持续升温

在会场外的展厅中,AMD、数势科技、Neuriva 纽睿华、极狐、飞瓴德移民、声网、人民邮电出版社异步社区、电子工业出版社博文视点、清华大学出版社等众多合作伙伴的展位吸引了大量参会者驻足。参观者们与各展商热烈互动,积极了解最新的创新成果,现场氛围热烈非凡。

随着首日的圆满结束,全球机器学习技术大会的技术盛宴也告一段落。来自学术界与产业界的专家学者们,为与会者带来了关于大模型技术发展的深入洞察。从技术演进到工程实践,从理论突破到产业应用,他们为大家呈现了一场内容丰富、水平高超的技术分享。

当前,大会第二日继续围绕大语言模型技术的演进、大模型应用开发实践、大模型推动的软件开发变革、多模态大模型的前沿进展、GenAI 产品的创新与探索、AI Infra 大模型基础设施的建设、大模型工程与架构设计、具身智能与智能硬件、算力基础设施与性能优化、DeepSeek 技术解析及行业实践、AI 智能体、大模型与行业融合等热点议题展开讨论。更多的技术创新与实践经验,与您一同见证!

推荐阅读:
一人连肝7年!独立游戏最惨「翻车现场」:3.7万张手绘+500首配乐,结果连个差评都等不到……
“我年入3000万美元、绩点4.0,却被15所名校集体拒绝!”这位18岁创业少年到底做了什么?
投资5000万美元的AI项目,竟是菲律宾“人肉API”?35岁CEO被曝欺诈,或面临最高40年监禁!

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/181283
 
12 次点击