作者 | Srini Penchikala, Mandy Gu, Namee Oberst, Roland Meertens, Anthony Alford, Daniel Dominguez
InfoQ 趋势报告为 InfoQ 读者提供了人工智能、机器学习和数据工程领域新兴技术趋势的全面概览。报告总结了 InfoQ 编辑团队与行业专家的播客讨论内容,涉及人工智能和机器学习的趋势,以及未来 12 个月值得关注的事项。与报告和趋势图相结合,我们的配套播客深入探讨了这些趋势。
年度趋势报告的一个重要部分是趋势图,它展示了哪些趋势和主题进入了创新者类别,哪些被提升到了早期采用者和早期大众类别。这些类别的划分基于 Geoffrey Moore 在《跨越鸿沟》一书中所提出的理论。在 InfoQ,我们尤其关注那些尚未跨越鸿沟的类别。这是今年的趋势图:
自 InfoQ 团队发布趋势报告以来,人工智能技术已经经历了显著的创新。
本文重点介绍了技术采纳各个阶段的趋势图,并深入探讨了自上一年度趋势报告发布以来新增或更新的个别技术的细节。此外,我们还讨论了采纳曲线中正在上升的技术趋势。
以下是自上一年度报告发布以来,一些显著的变化。
我们先从那些新晋创新者类别的主题开始。检索增强生成(RAG)技术对于那些希望利用大语言模型的能力但又不想将数据发送给大模型厂商的公司来说将变得极为关键。此外,RAG 技术在大规模应用大模型的场景中同样展现出了价值。
在创新者类别中,另一个新晋者是集成了人工智能的硬件,包括支持人工智能的 GPU 基础设施,以及由人工智能技术驱动的个人电脑、智能手机和边缘计算设备。预计在未来 12 个月内,这一领域将迎来显著的增长。
基于大语言模型的解决方案在基础设施部署和管理成本方面面临着挑战。为了应对这些问题,业界正在探索和采纳新的语言模型——小语言模型(SLM)。小语言模型特别适合在资源受限的小型设备上运行,尤其是在边缘计算场景中。一些行业巨头,如微软,已经推出了 Phi-3 等小模型产品,为社区提供了尝鲜的机会,用以比较小模型与大模型在成本和效益方面的差异。
随着生成式人工智能技术的迅猛发展,以及 OpenAI(GPT-4o)、Meta(LLAMA3)和谷歌(Gemma)等科技巨头相继推出的大语言模型,我们认为“生成式人工智能 / 大语言模型”已经做好了从创新者类别提升到早期采用者类别的准备。
另一个进入这个类别的是合成数据生成技术,随着越来越多的企业在模型训练中采用这一技术,其重要性日益凸显。
人工智能编码助手在企业应用开发环境中的采用率预计将显著增加。因此,这一主题从早期采用者类别提升到了早期大众类别。
图像识别技术正被众多工业组织应用于缺陷检测等场景,用以促进预防性维护工作,尽可能减少或消除机器故障。
自 ChatGPT 于 2022 年 11 月发布以来,生成式人工智能和大语言模型技术在创新方面的迅猛发展,且这种势头似乎在短期内不会放缓。
各个技术领域的主要参与者都在积极推出他们的人工智能产品。
在今年早些时候的谷歌 I/O 开发者大会上,谷歌发布了包括 Gemini 更新和“生成式人工智能搜索”在内的多项最新进展,这些创新将显著改写我们对搜索的传统认知。
大约在同一时间,OpenAI 发布了 GPT-4o,这是一个能够实时处理音频、视觉和文本的“全能”模型。
Meta 也在同一时间发布了 LLAMA3,并在最近发布了基于 4050 亿参数的 LLAMA 3.1。
开源大模型解决方案,如 OLLAMA,正受到大量关注。
在生成式人工智能领域,行业主要参与者陆续推出他们最新的大语言模型版本,如 GPT-4o、LLAMA3 和 Gemini,继续在人工智能和机器学习行业占据主导地位。除了这些流行的基础语言模型版本,其他公司,例如 Anthropic(Claude)和 Mistral(Mixtral),也都推出了他们的大模型。
大模型领域的另一个新兴趋势是上下文长度,即模型接收用于生成答案的数据量正在不断增加。Mandy Gu 在播客中深入探讨了更长的上下文窗口:
“这确实是我们看到的一个明显的趋势,即模型的上下文窗口正在变得越来越长。回想 ChatGPT 和大模型刚开始流行时,有限的上下文长度是许多人指出的短板之一。因为我们能够输入的信息量有限,所以在大规模应用大模型时遇到了困难。然而,今年早些时候,Gemini——谷歌的基础模型——推出了百万 Token 的上下文窗口长度,这无疑是一个颠覆性的变化,因为之前我们从未见过这么大的上下文窗口。我认为这开启了一个趋势,其他供应商也在努力实现同样长甚至更长的上下文窗口。”
语言模型的另一个大趋势是小语言模型的兴起。这些精细化的语言模型提供了与大语言模型相似的众多功能,但体积更小、需要的训练数据更少,内存消耗也更低。当前市场上的小语言模型有 Phi-3、TinyLlama、DBRX 和 Instruct 等。
面对众多的大语言模型,我们该如何挑选出最适合我们应用程序特定数据或工作负载需求的模型?大模型评估对于企业成功采用人工智能技术而言是至关重要的一步。幸运的是,一些比较大模型的网站和公共排行榜为我们提供了宝贵的参考资源。如 Huggingface 的 Chatbot Arena、斯坦福 HELM、Evals 框架等。
InfoQ 团队建议大模型应用开发者采用特定于其领域或应用场景的私有评估基准,以便监控模型性能的变化。最好是由人工生成的,那些尚未被包含进大模型训练数据集中的,确保能够提供关于模型质量随时间变化的独立的指标。
播客中提到:
“……在评估过程中,商业价值是我们需要考虑的一个关键因素。我对这些通用基准测试持保留态度,但我认为我们真正应该做的是全面评估大模型——不仅包括基础模型,还要考虑技术以及我们如何集成系统来完成特定的任务。例如,如果我要解决的问题是总结一篇研究论文并提炼语言,那么我应该针对这一特定任务来评估大模型的能力。因为根据“无免费午餐”定理,不存在一套最优的模型或技术能够适用于所有任务。因此,评估应该针对具体任务来定制,以确保选出最适合的模型”。
AI 智能体是另一个出现了很多创新的领域。智能体和由通用人工智能驱动的虚拟助手正在涌现,它们遍布各处,帮助软件开发人员提升工作效率。这些 AI 辅助工具不仅能够增强个体团队成员的生产力,还能促进团队协作。例如,GitHub 的 Copilot、微软 Teams 的 Copilot、DevinAI、Mistral 的 Codestral 以及 JetBrains 的本地代码补全都是 AI 智能体的杰出例子。
GitHub 最近推出了 GitHub Models 产品,这让广大开发者社区可以成为 AI 工程师,并能够利用行业领先的 AI 模型构建软件。
引用播客中 Roland Meertens 的话:
“我们看到了一些像 Devin 这样的 AI 软件工程师,它有一个终端、代码编辑器和浏览器,你可以给它分配任务,比如:“嘿,试着解决这个问题。”它会尝试独立完成所有工作。目前,Devin 的成功率大约是 20%,但考虑到它是免费的,这个成功率对于一个免费的”软件工程师“来说已经相当令人满意了。”
Daniel Dominguez 透露,Meta 计划推出一款新的 AI 智能体,专为小型企业设计,旨在帮助小企业主在自己的业务环境中自动化众多流程。HuggingChat 也推出了专门针对日常工作流程的 AI 智能体。此外,Slack 现在也集成了 AI 智能体,帮助用户总结对话、管理任务和优化日常工作流程。
AI 集成硬件借助 AI 技术彻底改变了各种任务的性能。例如,AI 驱动的 GPU 基础设施(英伟达 GeForce RTX)、AI 驱动的个人电脑(苹果 M4 芯片)、手机和边缘计算设备,它们都能显著加速 AI 模型的训练和微调,并加快内容创作和图像生成。
随着通用人工智能和语言模型的快速发展,安全部署这些 AI 应用程序对于保护消费者和公司数据隐私和安全至关重要。
随着像 GPT-4o 这样的多模态语言模型的出现,处理非文本数据,如视频,时的隐私和安全问题变得更加关键。这一点在整体的机器学习流程和 DevOps 过程中显得尤为重要。
播客讨论小组就 AI 安全问题提出了以下建议:首先,对数据流向进行全面的追踪和映射,培训员工遵循适当的数据隐私安全实践,并使安全措施成为他们最容易遵循的路径,促进组织整体采纳。其他最佳实践还包括:确保工作流程具备审计能力,以便能够追踪所有推理之间的交互。一些值得关注的问题包括:设计工作流程中是否存在潜在的攻击面?是否容易受到提示词注入的威胁?
大型语言模型和 AI 技术的另一个关键方面是托管语言模型并管理其整个生命周期。LangOps 或 LLMOps 涵盖了在生产环境中部署和管理模型的最佳实践。
Mandy Gu 分享了她的团队在公司项目中积累的 LLMOps 经验:
“我们开始自托管模型,这样我们就可以轻松地加入开源模型,进行微调,然后将其集成到我们的平台中,并通过 LLM 网关为我们的系统和最终用户提供推理服务。然后我们开始构建检索功能作为可复用的 API,并围绕向量数据库构建框架,增强可访问性。随着我们逐渐将这些组件平台化,我们的最终用户——包括科学家、开发者以及业务人员——开始尝试并发现:“这个工作流实际上可以通过 LLM 得到显著改进。”这时,我们就会介入,帮助他们将这些想法产品化,并实现大规模的产品部署。”
由于播客时间的限制,小组未能深入探讨 AR/VR 的最新趋势,但这是一个值得关注的话题,所以我们在这里简要介绍一下。
增强现实(AR)和虚拟现实(VR)应用正从最新的 AI 技术创新中获得显著的益处。苹果和 Meta 最近推出了他们的 VR 产品,包括 Apple Vision Pro、Meta Quest Pro 以及 Ray-Ban Meta。这些产品都有望通过集成 AI 和语言模型的创新将应用开发和用户体验提升至新的高度。
人工智能的未来正朝着开放和可访问的方向发展。虽然目前大多数模型都是闭源的,但企业正努力推动向开源模型的转变。今年,检索增强生成技术将变得更加关键,尤其是在大规模应用大语言模型的场景中。同时,像个人电脑和边缘设备这样的 AI 赋能硬件将受到更多关注。小语言模型也将得到更广泛的探索和应用,它们非常适用于在小型设备上运行的边缘计算场景。在整个语言模型的管理生命周期方面,基于 AI 的应用程序的安全性和隐私保护仍然是一个重要的议题。
查看英文原文:
https://www.infoq.com/articles/ai-ml-data-engineering-trends-2024/
声明:本文由 InfoQ 翻译,未经许可禁止转载。