Py学习  »  chatgpt

8月30日 AI 头条|ChatGPT 周用户数突破200亿

硅星GenAI • 3 月前 • 374 次点击  
划重点:
  • ChatGPT 周用户数突破200亿
  • 苹果和英伟达或将参与 OpenAI 本轮融资
  • 谷歌展示实时游戏生成 AI 模型 GameNGen
  • 谷歌或将在越南建立大型数据中心
  • 智谱推出新一代基座大模型 GLM-4-Plus
  • 微软公开旗下定制 AI 芯片Maia 100 更多规格信息
  • 小米大模型小爱全量升级:小爱音箱将陆续推送更新
  • IBM Cloud 成首家采用英特尔 Gaudi 3 AI 加速器云服务供应商
  • 阿里通义千问推出 Qwen2-VL:开源 2B / 7B 参数 AI 大模型,处理任意分辨率图像无需分割成块
资讯详情:
ChatGPT 周用户数突破200亿
据 The Verge 报道,OpenAI 发言人Taya Christianson 昨日证实,每周有超过2亿名用户在使用 ChatGPT。
该数据比 OpenAI 去年 11 月报告的每周 1 亿活跃用户增加了一倍。Christianson 同时表示,92% 的财富 500 强企业都在使用 OpenAI 的产品,而在该公司发布了更便宜、更智能的 GPT-4o Mini 型号之后,API 的使用量也翻了一番。
自 ChatGPT 于 2022 年底发布以来,谷歌、微软和 Meta 也推出了自己的人工智能聊天界面,但 OpenAI 的用户群仍在继续增长。
苹果和英伟达或将参与 OpenAI 本轮融资
据 The Verge 报道,OpenAI 正准备进行一轮巨额融资,而苹果和 Nvidia 可能是投资者之一。
据悉,苹果 正在和 OpenAI 洽谈投资事宜,而英伟达也曾讨论过加入本轮融资。OpenAI 本轮融资由Thrive Capital 领投,OpenAI 的估值将超过 1000 亿美元。
微软也在洽谈加入本轮融资。该公司在 2019 年向 OpenAI 投资了 10 亿美元,并在 2023 年进行了数十亿美元的投资。
谷歌展示实时游戏生成 AI 模型 GameNGen
据 venturebeat 报道,谷歌近日发布论文,推出了首款完全由神经网络模型支持的游戏引擎 GameNGen。
谷歌表示, GameNGen在单芯片上能以每秒 20 帧的速度生成可玩的游戏,每一帧都由扩散模型预测。这一成就标志着人工智能首次完全模拟了具有高质量图形和交互性的复杂视频游戏。GameNGen在单个张量处理单元(TPU)上运行,能高效处理《毁灭战士》错综复杂的 3D 环境和快节奏的动作,而这一切都离不开游戏引擎的常规组件。
这一发展也为游戏创作和互动带来了令人兴奋的可能性。未来的游戏可以实时适应玩家的操作,即时生成新内容。人工智能驱动的游戏引擎还可能大大缩短开发时间和成本,使游戏创作平民化。
谷歌或将在越南建立大型数据中心
据 datacenterdynamics 报道,谷歌正在考虑在越南胡志明市附近建立一个超大规模的数据中心。
该设施可能会在 2027 年投入使用,但没有透露进一步的规格计划。如果计划顺利,这将是美国主要科技公司之一在东南亚国家的首次此类投资。
包括 Viettel、CMC 和 VNPT 在内的几家本地电信公司在越南各地运营数据中心。根据 Data Center Map 的数据,越南有 22 个数据中心,分布在三个市场:胡志明市、河内和岘港。
智谱推出新一代基座大模型 GLM-4-Plus
智谱 AI 官方消息,智谱 GLM 团队现已公布新一代基座大模型 GLM-4-Plus,这是智谱全自研 GLM 大模型的最新版本。
更新之后的 GLM-4-Plus在语言理解、指令遵从、长文本处理等方面性能得到全面提升,保持了国际领先水平。此外,智谱 AI 还推出了一系列的新模型包括文生图模型 CogView-3-Plus、图像/视频理解模型 GLM-4V-Plus以及视频生成模型 CogVideoX。
此外,智谱还为清言 APP 增加了视频通话功能,也是国内首个面向 C 端开放的视频通话,可以随时打断,还可以观察到周围环境的一切。
微软公开旗下定制 AI 芯片Maia 100 更多规格信息
微软近日公布了旗下首款定制 AI 芯片Maia 100 的规格信息。
Maia 100 是台积电 5nm 节点上制造的最大处理器之一,专门为部署在 Azure 中的大规模 AI 工作负载而设计。而关于这款芯片的信息也在本周公开。微软 Maia 100 系统采用垂直集成方式,以优化成本和性能。它还采用定制服务器板,配备专门设计的机架和软件堆栈,以提高性能。
据悉该芯片的尺寸为 820mm2,采用 COWOS-S 夹层技术的 TSMC N5 工艺封装,Maia 100 采用基于以太网的互联技术和类似 RoCE 的定制协议,可实现超高带宽计算。它支持高达 4800 Gbps 的全收集和散射降低带宽,以及 1200 Gbps 的全对全带宽。
小米大模型小爱全量升级:小爱音箱将陆续推送更新
小米澎湃OS 官方微博今天宣布,大模型小爱全面升级,目前已经在小米音箱上正式推送。
小米表示,全新升级的小爱大模型拥有更大而全的知识库,无论是文本创作能力,还是实时搜索能力都获得了全面提升。
此外,小米智能家庭屏系列和Redmi小爱触屏音箱等产品也将于10月内逐步接收到更新。
IBM Cloud 成首家采用英特尔 Gaudi 3 AI 加速器云服务供应商
据 IBM 官方消息,IBM 旗下云服务供应商 IBM Cloud 将率先导入英特尔 Gaudi 3 AI 加速器。
IBM Cloud 将于2025 年初推出基于英特尔 Gaudi 3 AI 加速器和第五代至强处理器的云服务,为企业提供更经济高效的 AI 运行平台选择。
对于生成式 AI 推理工作负载,IBM 计划在其 AI 与数据平台 watsonx 上启用对英特尔 Gaudi 3 的支持,为 watsonx 客户提供额外的 AI 基础设施资源,以便在混合云环境中扩展其 AI 工作负载,从而帮助优化模型推理的性价比。
阿里通义千问推出 Qwen2-VL:开源 2B / 7B 参数 AI 大模型,处理任意分辨率图像无需分割成块
通义千问团队今天对 Qwen-VL(视觉语言、Vision Language)模型进行更新,推出 Qwen2-VL。
Qwen2-VL 的一项关键架构改进是实现了动态分辨率支持(Naive Dynamic Resolution support)。与上一代模型 Qwen-VL 不同,Qwen2-VL 可以处理任意分辨率的图像,而无需将其分割成块,从而确保模型输入与图像固有信息之间的一致性。这种方法更接近地模仿人类的视觉感知,使模型能够处理任何清晰度或大小的图像。
另一个关键架构增强是 Multimodal Rotary Position Embedding(M-ROPE)。通过将 original rotary embedding 分解为代表时间和空间(高度和宽度)信息的三个部分,M-ROPE 使 LLM 能够同时捕获和集成 1D 文本、2D 视觉和 3D 视频位置信息。这使 LLM 能够充当多模态处理器和推理器。
今日重点论文:
谷歌研究院:
《Diffusion Models Are Real-Time Game Engines》
论文旨在解决如何使用神经模型实现实时交互式游戏引擎的问题,以及如何通过条件生成模型模拟经典游戏DOOM。论文提出了一种两阶段训练的方法,第一阶段使用强化学习代理程序学习游戏,第二阶段使用扩散模型生成下一帧图像,条件是过去的帧和行动序列。
论文地址:
https://arxiv.org/abs/2408.14837v1
谷歌deepmind:
《Generative Verifiers: Reward Modeling as Next-Token Prediction》
本文旨在提高大型语言模型的推理性能,通过使用生成式验证器来评估模型生成的解决方案,相对于传统的判别式验证器是否能够取得更好的效果?本文提出了一种新的生成式验证器(GenRM)来评估大型语言模型生成的解决方案,通过联合训练验证器和解决方案的下一个标记预测目标来实现。相比于传统的判别式验证器,GenRM可以更好地利用大型语言模型的文本生成能力,进而实现更好的推理性能。
论文地址:
https://arxiv.org/abs/2408.15240v1
上海期智研究院:
《Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer》
Humanoid-Gym论文旨在解决使用强化学习训练人形机器人在仿真环境中的动作技能,并实现从仿真到真实世界的零-shot迁移的问题。Humanoid-Gym框架基于Nvidia Isaac Gym,结合sim-to-sim框架和Mujoco,使用强化学习训练人形机器人的动作技能,并实现从仿真到真实世界的零-shot迁移。
论文地址:
https://arxiv.org/abs/2404.05695v2
牛津大学:
《Splatt3R: Zero-shot Gaussian Splatting from Uncalibarated Image Pairs》
该论文旨在介绍Splatt3R,一种无需姿态信息的前馈方法,可从立体对中进行野外三维重建和新视图合成。它试图解决在没有相机参数或深度信息的情况下,如何从未经校准的自然图像中预测三维高斯Splats的问题。该论文提出了一种新的方法,通过扩展MASt3R方法,预测构建每个点的高斯基元所需的附加高斯属性,从而实现了三维结构和外观的重构。然后,通过优化三维点云的几何损失和新视图合成目标,训练Splatt3R,避免了训练立体视图的三维高斯Splats时存在的局部最小值问题。同时,提出了一种新的损失掩码策略,对于推断视点的强大性能至关重要。
论文地址:
https://arxiv.org/abs/2408.13912v1

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/173687
 
374 次点击