第一个聊天机器人的发明者 Joseph Weizenbaum 认为 AI 潜伏着某种危险,其在博客文章中表示,没有一台计算机能够完全理解人类,但是将计算机视为人类会导致人们认为计算机拥有判断力、是值得可信的。
02
警惕!ChatGPT插件存在安全风险
自从 OpenAI 三月份推出 ChatGPT 插件以来,目前插件商店上已经有 100 多个页面的插件。然而,安全研究人员表示,插件的运行方式可能会使人们的数据面临风险或被恶意黑客滥用。Electronic Arts 的红队主管和安全研究员 Johann Rehberger 的记录显示,ChatGPT 插件可以被用来窃取聊天记录、获取个人信息以及允许在个人计算机上远程执行代码。
03
英伟达推出DGX Cloud:
用浏览器接入AI超级计算机
英伟达宣布,其基于云的 AI 超级计算服务 DGX Cloud 已经全面开放。该服务允许用户在 Oracle 云基础设施(OCI)上访问数千个虚拟 Nvidia GPU(目前可在美国和英国使用)。英伟达称,DGX Cloud 可让生成式 AI 开发人员将大量工作负载并行分配到多个计算节点,从而将训练速度提高两到三倍,超越传统云计算。企业现在可以利用 DGX Cloud 打造自己的“AI 超级计算机”,同时进行多个 AI 项目。
04
ChatGPT安卓版正式上线
当地时间周二,OpenAI 宣布安卓版 ChatGPT 已经全面上线。目前,美国、印度、孟加拉国和巴西的安卓用户可以在谷歌 Play 商店下载使用,预计在下周将覆盖更多地区。
05
“永不疲倦”的AI新闻播报员
在过去三个月内,印度两大新闻网络纷纷推出两个多语言聊天机器人作为电视新闻主持人。这些 AI 新闻播报员具备多种语言功能,不仅节省成本,而且似乎“永不疲倦”。然而,此类技术的快速崛起也引发了人们对就业保障问题、故事缺乏细微差别以及机器人缺乏人为因素的担忧。
06
AI的“奥本海默”时刻?
电影《奥本海默》讲述了核弹发明,激发了新一代对旧威胁的恐惧。专家警告,AI 会带来最新的毁灭性打击。然而,牛津大学安全技术专家 Martin 表示,过度恐慌是错误的,需要平衡考虑。他提醒政府和企业解决潜在问题,如美国科技公司与白宫的水印协议,我们应该关注来自有组织的网络犯罪分子的威胁,而不是过度担忧 AI 的厄运。
07
谷歌新研究:
根据大脑活动生成音乐
谷歌新的 AI 模型 Brain2Music 可以根据功能磁共振成像(fMRI)数据所看到的大脑活动来重建音乐。从本质上讲,该模型可以读取参与者的大脑模式,从而产生与参与者所听音乐相似的音乐。据介绍,该模型生成的音乐在流派、乐器、情绪等特征上与参与者最初听到的音乐刺激相似,音乐类型包括布鲁斯、古典、乡村、迪斯科、嘻哈、爵士、金属、流行、雷鬼和摇滚。
08
警告:AI可用于制造生物武器
日前,AI 初创公司 Anthropic 首席执行官 Dario Amodei 在美国国会听证会上警告,AI 可能导致恐怖分子使用技术制造生物武器,并于其他在场专家一起呼吁国际合作来控制 AI 的发展,制定类似于核技术的国际规则。
09
数据集:织物的视觉语言
萨拉戈萨大学和 Adobe Research 共同提出了 text2fabric 数据集,该数据集可以将自由文本描述与织物材料相关联。通过分析数据集,研究人员找到了关键词汇、属性和结构,准确理解人们如何描述织物,为泛化到其他材料提供指导。另外,他们还展示了该数据集可以让 CLIP 等大型视觉-语言模型专门化,显著改进细粒度材料检索和自动字幕等应用。