Ilya Sutskever 或已发现一种比ChatGPT更聪明的AI训练方法
作者:Chris Smith
当我们谈到ChatGPT早期研发者时,第一个想到的名字通常是Ilya Sutskever(伊利亚·苏茨克维)。虽然他已不再效力于OpenAI,但他确实是OpenAI的联合创始人之一,也是ChatGPT和其他许多AI项目背后的关键人物。
2023年末,Sutskever参与了OpenAI内部的一次权力斗争,曾短暂地将Altman赶出公司,但事后他对此表示后悔。去年5月,他彻底从OpenAI辞职,并创立了一家名为“安全超级智能”(Safe Superintelligence,简称SSI)的公司,公司的名字本身就表明了他们的目标。
所谓“超级智能”,指的是超越人类所有能力的AI,比我们目前接触的AI至少领先两个阶段。现在的科技巨头们(比如OpenAI)正在研发的是“通用人工智能”(AGI),这是一种能像人类一样灵活、富有创造性地解决各种问题的AI。而AGI再进一步发展下去,就是超级智能——至少理论上是如此。
但现实中,“通用人工智能”和“超级智能”这些概念很难被客观定义,不同公司也会根据自身商业利益来不断调整目标。然而,Sutskever的做法似乎与其他公司明显不同。而且无论他与自己小团队研究的具体是什么,至少足以说服投资者提供数十亿美元来支持他的研究。
最近,有消息称,Sutskever可能发现了一种完全不同的方式来训练AI,并且这种新方法已经表现出一些初步的成功迹象。
如果你经常关注AI相关话题,你可能在Reddit或者X上见过以下两段文字,这些文字引用自《华尔街日报》的一篇报道:
> 苏茨克维告诉他的同事们,他没有使用过去在OpenAI工作时所采用的训练方法来开发更先进的AI。他表示,他现在找到了“一座不同的山来攀登”,而这种新方法已经展现出了初步的前景。(消息来自于接近SSI公司的人士。)
> “所有人都很好奇,他到底在推动什么样的技术,到底他发现了什么新的见解,”风险投资公司彭博Beta的合伙人詹姆斯·查姆表示(Bloomberg Beta并未投资SSI)。“这种新技术风险极高,但一旦成功,你就可能参与到一场改变世界的科技革命中。”
最近SSI公司刚完成了一轮融资,获得了20亿美元的资金,公司的估值达到了300亿美元。而去年9月份,SSI的估值还只有50亿美元。
对于一家AI初创公司来说,这种估值增长的速度相当惊人,但仔细想想,这也并非意外。毕竟Sutskever是AI领域最著名的人物之一,尤其考虑到他之前在OpenAI研发ChatGPT的贡献,以及他如今在安全超级智能方面的名气。
不过真正令人意外的是,投资者投入了这么多资金,却没有立即获得任何回报。因为Sutskever和他的团队目前并不打算推出任何商业化产品,他们的全部精力都放在超级智能的基础研究上。而且,谁也无法保证SSI最终一定能成功,或者在竞争对手之前取得突破。
即便如此,Sutskever和他的团队至少肯定准备了一些惊艳的AI演示,足以吸引这些投资者。正因如此,《华尔街日报》提到的那两段话才格外引人注目:“Sutskever找到了一个与众不同的方式(不同的山)来攀登”,听起来像是在AI领域里某种突破性的发现。
那么这是不是意味着,他不会再用他之前在OpenAI所开创的、基于海量数据训练AI的方法了呢?目前我们只能做出猜测。
报道称,Sutskever管理SSI的方式非常严格。整个公司只有约20名员工,分散在硅谷和以色列特拉维夫的办公室工作。这些员工甚至不被鼓励在LinkedIn等平台透露自己在SSI的职位。而前去SSI公司面试的人,在进入公司办公场所之前,都被要求把手机放入“法拉第笼”中,这种笼子能够屏蔽所有手机和Wi-Fi信号,避免信息泄露。
此外,《华尔街日报》还透露SSI团队并没有聘用任何来自硅谷的明星人物。相反,Sutskever选择的是那些还不出名,但非常有潜力的新人才。他更倾向于亲自培养和指导这些年轻人,而不是聘请那些可能很快又跳槽离职的业界资深人士。
虽然Sutskever并未对外透露太多具体细节,但去年12月他在AI领域最顶级的学术会议NeurIPS上亮相,暗示了一些他正在研究的超级智能方向。他表示,当超级智能真正出现时,它可能会“难以预测、拥有自我意识,甚至可能希望获得自己的权利”。
“如果最终我们创造的AI只想与我们人类和平共处,这并不算是糟糕的结果。”他这样说道。这番话和他此前在OpenAI工作时的表态非常相似。2022年OpenAI的年终聚会上,他曾说过:“我们想创造的是一种热爱人类的AGI(通用人工智能)。”
来源:网页链接
作者:Chris Smith
当我们谈到ChatGPT早期研发者时,第一个想到的名字通常是Ilya Sutskever(伊利亚·苏茨克维)。虽然他已不再效力于OpenAI,但他确实是OpenAI的联合创始人之一,也是ChatGPT和其他许多AI项目背后的关键人物。
2023年末,Sutskever参与了OpenAI内部的一次权力斗争,曾短暂地将Altman赶出公司,但事后他对此表示后悔。去年5月,他彻底从OpenAI辞职,并创立了一家名为“安全超级智能”(Safe Superintelligence,简称SSI)的公司,公司的名字本身就表明了他们的目标。
所谓“超级智能”,指的是超越人类所有能力的AI,比我们目前接触的AI至少领先两个阶段。现在的科技巨头们(比如OpenAI)正在研发的是“通用人工智能”(AGI),这是一种能像人类一样灵活、富有创造性地解决各种问题的AI。而AGI再进一步发展下去,就是超级智能——至少理论上是如此。
但现实中,“通用人工智能”和“超级智能”这些概念很难被客观定义,不同公司也会根据自身商业利益来不断调整目标。然而,Sutskever的做法似乎与其他公司明显不同。而且无论他与自己小团队研究的具体是什么,至少足以说服投资者提供数十亿美元来支持他的研究。
最近,有消息称,Sutskever可能发现了一种完全不同的方式来训练AI,并且这种新方法已经表现出一些初步的成功迹象。
如果你经常关注AI相关话题,你可能在Reddit或者X上见过以下两段文字,这些文字引用自《华尔街日报》的一篇报道:
> 苏茨克维告诉他的同事们,他没有使用过去在OpenAI工作时所采用的训练方法来开发更先进的AI。他表示,他现在找到了“一座不同的山来攀登”,而这种新方法已经展现出了初步的前景。(消息来自于接近SSI公司的人士。)
> “所有人都很好奇,他到底在推动什么样的技术,到底他发现了什么新的见解,”风险投资公司彭博Beta的合伙人詹姆斯·查姆表示(Bloomberg Beta并未投资SSI)。“这种新技术风险极高,但一旦成功,你就可能参与到一场改变世界的科技革命中。”
最近SSI公司刚完成了一轮融资,获得了20亿美元的资金,公司的估值达到了300亿美元。而去年9月份,SSI的估值还只有50亿美元。
对于一家AI初创公司来说,这种估值增长的速度相当惊人,但仔细想想,这也并非意外。毕竟Sutskever是AI领域最著名的人物之一,尤其考虑到他之前在OpenAI研发ChatGPT的贡献,以及他如今在安全超级智能方面的名气。
不过真正令人意外的是,投资者投入了这么多资金,却没有立即获得任何回报。因为Sutskever和他的团队目前并不打算推出任何商业化产品,他们的全部精力都放在超级智能的基础研究上。而且,谁也无法保证SSI最终一定能成功,或者在竞争对手之前取得突破。
即便如此,Sutskever和他的团队至少肯定准备了一些惊艳的AI演示,足以吸引这些投资者。正因如此,《华尔街日报》提到的那两段话才格外引人注目:“Sutskever找到了一个与众不同的方式(不同的山)来攀登”,听起来像是在AI领域里某种突破性的发现。
那么这是不是意味着,他不会再用他之前在OpenAI所开创的、基于海量数据训练AI的方法了呢?目前我们只能做出猜测。
报道称,Sutskever管理SSI的方式非常严格。整个公司只有约20名员工,分散在硅谷和以色列特拉维夫的办公室工作。这些员工甚至不被鼓励在LinkedIn等平台透露自己在SSI的职位。而前去SSI公司面试的人,在进入公司办公场所之前,都被要求把手机放入“法拉第笼”中,这种笼子能够屏蔽所有手机和Wi-Fi信号,避免信息泄露。
此外,《华尔街日报》还透露SSI团队并没有聘用任何来自硅谷的明星人物。相反,Sutskever选择的是那些还不出名,但非常有潜力的新人才。他更倾向于亲自培养和指导这些年轻人,而不是聘请那些可能很快又跳槽离职的业界资深人士。
虽然Sutskever并未对外透露太多具体细节,但去年12月他在AI领域最顶级的学术会议NeurIPS上亮相,暗示了一些他正在研究的超级智能方向。他表示,当超级智能真正出现时,它可能会“难以预测、拥有自我意识,甚至可能希望获得自己的权利”。
“如果最终我们创造的AI只想与我们人类和平共处,这并不算是糟糕的结果。”他这样说道。这番话和他此前在OpenAI工作时的表态非常相似。2022年OpenAI的年终聚会上,他曾说过:“我们想创造的是一种热爱人类的AGI(通用人工智能)。”
来源:网页链接