社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

Sam Altman 的崛起之路:ChatGPT 将 AI 焦虑推向公众,无条件捐款与无家可归的妹妹

AppSo • 2 月前 • 78 次点击  


这是 Sam Altman 的时代。
他的每一言每一语都影响着 AI 行业的脉搏,他的 OpenAI 不仅是世界上其中一家估值最高的创业公司,看起来更是掌握着人类未来的 AI 技术「开端」。
但 Sam Altman 应该决定 AI 的未来吗?
我们应该相信他吗?我们是否能够信任他有能力并会监督这项他口中说是会影响人类存亡的「最后的发明」?
为了探究这个问题,《彭博社》打造了一系列共有 4 集的播客「Foundering: The OpenAI Story」,记录了 Sam Altman 的崛起之路,试图去全面地理解我们时代其中一位最重要的创始人。
今天,我们翻译的是该系列播客的第三集,以下是部分金句:

当 Sam Altman 公开谈论无条件捐钱,他的妹妹在无家可归中挣扎。

关于 AI 末日论的讨论构成了一个巨大的、危险的干扰源,吸走了所有的关注焦点,使得人们很容易忽视那些正发生在眼前的议题,

人们正在遭受 AI 带来的实际伤害,然而我们却在浪费时间讨论那些虚幻的场景,这一切仅仅因为那些手握重金的人决定对此感到忧虑。

他们渴望感到自己重要,渴望自己的工作具有宇宙级别的意义。人们想要感受到自己产生了影响,渴望生命有意义。而这正是 AI 吸引力的一大关键所在。

或许,在 Sam 的心中,他自视为一位英雄,并且深知一个美好故事所蕴含的激励力量。

人们往往忽视那些平淡乏味、缓慢发展的风险,却过分强调那些迅速且富戏剧性的事件。正如人们轻视像误导信息、种族偏见这样缓慢累积的问题,而过分关注那些宏大而戏剧性的事件一样。
原播客链接:
https://www.youtube.com/watch?v=02jxAtK-IFc
当 Sam Altman 公开谈论无条件捐钱,他的妹妹因无家可归一年搬家 22 次
今天,我们将在夏威夷开始一场自驾旅行。

我们正在北岸,继续向丛林深处进发,现在正经过双子瀑布。

我们正在继续穿越毛伊岛上茂密翠绿的森林,Sam Altman 的妹妹 Annie Altman 正坐在我身旁,在第一集中你们可能已经短暂听到过她的声音。
位于夏威夷毛伊岛上的双子瀑布

我之所以喜欢这里,是因为如果你不知道这里可以拐进去的话,你就不会选择在这里转弯进入。要不是我带你走这条路,你也不会想到沿着这条小径开车。

我们正在参观 Annie 在过去几年里待过的不同地方,沿着土路行驶,看看隐藏在巨大热带植物背后的房屋。
在过去两年的大部分时间里,Annie 一直无法负担起稳定的居住地。

我们刚刚经过的地方是我长期居住的地方之一,那段时间我一直无家可归。有两个月时间,我住在后面的一栋新建的小屋里,没有自来水或电力。

我认为她是 Sam 故事中重要的一部分。

当时,我没有地方住,当然也没有存款,几乎没有足够的钱来支付房租。

最近,在仅仅一年的时间里,她搬了 22 次家。平均每月约两次。有时候她会在一些地方待上一个星期,甚至一两个晚上。其中一些是没有自来水的非法租赁。她说她睡在地板和朋友家,当她没有其他选择时,也和陌生人住在一起。
Sam Altman 的妹妹 Annie Altman

住在前屋的人在 Instagram 上给我发了信息:他们不在的那一周,我住在他孩子的房间,孩子们在的那一周,我睡在公共休息室的地板上。我无家可归。我没有地方可去。我在这个倾斜屋顶的小屋里住了三四个月。你住过多少个没有自来水的地方?也许 5 左右,5 到 6 个?我不知道。

与此同时,在数千英里外的旧金山,她的哥哥 Sam Altman 在 2023 年度过了一个颇为波澜壮阔的一年,ChatGPT 的成功将 OpenAI 推向了前所未有的高度。
山姆被《时代》杂志评为年度首席执行官,他花了数月时间环游全球,与世界领导人谈论 AI。
当然,Sam 将自己定位为公众人物已经有一段时间了,但在很长一段时间里,他只是硅谷的名人。似乎是突然间,Sam Altman 成了整个 AI 热潮的发言人。
在舞台上、播客和采访中,人们不断向山姆寻求答案。
当他们问他那年 5 月我们的 AI 未来会如何时,他自信地描绘出一个没有人贫穷的未来图景。这是他谈论多年的一个想法,这些言论表明,尽管名声和财富不断增长,但他的论调并没有改变。

我认为我们都能够达成共识的一点是,我们就是不该让世界上存在贫困。

他认为像贫困这种在人类文明中根深蒂固的问题,将会在 AI 时代得到解决。每个人都将拥有他们生活所需要的东西,包括一个家。

我认为我们离在全球范围内有效消除贫穷并不遥远,特别是在发达国家。我认为50年后将会是基本人权,比如医疗保健、足够的食物和居住的地方。我很有信心我们会完成这件事。

他听起来很自信,但如何将这些愿景变为现实?Sam 认为这将来自于 AI,他认为他们正在研究的技术可以消除贫困。他在 2023 年的彭博会议上这样认为:

我认为这将有助于终结贫困。也许你认为我们应该停止使用能够做到这一点的技术。我个人不这么认为。

他甚至责备那些声称想要阻止或减缓 AI 发展的人,说他们想让人们保持贫穷。解决贫困似乎已成为他个人品牌的一部分,几乎成了某种竞选演说的主旋律。
这听起来非常美妙,几乎是乌托邦式的。但当山姆在舞台上说,「每个人都应该有足够的钱,足够的食物,每个人都应该有住的地方」的同时,千里之外他的妹妹正在无家可归中挣扎。
我愿意相信山姆对富足未来的承诺,但 Annie 的故事使 Sam 对未来的许多预测变得复杂。
天堂还是地狱?OpenAI 的内部分歧
随着建立时间越来越长,OpenAI 的员工渐渐开始意识到他们正在完成一件意义深刻的事情。人工智能开始做出一些它的创造者也不太能理解的事情,这让人们对它的态度产生了分歧。
OpenAI 的一些人,包括山姆,认为一个强大的计算机智能将对世界有好处。还有些人认为这可能非常非常糟糕。其中有些预测非常极端,如同天堂和地狱一样天壤之别。后来 ChatGPT 发布,成为了公司和整个 AI 行业的决定性时刻。
在这段时间里,人们谈论得最多的两个预测是,AI 要么会消灭人类,要么会完全改变工作的定义。第一个是非常有争议的。第二个争议较小——人们将失去工作,经济将不得不适应。
我将分两部分讲述这个故事:
第一个关于 OpenAI 内部的争端、他们对自己所创建的事物的反思、以及 Sam 被捧为某种 AI 英雄的现象。
在第二部分,我们将从山姆的妹妹那里听到更多信息,并探讨围绕贫困的辩论以及 AI 经济的可能样子。你会确切地看到 Annie 的生活与 Sam 的 AI 乌托邦愿景之间,有多远的距离。
彭博社科技报道高级作家 Rachel Metz
时间回到 2021 年,彼时距离 OpenAI 的诞生还有大约一年半的时间。ChatGPT 和 OpenAI 的技术能力一直在迅速发展。彭博社科技报道高级作家 Rachel Metz 表示:

那个时期,OpenAI 正在构建越来越强大的模型,如 GPT-2 和 GPT-3,这些模型可以合成和生成更多人性化的文本。他们专注于构建越来越强大的人工智能模型,并迅速走向他们长期以来宣称的创建通用人工智能的目标。

这个快速进展对山姆来说是伟大的,对公司来说是伟大的,但它让一些员工感到紧张,即使是职级非常高的人。
这种快速的进步对 Sam 来说是极好的,对公司也是极大的利好,但这也让一些 OpenAI 的员工感到紧张,甚至包括那些职位非常高的员工。OpenAI 当时的研究副总裁 Dario Amade 在 Logan Bartlett 播客上激动地说:

我在 2018 年或 2019 年左右看第一次看到 GPT 的时候,真的被这个东西吓坏了,我的第一反应是「哦,天哪,这太疯狂了。」你知道的,世界上没有什么能像这样的,好像这是疯狂的。

他看着自己在 OpenAI 帮助制造的东西时,一种压倒性的恐惧在他心中油然而生。

我为什么害怕?哦,是的,这个东西将会很强大,它可能会摧毁我们,就像我们迄今为止建造的所有东西一样。你知道,他们可能会做出一些我们不可理解的、随机的、不可预测的事情。如果这样一模型想要制造混乱,毁灭人类或做其他什么,我认为我们基本上没有任何能力阻止它。

这是来自一个名为 「门凯希播客」的科技节目。你可以听到达里奥的不安情绪,这种情绪也扩散到了他的一部分同事身上。
2021 年,他带领六位 OpenAI 的同伴集体出走,创立了一家以安全 AI 为核心使命的新兴企业,旨在与原雇主一较高下。

我们需要以某种方式使这些模型安全,并且确保这些原则从上至下真正融入我们的信念。

虽然他的言辞看似无害,但实际上字里行间暗指 OpenAI 或许并未将安全放在首位,从上到下也没有人遵循这些原则。
他和他的联合创始人深感有必要另起炉灶,创建一家全新公司,专注于防止 AI 可能给人类带来的灭顶之灾。这一理念深深植根于他们的公司名 Anthropic 之中——这个名字寓意着地球上人类的存在。
Anthropic 与 OpenAI 的分道扬镳堪称是一件大事,因为离职的员工队伍中包括高层管理者及核心成员,这些人长期在 OpenAI 效力,贡献卓著。
这给 OpenAI 蒙上了一层可疑的阴影——他们不相信 Sam 会做正确的事情。
ChatGPT 将对 AI 的恐惧推向了公众视野的中心
快进到 2022 年底,OpenAI 发布了 ChatGPT-4。他们没有预料到会有很大的反响,但渐渐地几乎所有人都被它吸引。Rachel 表示:
但我持续关注了几天,开始注意到人们在谈论它,而且这个话题的热度与日俱增。我记得我联系了我的编辑们,跟他们说,「嘿,我们应该写一写这个聊天应用。」
ChatGPT-4 并不是新技术。它基本上是由先前存在的模型 GPT-3.5 提供动力的,但这是向世界展示该技术的一种新方式。这是一个免费的,易于使用的基于聊天的 AI 工具。

这感觉有点像给朋友发短信。给人的体验更加流畅,让你感觉正在与一个人交流。一个人会制造很多事情,对吧?

人们迅速被它吸引,ChatGPT-4 在短短两个月内就达到了 1 亿用户,是有史以来最快的增长速度。作为参考,TikTok 花了 9 个月,Instagram 花了 2.5 年才达到同样的受欢迎程度。
即使在出错的时候,ChatGPT 也给人很聪明的感觉,促使很多人开始思考:AI 将如何改变我的生活?
技术的实用性立竿见影,人们开始借助 ChatGPT 加速编写代码,更流畅地翻译文件,以及起草邮件。学生们则用它来辅助完成家庭作业,有时甚至用于不那么光彩的抄袭论文行为。
毋庸置疑,所有这些热潮极大地推动了 OpenAI 的发展。
在 ChatGPT 的影响下,OpenAI 的品牌知名度开始飙升,人们将其视为炙手可热的 AI 公司、AI 的「领头羊」,Sam 的公众形象也开始水涨船高,成为家喻户晓的名字。

在 2023 年,人工智能成为了热门话题,而 Sam 则成为故事中的主角。

在整个科技行业,投资者们对人工智能公司趋之若鹜,纷纷竞相投资。许多企业也顺势调整战略,转向 AI 领域。高速公路上的广告牌开始大力宣传新兴的 AI 初创公司,但这种狂热也起到了其他作用:
除了让各种各样的人对尖端的人工智能感兴趣并意识到这一点之外,ChatGPT 的发布激怒了一小部分人,他们长期以来一直对人工智能将变得越来越强大的想法感兴趣,而且它永远不会变得流氓和威胁我们,我们必须找出如何拯救人类。

除了激发各类人群对前沿人工智能的兴趣与认知,ChatGPT 的发布也点燃了另一群人的热情。这一群体长期关注 AI,并坚信随着技术的进步,人工智能的能力将不断提升,可能会出现无法预测的行为,对人类构成潜在的风险。他们认为,为了人类的未来,我们必须提前思考并采取行动,制定出有效的策略来防范人工智能可能带来的危机。

对人工智能毁灭世界的恐惧,正是 Dario 在离开 OpenAI 创立 Anthropic 之前所描述的那种恐惧感。虽然听起来或许有些荒诞不经,但对于许多人来说,这种忧虑却是严肃至极。
在硅谷,一股相信人工智能可能很快就会对我们构成致命威胁的亚文化正逐渐扩大其影响力与话语权。这一群体的信念与日俱增,其观点已经成为当下推动人工智能领域发展的重要驱动力之一。
众多从事人工智能技术的工作者深信,他们所从事的工作关乎人类福祉,乃至整个星球的命运。这份信念不仅引导着数十亿美元的投资方向,还决定着哪些研究课题受到重视,哪些则被搁置一旁。
而 ChatGPT 的出现,将这种对人工智能的恐惧推向了公众视野的中心。一项在英国进行的调查揭示,在 ChatGPT 问世后的十二个月里,视人工智能为主要潜在人类终结者的人口比例激增超过一倍。
不过,值得明确的是,这样的观点并非没有争议。即便是在硅谷,也有不少人认为将人工智能视为末日预言要么是过度夸张,要么近乎一种迷信。
不过,不论如何,这种担忧已经得到了广泛的关注与讨论。
对 AI 末世论愈发狂热
我想探讨一下内心深处恐惧着人工智能可能会摧毁人类文明的那种复杂感受。
这是 Chao Chu Yuan(音),他是科技界众多持有此信念的人之一。他的观念源自于他在网上偶然读到的一篇《哈利·波特》同人小说,作者是位极具影响力的 AI 末日论者,名叫 Elizer Yudkowsky。这一发现引导他阅读了更多 Elizer 关于 AI 的文章,最终,他深信世界极有可能被超智能 AI 吞噬。

我想很快就会发生,好吧,它正在发生,我们正在到达那里,它将在我的有生之年发生,它将在我退休之前发生。所以我作出了一个有意识的决定——不开退休金账户。这可能在某些人看来相当愚蠢,但我坚信,当我步入退休年龄时,金钱将失去其意义。我认为,到那时,世界将变得面目全非。金钱,或许将不再是人们追求的对象。我们可能面临两种情况:要么人类集体消亡,要么我们进入一个超越奇点后的全新环境,那将是一个难以想象的世界,金钱在那里可能毫无价值。

他提到的「奇点」就是机器人变得比人类更聪明的时刻。
对他来说,这不仅仅是跳过了退休账户这么简单。在 Chao chu 真的开始相信这一点后,他生活中的其他事情似乎都变得不再重要。他退出了攻读了五年的数学博士课程,逐渐远离了老朋友,认为他们不了解情况的严重性。

这就像一个黑洞,吞噬了我心中衡量事物重要性的标准,我越是接近这个概念,就越觉得其他一切都不那么重要了。我开始意识到,除了这件事,其他的好像都没什么大不了。有那么多事情其实无关紧要,而这件事,可能是唯一真正重要的。

我知道这听起来可怕、极端,甚至荒谬,但如果你花足够的时间与 AI 领域的从业者或硅谷周围的人交谈,你就会听到这种态度。有时是轻声细语,有时是高谈阔论,有时他们会使用像「AI 安全」、「AI 对齐」或「AI 存在风险」这样的术语,但他们都在谈论同一件事情。
在 AI 领域,有相当多的有影响力的人相信,20 年后的世界将完全无法与今天的世界相比。有些人认为它会更好,但很多人认为它可能会更糟。他们认为自己应该奉献自己的生命来防止 AI 末日的到来。
在过去的 5 到 10 年里,很多著名的富有的科技人士都在这个新的事业上投入了资金。Facebook 联合创始人 Dustin Moskovitz 和加密货币交易所 FTX 的创始人 Sam Bankman-Fried 各自承诺向人工智能安全项目投入数亿美元。科技领袖们已经签署了关于人工智能如何使我们的人类文明面临风险的公开声明。
Facebook 联合创始人 Dustin Moskovitz
Chao Chu Yuan 和他的追随者们认为,很有必要让其他人认识到这一威胁的严重性。他们在各种活动中扮演起传教士的角色,和人们进行长时间的对话,讨论 AI 末日的可能性:

起初,人们对此持怀疑态度,但最终却往往被引导至两种心态之间:要么彻底信服,要么感到深深的恐惧。甚至会说,「哦,这太可怕了。」这就像一个极其真实的话题,让人难以置信,「我得好好谈谈这个」,因为这个概念实在太令人害怕了。「如果十年内所有人都会死去,那该多可怕?」这种想法在心理上更容易被当作荒谬而摒弃,认为绝不可能发生。但如果有人真的能够触动你的内心,比如花费四小时耐心地与你交谈,一步步地说服你,「如果这是真的呢?」这确实非常恐怖,让人不禁思考,「我该如何应对?」,在直觉上否定这个想法和从情感层面认真考虑其可能性之间,存在着天壤之别。

Chao Chu 在 AI 安全组织工作。他经常参加理性工作坊的志愿活动,试图让更多的年轻人从事 AI 安全工作。
看得太远,只会忽视眼前的问题
然而,也有另外一批学者与研究者,对这股AI末日狂热感到极度忧虑,认为这种论调有害无益。比如 Emily Bender ,一位专攻计算语言学的学者。

这种现象实则是一种干扰,因为眼下存在着各种各样的问题——劳动力剥削、数据窃取,歧视性后果、代表性伤害等等方面都存在各种问题。我们越是沉迷于那些宏大的、如同动作电影般扣人心弦、充满幻想的生存风险场景,就越少有时间和精力去真正应对当下正在发生的真实伤害。

华盛顿大学计算语言学教授 Emily Bender
Emily 及众多专家共同指出,所有关于 AI 末日论的讨论构成了一个巨大的、危险的干扰源,就像一个闪烁着警示灯、高声尖叫「我们即将灭亡」的警报器,吸走了所有的关注焦点。
这种氛围使得人们很容易忽视那些正发生在眼前的议题,例如在刑事司法系统中使用AI时出现的种族偏见,或是盗用艺术家的版权作品来训练模型,诸如此类的问题不胜枚举:

我们看到了这些技术在监控应用中的滥用,它们被用来过度监视某些社区,面部识别技术的表现尤其对于深色皮肤的女性存在偏颇,谷歌在这方面就曾受到批评。更令人担忧的是,当我们将身份标签商品化,尤其是针对黑人女孩的身份词汇进行售卖时,搜索结果中会充斥大量不适宜的内容,甚至是色情信息。合成媒体领域存在着巨大的风险,它威胁到了我们寻找可信信息并对其保持信任的能力。从公共卫生到民主制度,受影响的领域数不胜数……这个清单还在继续增长。

Emily 提醒我们,这些都是迫在眉睫的问题:

人们正在遭受 AI 带来的实际伤害,然而我们却在浪费时间讨论那些虚幻的场景,这一切仅仅因为那些手握重金的人决定要忧虑它。与此同时,悲观主义的言论、关乎生存风险的话题,同样构成了另一种形式的 AI 炒作。因为如果这些系统真的如此强大,以至于有可能毁灭世界,那么这恰恰证明了这些系统的实力非同小可。

我认为这种炒作是整个问题的关键所在,因为一个超级强大的 AI 系统对投资者和员工来说是极具吸引力的。
Sam 的戏剧性叙事艺术
Emily 认为这种「AI 启示录」的信念是有害且具有误导性的,但她也认为许多人是真心实意地关心 AI 的安全问题。

但这确实是某些人的真心信念。深入研究超智能 AI 接管世界这一系列观念的人们,在他们自己的故事中自视为英雄,致力于阻止末日。我认为这是真诚的,尽管真心可能放错了位置,但我相信它是出自真心。

我认为 Emily 触及了一个真实的现象,那就是成为英雄的渴望成为了 AI 行业的一种驱动力。再次引用 Chao Chu 的话:

这是一种非常孩子气的愿望,想要成为英雄,大多数人实际上没有机会在真正意义上成为英雄,不仅是「如果我能成为英雄该多好」,而是更进一步,「如果我能够凭借智慧成为英雄呢?」我认为有些人可能很难承认这一点,因为它听起来有点幼稚或者不够成熟,但我确实认为这是吸引他们的一部分原因。

「利用你的智慧成为英雄」,Chou Chu Yuan 直白地说出了这个行业内许多人受到骄傲驱使的事实。他们渴望感觉自己重要,渴望自己有所作为,希望自己的工作具有「宇宙级别」的意义:

人们渴望感受到自己产生了影响,渴望生命有意义。而这正是吸引力的一大关键所在。这就像,如果这是我们人类历史上前所未有的最关键时期呢?我们现在做出的选择,是否会像回音般在未来长久地回荡?你懂的,就像那些在 Twitter 上对这类议题深深着迷的人们,他们会使用极其夸张的修辞,比如,「哦,是的,我们将要征服星辰。」我们知道,他们谈论的是要去创造一个「银河系文明」。我觉得有些人可能认为这些人是在夸大其词,甚至是在开玩笑,但我认为应该从字面意义上去理解他们的言论,也就是说,这正是人们的真实想法——他们坚信自己正站在历史的关键节点上,因为人工智能的崛起,这个时代被视为人类史上最非凡的篇章。

相信因为人工智能的崛起,如今我们正在经历这是人类历史上最辉煌的时期。你知道这听起来像是谁的话吗——Sam。多年来,他一次又一次地在演讲中表示 AI 将会具有历史意义:

我认为我们正面临一个难得的历史机遇,这样的机会或许几个世纪才出现一次——那就是重塑社会经济契约,确保每个人都能参与其中,并成为赢家。在这个过程中如何避免自我毁灭,这是一个巨大的挑战。试想,创造一种比我们自身更强大的存在意味着什么?这反映了我们作为人类的何种特质?未来的这个世界会是什么模样?我们又将在其中扮演怎样的角色?这样的成果该如何公平分享?我们怎样才能确保决策权与利益不仅仅集中在旧金山的一小撮人手中,而是让全社会共享?

他说,正在崛起的 AI 将会重塑世界、我们的人性和我们的社会契约。Sam 的话语中充满了英雄主义的情怀,正如 Emily 和 Chao Chu 所指出的那样。
在科技界,人们常常自诩智慧超群,认为自己能够解决那些棘手复杂的问题,这种现象并不罕见——正如那些硅谷巨富们梦想打造一座未来之城,或者整个加密货币行业坚信他们构建了一套更卓越的金融体系。
或许,在 Sam 的心中,他自视为一位英雄,并且深知一个美好故事所蕴含的激励力量。
在 2019 年,他甚至正式雇佣神经科学家、作家 Patrick House 为其写作数月:

我最终基本上完成了一部充满科幻小说的小说集。

这位作家同时也是一名神经科学家,他表示虽然不知道 OpenAI 会以怎样的形式利用他的小说,但他们显然是有他们的打算。他还表示:

Sam Altman 深受某种特定类型的小说影响。许多初创企业往往由故事驱动,而这些故事大多源自科幻小说。一个强有力的故事能够激发员工的奋斗精神,让他们全心投入工作。如何激励人们?尤其在像旧金山这样主要世俗化的城市中,如何激励人们呢?或许可以给他们一份奠基性的文件,讲述一场末世神话,并告诉他们,正是他们的努力在阻止世界末日的到来。这是一种历史悠久、经过实践验证的激励方式。

神经科学家、作家 Patrick House
这一切让我思考,Sam 是否真的认为 AI 可能会毁灭人类?坦白说,这很难判断。他的观点随时间有所变化。2015 年时,他明确写道,他认为高度发展的 AI 可能是对人类持续存在最大的威胁。
我们过去听到他说这些时,带着一种略显戏谑的口吻:

我认为 AI 可能最容易导致世界末日。

就在同一时期,《纽约客》的一篇人物特写中,Sam 几乎承认自己是个末日生存主义者。他对记者透露,自己从以色列国防军那里储备了枪支、黄金、抗生素和以色列国防军的防毒面具。
他还说,如果世界崩溃,他有一大片土地房产和一个大避风港可以飞去。这对我来说非常滑稽,对任何去过 Big Sur(位于美国加利福尼亚中部海岸)的人来说可能也一样,因为那里的土地现在实际上正在崩塌,引发山石滑落、道路封闭,进出食物和物资变得困难。如果对于作为末日避难所,似乎是个岌岌可危的地方。
当有记者追问此事时,Sam 试图轻描淡写。他说,他做这些只是为了好玩,因为这满足了他的小男孩生存幻想。
自那以后的几年里,Sam 明显避免提及他在 Big Sur 的房产或他囤积的枪支。他的妹妹 Annie 说,她从未见过那处房产,但这符合她对他的了解:

他对这类事情非常热衷,诸如枪械、黄金,以及如何为最坏的情况做准备,比如像世界末日电影场景那样的事件。我猜他仍然拥有这些,只是不再提起。

随着 Sam 打造出全球顶尖的人工智能公司,其影响力日益增长,人也变得越发老练。他不再发表诸如「人工智能将毁灭人类」这类耸人听闻的言论,而是谈论技术将深刻改变社会,且总体上会让世界变得更好。
自从因 ChatGPT 声名鹊起后,他努力塑造自己的形象,同时也让 OpenAI 公司呈现出更加稳健、平衡的公众形象。
尽管山姆有权更改自己的立场,但我私下也听到有人反映,他似乎善于根据不同对象说不同的话。他很擅长捕捉时机,告诉别人他们想听的内容,所以当他发现表现得更加温和对自己有益时,他会做出相应调整,这并不让人意外。
不管怎样,他也绝对清楚一个震撼性的末日故事能有多大的影响力。相比平淡无奇的担忧,我们更容易被那些富有戏剧性的恐惧所触动。
例如,在 2015 年的 Airbnb 会议上,他虽是在讨论核能问题,但实际上他所用的比喻直接关联到了人工智能存在的潜在威胁上。在这段发言中,也不难再次捕捉到他言辞间流露出的那份自大,他暗示自己洞悉了一种理性认识,而这是其他人无法认识到的。

人们对那种极具戏剧性的极端风险远比对单调、缓慢、逐步显露的风险更为敏感,比如核能领域,它有着令人难以置信的安全记录,安全性比煤炭高出成千上万倍,但大多数人愿意住在燃煤电厂旁边还是核能发电厂旁边呢?他们当然会选择燃煤电厂,即便 30 年后可能因肺癌去世,这种死亡方式相比核事故中的瞬间惨烈,显得不那么具有戏剧性。没错,这正是人类常常犯的风险误判,不是吗?

人们往往忽视那些平淡乏味、缓慢发展的风险,却过分强调那些迅速且富戏剧性的事件。正如人们轻视像误导信息、种族偏见这样缓慢累积的问题,而过分关注那些宏大而戏剧性的事件一样。
这或许可以解释为何人工智能行业一直在向我们讲述灾难性的故事——它们更能吸引注意。
是由《彭博社》打造的播客「Foundering: The OpenAI Story」第三集:《天堂和地狱》(第一部分),下半部分将在第四集放送,更多精彩敬请期待。




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/171691
 
78 次点击