社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

凯文凯利谈自己用 AI 辅助写作的方法, 用ChatGPT 激发自己的创造力

BillionWrites • 2 周前 • 76 次点击  

内容出自Tim Ferriss对凯文凯利的访谈节目(油管)。前半部分为内容总览;后半部分为原字幕的翻译。

这段访谈揭示了一个常见的误区,我们想当然的认为凯文凯利这种未来学家、思想家是喜欢“思考”,认同“思考主义”的,实际上凯文凯利的观点:思考主义“只能走这么远”。读过上一篇凯文凯利讲自己写作状态文章的朋友知道,凯文凯利的写作,并非用思考的方式在写,而是“写作要从身体里出来,而你无法控制它。”

写作的时候我们并非简单的在表达自己。我们可以是以和万物一体的状态写作的。这就是为什么我们对所有关于 AI 是否会替代我们的担心,都是不必要的。AI 的发展,让人可以只需要做人,不再需要成为工具,不再需要被奴役,还所有人真正的自由。

凯文凯利认为 AI 对制作初稿帮助很大;Tim问凯凯利怎么提问,如何用

以下为字幕总结:

对很多人来说,写作最困难的部分就是开始写第一稿。Kevin Kelly 分享了如何利用 AI 工具来克服这个困难。

思考主义(thinkism)的误区

Kelly 强调了一个重要观点:我们必须通过使用来了解技术。他提出了"思考主义"(thinkism)的概念,即过分依赖纯粹思考来解决问题的倾向。但实际上,许多技术的能力和用途都是在使用过程中被发现的。

凯文凯利:“思考主义”【字幕自动翻译成了思想主义】只能走这么远

AI 模型的本质是“群体智慧”

聊天模型(如 ChatGPT)产生的内容本质上是一种"群体智慧"。就像计算糖果罐中糖果数量时,平均值往往最准确一样,AI 模型也是通过整合各种观点和信息,产生相对中庸的输出。

实用提示和应用方法

以下是一些实用的 AI 写作辅助方法:

  • 要求 AI 提供主题相关的要点总结

  • 请求扩展特定观点或提供更多例子

  • 用于检查剧本的情节漏洞和矛盾之处

  • 生成演讲要点或标题建议

  • 为文章提供结束语或点题句

"不错的实习生"

Kelly 将 AI 比作一个"不错的实习生"— 它的输出可能不是完美的,但能提供有用的起点和灵感。重要的是要认识到 AI 是一个辅助工具,最终的创作和决策还是需要人来完成。

举个例子,有人用 ChatGPT 模仿 Tim Ferriss 的访谈风格生成采访问题。虽然这些问题可能不够精致,但作为起点和参考还是相当实用的。这正好说明了 AI 作为"不错的实习生"的定位 — 它可能不完美,但确实能提供有价值的帮助。

凯文凯利:发明者对这些东西会怎么用并不会真的有任何想法

以什么方式使用,是我们集体意识的共同发现

原字幕整理:

你知道 Bing 和 Google 对我有帮助

我一直在起草第一稿时遇到困难,这对我来说简直是一个障碍,对吧?

我知道这种感觉,你也知道这种感觉。

我发现一些方法可以在起草第一稿时提供帮助。

怎么提示它?能举个例子吗?

有很多不同的方式,我一直在收集这些东西。

重点是,这也给我们提供了一个关于技术的宝贵教训:我们需要通过使用技术来真正理解它。

这让我想到了一种现象,我称之为“思考主义”(Thinkism)。这是一种依赖思考来解决问题的方式,对喜欢思考的人特别有吸引力。

但问题在于,思考主义的能力是有限的。它只能带我们走到某一步。

实际上,我们所发现的这些技术功能中,没有一项是它的发明者们最初能够预见的。

我们通过集体使用这些工具,不断发掘它们的潜力,同时也逐步意识到它们的弊端。

这很重要,因为这就是我们引导技术发展的方式。

问题是,如果禁止它或关掉它,我们将失去引导的机会。

再回到那个比喻,现在通过使用这些工具,我们正在揭示它们的可能性,而我也在尝试追踪人们实际是如何使用它们的。

关于聊天大模型:

这些聊天模型生成的内容,其实是某种“群体智慧”的体现。

“群体智慧”最经典的例子是猜瓶子里有多少颗糖豆。如果取所有猜测值的平均值,最接近正确答案的往往就是这个平均值。

聊天模型也是如此:它整合了所有的信息,包括好的坏的、天才的和糟糕的,最终生成一个平均值。

因此,聊天模型的内容通常是大致正确的,但也显得相当中规中矩、平淡无奇。

很多时候,我们对模型的“调教”就像是在推动它做得更好。

例如,你可以让它的风格更“讽刺一些”或“专业一些”。

假设一个场景:

假如你完全没有头绪,只是淋浴时突然蹦出一个想法,你想试着起草一个草稿。

第一步是什么?第二步是什么?

这取决于你需要什么。

比如,你可以让模型先对相关领域已有的内容做个总结:“告诉我所有相关的信息。”

或者说:“写一个包含五个要点的概要。”

凯文凯利用 AI 辅助写文章的案例,写关于埃及人如何影响罗马建筑的文章,

先让 chatgpt 列出 5 个要点,然后就围绕自己不理解的地方提问

举个例子:

我最近用过的一个案例是,“埃及建筑如何影响罗马建筑。”

你可以让模型列出五个要点,然后围绕某些你不理解的地方提出问题。

例如:“深入解释第一个要点,并引用更多来源。”

或者:“给我10个更具体的例子。”

这是一种扩展方式。当然你也可以让它缩短内容,比如总结为要点形式,提炼出“关键结论”或“教育意义”。

你会得到一些零碎的信息,但不一定直接使用这些内容。

但它也许能给你一些灵感,或者让你借鉴结构,至少让你对其中四分之三感到满意。

最重要的是,它帮助你跨越了“空白状态”的障碍。

对我来说,这很重要,因为它能让我开始动起来。

更多用例:

• 比如有人写剧本,他们会用聊天模型来查找薄弱情节:“指出这个剧本中的漏洞。”

• 或者让模型帮助检查矛盾之处:“看看有没有内部的不一致性或连续性问题。”

我还用它来写书。

比如我的出版商曾要求我提供一些“宣传要点”。

于是我就让模型生成了九条宣传点。

它给出的列表很好,虽然我不能直接用,但它是一个很好的起点。

另一个有趣的例子:

我有个朋友每天写博客,每天生成40篇内容。

他们会用模型来起标题:“给我五个吸引人的标题。”

有时还会把文章上传,让模型帮忙生成一个出彩的结尾。

总之,模型是个“还不错的实习生”。

虽然它不够完美,但总能给你提供一些起点或灵感。

具体例子:

我的朋友用 ChatGPT 为我推荐播客嘉宾时,输入了一个类似这样的提示:

“列出一些提问,假设是 Tim Ferriss 在采访 John Verakee,他会问什么问题?”

结果非常不错,虽然不完美,但也不差。

结论:

“还不错的实习生”可能是对这些聊天模型的最佳总结。


创作者纪元:
真正的风险不是失败,而是在一个正在消失的世界里追求成功

深度内容推荐:

《内驱创作货币化》,人生自由指南 

《天才的画布》,让天赋自由的个人发展新范式

  • BillionWrites 年度订阅制的社群明天正式推出。

  • 首期会有 4 位各具特色的主理人,也就是说会有 4 个新社群可选。

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/176338
 
76 次点击