“驯化”一词最初源于生物学,指在动物先天本能的基础上,经过人为的干预和训练,形成新的条件反射的过程。希尔弗斯等人将这一概念引入社会学领域,指代人类通过日常生活的使用,规训媒介使用形态的过程[8]。然而,埃卢尔的技术哲学认为技术的进步让人类变得越来越依赖机器,“技术不仅仅是一个工具和机器的集合,它还是一个复杂的社会和文化系统,塑造了我们的价值观、信仰和行为,有一种扩张和自主的趋势”。当技术脱离工具本身,脱离外部实体,代表一种秩序和认知,甚至成为一种社会结构后,其与人类的矛盾关系也由此产生。人类在进行技术变革的同时,也受到技术的制约与约束,使其在无意识、非自主的情况下嵌合进技术的使用形式中,接受来自技术的反向驯化。而这种媒介化的生存方式进一步绑架个体的社会交往[9]。在以ChatGPT为代表的生成式人工智能逐步演变为一种生活方式的当下,这种反向驯化的趋势也更加明显。
(一)人的延伸还是人的假肢:ChatGPT工具性迷思
麦克卢汉的“媒介延伸论”给人与媒介的关系提供了一个经典的视角,但ChatGPT似乎在其他机器智能支持、驱动或激发人类的知识生成上更进一步,直接替代人类去感知社会,连接知识和他人,甚至代替人类思考,进行作品的创作,反向塑造人的认识方式。此刻,媒介变成了一种假肢。它不再是辅助性的感官延伸,也不是原有直觉的“放大器”,而是一个新的主体,甚至是一个新的大脑。人类对ChatGPT的工具依赖,逐步变成一种肢体的改造。
1.连接泛在下的信息迷雾。人工智能领域的先驱、“贝叶斯网络之父”Judea Pearl曾指出,机器学习不过是在拟合数据和概率分布曲线。变量的内在因果关系不仅没有被重视,反而被刻意忽略和简化。简单来说,就是重视相关,忽视因果[10]。而作为机器学习“集大成”的ChatGPT,同样面临这一问题。ChatGPT帮助人类缩短了他们与知识的距离,辅助人类在庞大的数据中构建了一个简化的信息通道[11]。但是随机和概率生成的内容的逻辑性难以被剖析,其正确性与精准性也难以被证实。忽略对现实因果关系的考量与测量,仅依靠过去文本的相关将词语拼凑和串联,意味着结果具有更多的不确定性。而当其被广泛应用于研究领域时,将进一步放大大数据的科学生产本就存在的弊端,即对数据规模的过度追求、对数据关联趋势的过度关注和对因果关系的削弱以及最终结果的模糊性[12]。长此以往,研究者会陷在海量信息的迷雾中,丧失对真实社会因素的探寻。而这样的趋势同样存在于其他使用领域中,面对陌生的领域和新的环境,人或许会放弃利用自身感知进行理解,只依靠人工智能建立起不知来自何处、又通向何方的连接。同时,数据的广泛连接让人难以仅依靠自身能力来建立大数据框架下的认知,只能更多寻求人工智能“假肢”的帮助,进一步加深依赖。
而ChatGPT对人类的理解更多是基于对人类符号的分析,与人类达成表面的“相近性”,而这种相近性究竟是便捷的桥梁,还是蒙蔽人真实感知和自主性、看似充满逻辑实则碎片化的信息迷雾,我们不得而知。
2.算法拟态下的茧房。人类越来越多通过ChatGPT理解世界,建构自身的认知,但ChatGPT与真实世界存在隔膜,而在看似便捷的信息通道上,很可能存在着一个透明的茧房,贩卖着连接所有知识、拓宽自身边界的美好幻想的同时,隐蔽地包裹着人类对真实社会的触觉,将其置身于一个由海量数据构成的拟态环境中。
一方面,这种茧房的构成源于这套系统和数据本身的局限。在ChatGPT特定的算法逻辑下,某些信息可能会优先被机器选择或过滤掉,不在数据库中的内容也无法被纳入分析。而由于最终生成的内容需要使用者利用提示词进行范围限定和引导,因此使用者个人的态度和原有的认知也会影响到ChatGPT对呈现内容的选择。此外,开放的学习路径也让ChatGPT对数据的理解和分析更加不可控,训练数据所暗含的价值观可能也会促使偏见的形成,人类与人工智能之间会产生相互诱导性,比如性别歧视、种族歧视等。而由于ChatGPT本身不具备判断能力,加之人类语言本身的复杂性,因此生成的内容可能存在捏造和理解错误的情况。而在生成机制的引导下,这些错误的内容往往看起来正式而客观,且存在判别标准的模糊,挑战了现有的证据和真相标准。如未经过求证和辨别,使用者容易将这些数据偏差的结果当成认知的素材。
而茧房的形成同样来自使用者自身。为了更好地与数字环境进行互动,社会个体逐渐学习、接纳并采用机器的思维方式,其中包括对数据化思考、符号式语言、格式化流程的使用。这将会导致人类系统化、模式化认知的减少,进一步削弱人的生活经验和个人感知的作用,转为利用数据海洋抽出的只言片语形成碎片化的信息认知。此外,由于这种信息的投喂仅仅针对个体,因此造成的偏误更难被纠正。而与机器的交流的增加,可能会导致他者伦理减少、工具理性等思维方式和行为惯性出现,带来现实交往的塌缩。
3.科学神话下的他者。移动互联网的兴起使得互联网的“接入沟”几乎被填平,但“使用沟”和“效果沟”被逐渐拉大[13]。而ChatGPT的出现则促使新的媒介使用方式和新的媒介社会形态出现,所有的沟壑都变得更宽、更深。
首先,ChatGPT相较于其他AI系统的低门槛,体现在使用者能够使用自然语言与机器进行有效的沟通,而机器能够基于大语言模型理解复杂文本并进行内容生成。但这种看似低门槛的准入标准本身就建立在一个高门槛的机制和群体上,即那些受过高等教育,有意使用、会使用且能够使用“高阶技术工具”的人群,他们被科技赋能,享受更多红利。可以说,ChatGPT只是降低了那些本来就离智能技术很近的人群的使用门槛,但对于那些本就被排除在智能技术外的人群,ChatGPT可能将其推得更远。
其次,ChatGPT最终呈现出的结果质量几乎直接与它所得到的指令挂钩。因此,如何给出提示词,提供更多关键性信息,帮助大模型激活有用的关联度成为提升ChatGPT使用水平的重要因素[14]。而如何与机器沟通、交流也因此成为未来媒介素养的一部分,对人类的媒介使用提出新的挑战。
最关键的是,ChatGPT不仅存在实际使用中的差异,更会造成一种想象中的分割。它离人类足够近——因为它嵌合进日常生活;它又离人类足够远——因为它的机制、逻辑是不可视的黑箱,更何况其背后的计算机原理本就存在较高的壁垒,这使得人类对其日常使用的工具产生一种“全无知”的陌生。谭小荷指出ChatGPT催生了“技术决定论”的内化,因为能动者困在抽象的、客观的、“不以个人意志为转移”的力量中。技术的复杂与不可理解性让人们不得不将自己放在只能“乐成”,而无法“虑始”的被动状态上。在一项关于ChatGPT使用的访谈中,多名被访者(多为拥有较高学历,且从事技术工作等具有较高门槛的职业)称自己为“科技小白”“不懂技术的局外人”,甚至“完全不具备参与讨论的资格”[15]。
显然,ChatGPT在人群中广泛应用的同时,也将人群粗暴划分成了“懂技术的专业人员”和“无知的普通人”两类,人们将对工具的了解转变程度转化为衡量自身的尺度,建构出来“无能的主体”[16]。倘若更多人因“不懂技术”“没有资格”而将自己看作技术的“他者”,主动排除在讨论之外,那么技术权力将继续流向少数人手中。
(二)拼凑还是创造:ChatGPT创造性迷思
在关于ChatGPT的所有讨论中,有一个问题关乎人的独特性和立身发展的可能,即ChatGPT是否具有创造性?
不可否认的是,ChatGPT的最大特点就是不再仅基于原有数据进行分析归纳,而能够进行新的生成。对于个体而言,ChatGPT能够帮其围绕提示词给出“不知道”甚至“不知道自己不知道”的内容,在这一维度上来说,ChatGPT往往被视为一个会替代人类创造性的创造主体。但是,“创造”或许是一种客观行为或实体,但“创造性” 是一种“意义”。作为一种由创造力产生的性质,它并非孤立地产生于作者、作品或受众中的某一方,而是由三者共创[17]。王天恩也认为“信息既不是物质也不是能量,而是感受性关系”[18],也就是说对这一标准的判断离不开社会情境中其他主体的共通感知。
Google DeepMind发布的一篇论文颇有新意地指出大语言模型的本质是一个与电脑里常用的文件压缩zip算法类似的压缩器[19],内核是将所有的高质量文本、程序、数学、对话数据压缩到算力允许的最大模型里,并在压缩的过程中抽象出一定的思维能力,是“死记硬背”的大量训练,缺乏推理引擎的支撑。而MIT学者罗鸿胤提出ChatGPT的生成机制类似一个醉酒的人。后者能够依靠语言本能,在思维混乱的状态下进行文本的补全,ChatGPT的超强算力赋予其更强的文本补全能力,但同样不存在可控、准确的思维逻辑[20]。
回到社会科学领域,有学者提出创造力的关键元素是自主性、意向性、意识、价值观、情感以及超越“已知”建立“未知”的能力,而ChatGPT的生成机制表明,这些都是其所不具备的感知和能力[21]。如果人脱离这些因素去讨论创造,那么必然会陷入一种数据主义和唯工具理性论的认知窠臼。
1.原创性疑问与人的悬置。创造性往往意味着具有原创性的“一阶知识”的产生,而ChatGPT的生成是一种“从有到有”的生成,即基于数据库中的“有”,生成另一种暂时不为使用者所知的“有”,而非“无中生有”的原创性过程。即是一种基于输入数据内容的“传承式”的生成,而非“突破式”的生成。此外,人类创新的第一步往往是问题的提出,但是ChatGPT并不具备从现有秩序中发现问题、提出问题的能力。可以说,ChatGPT很大程度上能扩展使用者的个体认知边界,但并不能拓宽人类知识的边界。
人类的语言之所以独特,是因为它是人类思维方式的载体和自我意识的反映,但作为一种符号化的、客观化的话语网络[22],ChatGPT所生产的语言并不包含自身的经验,其本身也不能解释其中的所指、能指和逻辑关系。因此,ChatGPT生成的文本内容可被视为一种数字化的、二阶信息的类语言。
舒茨提出的“手边知识库”概念,强调知识库中包含大量的人类内在经验,理论与应用科学的程序经验、支配规则以及实用的与道德的经验规则[23]。这些经验产生的知识是个体了解世界,与他人进行交流与交往的基础,人对世界的认知并不仅仅依靠信息尤其是二阶信息,因此把ChatGPT视为一种“全新知识生产方式”的观点,可能忽略了知识的哲学内涵(即“被验证的真信念”),也忽略了真正推动人类进步的“新”的本质。
ChatGPT的创新是一种基于人类历史数据的结构式模仿和系统化生产,因此某种程度上是“假性创造”,人类对其的依赖会导致创造性变为历史文本的拆解和排列组合,自身能动性被技术的方式替代,抑制了人类的发散与思维。这可能使得人类的语言、人类的知识和人类本身被悬置在创造的过程中。
2.感知的衰弱。人类理解世界、塑造认知的过程通过两条并行的路线实现。一是自己直接的实践、观察和信息的接收。二是大脑对世界的多层次联想,对动作与情感经验的模拟演绎,还有灵感、顿悟等非理性过程。总体来说是发散、沉浸但具有一定认知逻辑的认知过程。而与之相反,ChatGPT是一种没有逻辑结构但具有纯粹理性和纯粹规律性的生产,当这种规律性和寻找相关性的生产方式成为习惯后,人类会将社会的一切事物都按照技术的逻辑进行解释,人类自身的认知规律受到冲击,进而丧失对更广阔、更真实世界的深度感知和响应。
当个体生命长期持续且被动地接受这种来自算法的反向驯化时,强调感知的人类文化被替代和被削弱,进而形成芒福德所认为的整齐划一的、机械式的生存秩序与行动规制“巨机器”[24],人类便从社会的创造主体,变为社会承载信息的“器物”。