宜信好望角:警惕AI驯化思维,这些依赖风险应规避

宜信好望角:警惕AI驯化思维,这些依赖风险应规避

在当今这个科技飞速发展的时代,人工智能(AI)早已不再是科幻作品中的遥远想象,它已深度融入我们的日常生活,成为许多人完成各类任务的得力助手。然而,看似无所不能的AI,真的如表面这般完美无缺吗?去年,麻省理工学院开展的一项别出心裁的实验,或许能让我们对AI的影响有全新的认知。

实验招募了美国波士顿地区多所大学的50多名学生,将他们分为三组,要求根据SAT考试写作题写一篇议论文,题目是《我们取得的成就是否必须惠及他人,才能让我们真正感到幸福?》。第一组学生仅能依靠自身脑力创作;第二组可借助谷歌搜索相关信息;第三组则被允许使用ChatGPT这一强大的大语言模型,它能依据用户指令生成整段文字甚至整篇文章。为了探究学生们在写作过程中的大脑活动情况,所有学生都佩戴了带电极的头戴式设备。

分析结果令人震惊:使用ChatGPT的那组学生,大脑活动水平远低于其他两组。大脑成像清晰显示,他们不同脑区之间的连接明显减少,α波连接度下降,而α波通常与创造力紧密相关;θ波连接度也降低,这一变化与工作记忆有关。不仅如此,一些使用大语言模型的学生对自己写出的文章“完全没有归属感”,甚至在一次测试中,80%的学生无法复述自己“写过”的内容。这项研究作为首批从科学角度量化“依赖AI完成任务所带来的认知代价”的实验之一,无疑给人们敲响了警钟。

与此同时,另一个发现同样引人深思:使用大语言模型的学生所写文本,无论是常用词汇还是观点,都呈现出高度趋同的态势。本应激发多样化回应的SAT题目,在AI的介入下,结果变得千篇一律。比如在《什么让我们真正快乐》的题目下,使用大语言模型的学生大多围绕事业成功与个人成就展开;在讨论慈善行为是否应成为道德义务时,使用ChatGPT的那组几乎众口一词持支持态度,而其他组的回答则包含了对慈善的批判性思考。

为何会出现这样的情况?原因在于AI本质上是一种“平均化”的技术。大语言模型通过分析海量数据中的模式进行训练,生成的答案自然趋向于“共识”,无论是写作质量,还是观点内容,往往流于平庸。过往虽也有技术影响人类写作,但AI实现的“思维外包”程度前所未有。如今,用ChatGPT写婚礼致辞、撰写合同、完成大学论文等行为屡见不鲜,而这些使用者正逐渐变得和麻省理工实验中的学生一样。

OpenAI首席执行官山姆・奥特曼认为人类正与机器融合,AI工具是对传统“大脑系统”的改进。但事实真的如此吗?今年4月康奈尔大学的研究人员发布的研究,给出了否定答案。实验中,两组不同文化背景的用户(一组美国人,一组印度人)回答与文化背景相关写作题,使用AI辅助写作的用户,答案风格趋同,明显向“西方范式”靠拢,且风格上失去了自身文化特色。可见,AI虽能提供建议,却容易压制写作者原本的声音,改变其思考方式。

加州圣塔克拉拉大学2024年的数据分析也表明,在创意任务中,使用ChatGPT辅助的参与者答案更趋同、缺乏新颖性。马克斯・克雷明斯基指出,用户使用AI时,会逐渐从主动思考进入“策展模式”,最终被AI的“平均值”所影响。

目前这些实验规模较小,AI对人类思维与社会的长远影响尚未完全明晰。但Meta的MetaAI应用中呈现的“公共生成内容流”,已展现出AI内容的“过度抛光”与单一性。当我们不假思索地接受AI看似中立、实则偏颇的答案时,其实就是在放弃独立思考。在AI不断发展的当下,我们必须保持清醒,合理利用AI,警惕被其“驯化”,让技术真正为人类服务,而非主导人类思维。

(免责声明:此文内容为本网站刊发或转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。)