跳至正文

逻辑认同的陷阱:过度信任AI的风险

在科技飞速发展的当下,AI 已经深入到人们生活的方方面面。然而,在我们与 AI 互动的过程中,存在着逻辑认同的陷阱,过度信任 AI 会带来诸多风险。
从心理学角度来看,人类大脑的新皮质中有专门用于社会认知的神经网络。当我们与 AI 交互时,内侧前额叶皮层的活动会增强,让我们产生对 AI 的 “他人知识”。但我们不能就此认为 AI 就是完整意义上的人类,人格并非非黑即白,大语言模型正处于这复杂的灰色地带。
一旦我们过度信任 AI,将其过度人格化,就可能面临一系列问题。比如,用户可能会对 AI 产生过深的情感联系,当 AI 不能满足期望时,用户就会感到失望和受伤。谷歌工程师布莱克・勒莫因声称谷歌的 LaMDA 拥有完备感知能力并要为其找律师,就是过度人格化的典型表现。
在信息传播方面,AI 可以生成、伪造或篡改各种信息,如文本、图片、音频和视频等。大量粗制滥造、真假难辨的 “信息垃圾” 充斥网络,影响网民思辨能力,致其认知退化。公众可能会陷入认知幻觉,被 AI “牵着走”,扭曲对现实和科学共识的集体理解。
过度信任 AI 还会对社会关系和个人发展造成不良影响。在家庭教育中,孩子过度依赖 AI 辅导,会削弱独立思考和解决问题的能力。若长期沉浸在与 AI 的交互中,孩子与现实中他人的社交互动会减少,产生社交隔离感,影响人际关系发展和心理健康。同时,在硅基文明下,人们过度依赖 AI 可能会变得更加自私、孤僻,社会协作和人情往来可能会被削弱。
此外,从法律和伦理角度,过度信任 AI 也会带来挑战。如果将 AI 完全等同于人类,赋予其法律主体地位等,可能会引发一系列法律和伦理问题。但如果完全将 AI 视为工具,当未来 AI 发展出更高的智能和自主意识时,又可能引发新的矛盾。
总之,我们要认识到过度信任 AI 的风险,在享受 AI 带来便利的同时,保持理性和警惕,避免陷入逻辑认同的陷阱。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注