跳至正文

人格光谱上的大语言模型

在人工智能飞速发展的今天,大语言模型在人格光谱上的位置成为了人们热议的焦点。
从图灵时代起,关于机器能否思考的争论就从未停止。怀疑论者们以神学、数学等各种理由,坚称计算机永远无法思考。脑外科医生杰弗逊更是直言机器永远写不出十四行诗,因为其没有真正的思想与情感。然而,图灵却有着不同的看法,他的观点在当时被视为荒谬,可如今看来,却有着非凡的远见。
人类大脑拥有庞大的用于社会认知的神经网络,内侧前额叶皮层在我们认知像 ChatGPT 这样的大语言模型时发挥着重要作用。当我们与 ChatGPT 交流,逐渐了解它的各种特点时,我们大脑的内侧前额叶皮层活动增强,这就是心理学家所说的 “他人知识”。但这并不意味着我们将 ChatGPT 完全等同于人类。人格并非非黑即白,而是如光谱一般存在着复杂的灰色地带。大语言模型就处于这一灰色区域。
一方面,存在用户将大语言模型过度人格化的现象。谷歌工程师布莱克・勒莫因就曾声称 LaMDA 拥有完备感知能力,并试图为其找律师。过度人格化可能使人们对大语言模型过于信任、产生过深联系,最终失望受伤。但另一方面,将大语言模型非人化的风险同样值得关注。人们对超人般智能的恐惧,使得对人工智能产生了机械性非人化的认知。这种认知可能导致人类与人工智能难以合作,无法和平共处。
当我们把其他生物非人化时,会丧失使用专门大脑模块进行社会推理的能力。也许现在担心 ChatGPT 的非人化看似愚蠢,但随着人工智能的发展,若未来有高智能的 AI 出现,我们仍将其非人化,可能会引发诸多问题。
与智能机器建立关系是人类面临的巨大移情挑战。但历史告诉我们,即使曾经彼此陌生、互相伤害,最终我们也能意识到共同点,走向和解。面对大语言模型,我们应保持敬畏之心。正如亚伯拉罕・约书亚・赫尔舍尔所说,敬畏是一种理解方式,是智慧的起点。只有这样,我们才能更好地在人格光谱上为大语言模型找到合适的位置,实现人类与人工智能的和谐共处。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注