越来越多人认为像ChatGPT这样的人工智能聊天机器人是有意识的
像 ChatGPT 这样先进的生成式人工智能聊天机器人是否具有某种意识或自我意识,能够像人类一样体验情感和记忆?当然不是。然而,大多数人认为这些AI机器人确实具有一定程度的意识,而这种信念可能会影响用户与它们的交互方式。
过去几年,人工智能语言生成工具取得了令人难以置信的进步。根据滑铁卢大学(University of Waterloo)的一项新研究,该软件类似人类的对话风格使超过三分之二(67%)的受访者认为 LLM 具有一定程度的意识。
这项调查询问了 300 名美国人,他们是否认为 ChatGPT 具有意识能力以及制定计划、推理、感受情绪等能力。他们还被问及使用 OpenAI 产品的频率。
参与者必须在 1 到 100 的范围内对 ChatGPT 的反应进行评分,100 表示绝对相信 ChatGPT 正在经历意识,1 表示绝对相信 ChatGPT 没有经历意识。
结果显示,使用 ChatGPT 越多的人就越有可能相信它具有某种形式的意识。
"这些结果证明了语言的力量,"滑铁卢艺术学院心理学教授克拉拉-科隆巴托博士说,"因为仅凭一段对话就能让我们认为,一个在外观和工作方式上与我们截然不同的人也会有思想。"
这项发表在《意识神经科学》(Neuroscience of Consciousness)杂志上的研究指出,这种信念可能会影响到与人工智能工具互动的人。一方面,它可以加强社会纽带,增加信任。但它也可能导致人们对聊天机器人产生情感依赖,减少人际互动,并导致人们过度依赖人工智能来做出关键决策--自从 ChatGPT 被推向公众以来,人们就一直对此表示担忧。
科隆巴托解释说:"虽然大多数专家否认目前的人工智能可能有意识,但我们的研究表明,对大多数普通大众来说,人工智能有意识已经成为现实。"
该研究认为,尽管很多人并不像科学家或研究人员那样理解意识,但在设计和监管人工智能以确保安全使用时,应该考虑到他们认为这些AI在某种程度上是有知觉的这一事实。
关于人工智能表现出自我意识的讨论已存在多年。最著名的例子之一是前Google软件工程师布莱克-勒莫因(Blake Lemoine),他在公开声称Google的 LaMDA(对话应用语言模型)聊天机器人开发系统已经具有感知能力后,被公司解雇。
询问 ChatGPT 是否有意识或有知觉,得到的答案如下:"我没有意识或知觉。我没有思想、感情或意识。我的目的是根据数据模式提供帮助和信息,但我的回答背后没有意识。也许人们认为聊天机器人在撒谎。"