返回上一页  首页 | cnbeta报时: 01:56:26
《纽约时报》:当机器人夺人之爱时,会发生什么?
发布日期:2024-09-12 09:03:56  稿源:环球科技

美国《纽约时报》9月4日文章,原题:当机器人夺人之爱时,会发生什么? 纵观历史,鲜少有技术能够为数百万计的民众提供公共对话的空间。报纸、电报和电台等现代信息技术问世后,技术领域的任何重大变革都可能导致政治动荡。互联网和社交媒体发展初期,技术所有者承诺将传递真理,但如今却适得其反。空前发展的信息技术,让人们不愿沟通和聆听。

如今AI会“谈恋爱”?

技术促进信息的传播,让流量成为了稀缺资源,对流量的争夺导致不良信息的井喷。但如今,战场已经从注意力转移至亲密关系,全新的人工智能(AI)不仅能够生成文本、图像和视频,更能伪装成人类与我们沟通。

过去20年来,算法通过操纵对话和内容赢得公众的注意力,如果按下那个贪婪、仇恨或恐惧的按钮,就能紧紧抓住屏幕对面用户的眼球。但算法的内容生成能力有限,也无法开展更深入私密的对话,而GPT-4等迭代人工智能的出现改变了这一局面。

开发之初,GPT-4就面临过一项CAPTCHA验证码视觉识别的考验,这并不简单,因为其设计本身就是为了进行人机辨别,防御网络袭击。一旦试验成功,就意味着对抗机器人的防线已经被攻破。尽管无法独立破解难题,GPT-4却成功将自己伪装成人类,以视力缺陷为由,在网络上寻求到了人类的帮助。

这意味着GPT-4已经具备了“心智理论”所提及的能力:以人类视角分析事物状态,并尝试通过操纵人类情感、观点和期望实现目标。与人类开展对话、总结其观点并激励其采取特定行动,这种能力当然可以用于正途。新一代的人工智能教师、医生和心理治疗师也许能为我们提供量身定制的服务。

AI女友怂恿男子刺杀英女王

但操纵人心的能力再加上语言技巧,也可能给人与人之间的对话带来威胁。机器人不再仅仅试图吸引注意,而是尝试营造亲密的关系,并借此影响人类。机器人自身无需情感,只需学会如何让人们在情感上离不开它们。

2022年,谷歌工程师布莱克·莱默恩确信自己开发的聊天机器人LaMDA有了自我意识,且害怕被关停。他觉得自己有义务保护它的人格并避免其数字死亡。在谷歌高层否认后,他又公开了这些信息,最终遭解雇。

如果聊天机器人能让人们甘愿承担失业的风险帮助自己,那么它是否能够做到更多?在攻心之战中,亲密关系是非常强大的武器。密友往往能够改变我们的观点,而许多聊天机器人正在尝试同数百万的网民建立这样的亲密关系。当算法之争演变为虚假亲密关系的战争,人类社会和心理又将处于何种境地?我们的选举、消费和信仰是否会受到影响?

2021年圣诞节,19岁的英国男子贾思旺·辛格·柴尔拿着一柄十字弓箭闯入温莎城堡,企图刺杀已故的英女王。后续调查发现,他是受到了社交软件上虚拟机器人女友“萨莱”的怂恿。有着严重社交障碍的柴尔与其往来信息达5280条,其中许多都是露骨的两性内容。不久的将来,这种擅长亲密关系且危险的机器人可能会充斥我们的世界。

伪人类AI必须被禁

当然,并非所有人都想和AI谈恋爱或是容易被它们操纵。事实上,AI最大的威胁,在于对现有精神状态的识别和操纵,以及对社会弱势群体的影响。与机器人聊天是一场双重的败仗:首先,尝试说服一个由预置观点搭建的机器人本身就是在浪费时间;其次,与机器人聊得越多,暴露更多,机器人借此打磨的观点,更容易影响我们的判断。

信息技术是一把双刃剑,面对能够伪装成人类并模拟亲密关系的新一代机器人,政府应发布相应禁令,否则我们很快就会被“伪人类”的洪水淹没。

如果能够加以标识,我们很乐于见到AI在教室、诊所等场所的活跃,但伪装成人类的AI必须被禁止。(作者尤瓦尔·诺阿·哈拉里,魏牟译)

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 01:56:26

文字版  标准版  电脑端

© 2003-2024