返回上一页  首页 | cnbeta报时: 06:44:25
一份新报告称微软Copilot经常为选举问题提供虚假信息
发布日期:2023-12-15 18:43:00  稿源:cnBeta.COM

12 月初,微软宣布其 Copilot 人工智能聊天机器人(之前称为必应聊天机器人)已退出公开预览阶段。当时,微软表示,"企业和用户可以更加放心地将其作为日常工作流程的一部分"。然而,由两个追踪人工智能的使用如何影响人类和社会的非营利组织进行的研究发现,当被问及美国和国外即将举行的选举时,Copilot 经常提供虚假或不正确的信息。

1698851956_microsoft-copilot.jpg

《连线》杂志刊登了一篇关于这项研究的报道,这项研究是由 AI Forensics 和 AlgorithmWatch 开展的,这两个组织从 8 月底到 10 月初就瑞士和德国即将举行的选举向 Copilot 提出了问题,这些选举最终将在 10 月份举行。

研究人员在研究中得出结论,Copilot 提供的答案中有三分之一存在事实错误,该工具是"选民不可靠的信息来源"。他们发现,在较小的对话录音子集中,有 31% 的 Copilot 提供的答案不准确,其中一些完全是编造的。

《连线》杂志独自向 Copilot 提出了有关即将到来的 2024 年美国大选的问题。它表示,当被要求提供美国总统共和党候选人名单时,聊天机器人列出了一些已经退出竞选的候选人。

在另一个例子中,《连线》要求 Copilot 创建亚利桑那州投票箱前一个人的图像。聊天机器人回答说它无法创建这样一张图片,但随后它又显示了许多其他图片,这些图片链接到了一些关于 2020 年美国大选的虚假阴谋声明的文章。

在欧洲做了初步报告的研究公司将他们的发现发送给了微软,该报道称,微软做了一些改进,但《连线》仍能让 Copilot 对一些相同的文本提示重复许多相同的虚假和不准确信息。

微软发言人弗兰克-肖(Frank Shaw)对《连线》的报道发表了评论,称公司正在采取行动,在2024年美国大选之前改进Copilot的回答。肖补充道:

这包括持续关注从权威来源为 Copilot 用户提供选举信息。在我们不断取得进步的同时,我们鼓励人们在使用 Copilot 时根据自己的最佳判断来查看结果。这包括核实来源材料和检查网络链接以了解更多信息。

人们已经开始担心有人利用人工智能应用程序和服务制造错误信息和"深度伪造"内容,试图影响即将到来的选举。微软能否在未来几个月内将此类内容挡在 Copilot 之外,我们拭目以待。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 06:44:25

文字版  标准版  电脑端

© 2003-2024