返回上一页  首页 | cnbeta报时: 19:30:22
预计到2024年中期 "不良演员"AI将对民主国家构成日常威胁
发布日期:2024-01-24 15:56:35  稿源:cnBeta.COM

一项新的研究预测,到 2024 年中期,"不良演员"通过传播虚假信息造成网络伤害的人工智能活动将每天都在发生。鉴于包括美国在内的 50 多个国家将在今年举行全国大选,而大选结果将对全球产生影响,这项研究结果令人担忧。

Low-Res_Screenshot 2024-01-18 at 7.21.13 PM.jpeg

即使在最新迭代的生成预训练转换器(GPT)系统发布之前,人工智能专家就预测,到 2026 年,90% 的在线内容将由计算机生成,无需人工干预,从而导致错误信息和虚假信息的传播。

有一种假设认为,拥有最多用户的大型社交媒体平台应该受到监管,以控制风险。这种假设在一定程度上是正确的,也使它们成为欧盟《数字服务法》和《人工智能法》等立法的目标。然而,还有其他一些规模较小的"不良行为者"--蓄意从事对他人造成伤害的行为的个人、团体和国家--也在滥用人工智能。

乔治-华盛顿大学(GW)的研究人员领导的一项新研究首次进行了定量科学分析,研究了不良行为者如何滥用人工智能和 GPT 系统在全球社交媒体平台上造成危害,以及可以采取的应对措施。

"每个人都在谈论人工智能的危险,但在我们的研究之前,这背后没有任何科学依据,"该研究的主要作者尼尔-约翰逊(Neil Johnson)说。"不深入了解战场,就无法赢得战斗"。

研究人员首先绘制了由相互联系的社交媒体社区组成的动态网络图,这些社区构成了全球网络人口的全貌。用户--有时是几个人,有时是几百万人--因为共同的兴趣爱好而加入这些社区,其中可能包括伤害。研究人员重点研究了极端的"反X"社区,每个社区最近发布的20条帖子中有两条或两条以上包含明确的仇恨言论和/或极端民族主义和/或种族主义。这些反 X 社区包括反美国、反妇女、反堕胎或反犹太等社区。随着时间的推移,这些社群之间的联系会在不同的社交媒体平台内部和平台之间形成社群集群。

研究人员说:"任何社区A都可以创建一个指向任何社区B 的链接(即超链接),只要 B的内容是A的成员感兴趣的。该链接将A的成员的注意力引向B,A的成员可以在B的成员不知道该链接的情况下添加对B的评论--因此,社区B的成员可以接触到社区A 的成员,并受到其潜在的影响"。

通过数学模型,研究人员确定了不良行为者与人工智能之间可能发生的活动及其原因。具体来说,他们发现最基本的 GPT 系统(如 GPT-2)就足够了,而且比更复杂的版本(如 GPT-3 或 -4)更容易吸引坏人。 这是因为 GPT-2 可以轻松复制极端网络社区中的人类风格和内容,"不良演员"可以利用 GPT-2 这样的基本工具,通过巧妙地改变在线查询的形式而不改变其含义,从而产生更具煽动性的输出。相比之下,GPT-3 和 -4 包含一个过滤器,可以覆盖对潜在争议性提示的回答,从而防止此类输出。

研究人员说,网络"战场"上的不良演员-人工智能活动很可能会蓬勃发展,这就是"不良演员"社区和他们直接链接的社区,也就是脆弱的主流社区。将这些社区加在一起,就相当于一个拥有超过 10 亿人的在线生态系统,从而使恶人-演员-人工智能在全球范围内蓬勃发展。研究人员引用了与 COVID-19 以及最近的俄乌战争和以色列-哈马斯战争相关的非人工智能产生的仇恨和极端主义来说明他们的观点。

他们预测,到 2024 年中期,人工智能的不良行为将成为日常事件。为了确定这一点,他们使用了两起涉及操纵在线电子系统的历史性技术相似事件的代理数据:2008 年对美国金融市场的自动算法攻击和 2013 年中国对美国基础设施的网络攻击。通过分析这些数据集,他们推断出了这两起事件在当前人工智能技术进步背景下的攻击频率。

2024 年被誉为"史上最大规模的选举年",包括美国在内的50 多个国家将在今年举行全国大选。从俄罗斯、台湾、英国、印度到萨尔瓦多和南非,一些选举的结果将产生全球性影响,并对人权、经济、国际关系和世界和平产生巨大影响。因此,研究人员说,在这些选举期间,坏人利用人工智能传播和扩大虚假信息的威胁是真实存在的。

他们建议社交媒体公司采用遏制虚假信息的策略,而不是删除每一条由不良演员生成的内容。

鉴于人工智能的发展瞬息万变,研究人员对其研究结果提出了警告。尽管如此,这项研究还是凸显了坏人利用人工智能所带来的一些重大挑战。

研究人员说:"由于技术发展日新月异,网络环境瞬息万变,没有人能够准确预测未来不良行为人工智能会发生什么,因此严格来说,本文中的预测是推测性的。但这些预测都是量化的、可检验的,也是可推广的,因此为加强坏人-人工智能政策的讨论提供了一个具体的出发点"。

该研究发表在《PNAS Nexus》杂志上。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 19:30:22

文字版  标准版  电脑端

© 2003-2024