返回上一页  首页 | cnbeta报时: 14:12:12
美国商务部公布新规要求AI公司报告模型训练进展 将阻止外国敌手使用美国技术|钛媒体AGI
发布日期:2024-09-10 12:14:13  稿源:钛媒体

当地时间9月9日,美国商务部下属的工业与安全局(BIS)对外发布了“建立先进人工智能(AI)模型和计算集群开发的报告要求”拟议规则,并向公众征求意见,相关评论意见应当在拟议规则公布之日起30天(10月11日之前)提交给BIS。

图片.png

BIS表示,这项拟议规则的推出,是为了执行拜登2023年10月30日发布的《安全、可靠和值得信赖的人工智能开发和使用》第14110号行政令第4.2(a)节。

文件中要求,美国先进 AI 开发商和云计算提供商提供详细的基础模型开发报告,并将强制企业向美国政府报告“前沿” AI 模型和计算集群的开发活动,以确保这些技术的安全性并能抵御网络攻击。根据该提案,BIS收到企业提交的信息“对于确保这些技术符合严格的安全性和可靠性标准、能够抵御网络攻击以及降低被外国对手或非国家行为者滥用的风险至关重要”,预计将涉及亚马逊AWS、谷歌云、微软云等15家 AI 企业的具体信息。

对于9月9日的草拟规则,美国商务部长吉娜·雷蒙多(Gina M. Raimondo)表示,AI 迅速发展,它既有巨大的希望,也有巨大的风险。她表示,草拟规则将帮助美国商务部跟上 AI 技术的新发展,以加强美国国防和维护国家安全。

据悉,随着ChatGPT引发全球关注,生成式 AI 可以根据开放式提示创建文本、照片和视频,引发人们的兴奋,但同时也引发了人们的担忧,即它可能会取代某些工作、颠覆选举、可能压倒人类并带来灾难性的影响。

2023年10月,美国总统拜登签署行政命令,要求对美国国家安全、经济、公共健康或安全构成风险的 AI 系统的开发商在向公众发布安全测试结果之前与美国政府分享,使得 AI 为美国人服务。

自拜登2023年10月发布前述AI大模型监管行政令后,美国各政府部门正缓慢落地该行政令。此外,美国国会也在推AI大模型的监管规则,但进展缓慢。地方层面,美国加利福尼亚州议会刚在8月29日通过《安全可靠的前沿人工智能模型创新法案》,这是美国地方州严格监管AI大模型的第一个州法案。

如今,美国商务部再发关于 AI 领域规则。

负责工业和安全的美国商务部副部长艾伦·埃斯特维兹(Alan Estevez)则表示,草拟规则将有助于美国商务部了解美国最先进的 AI 系统的能力和安全性,“它将建立在BIS进行国防工业基础调查的悠久历史之上,向美国政府通报美国最重要工业中出现的风险。”

BIS草拟规则要求,如果美国人士正在或者计划6个月内训练超过一定参数门槛的大模型或训练集群,就应每个季度向BIS报备。参数门槛为:使用超过10^26次整数或浮点运算操作来训练任何AI模型;获取、开发或拥有一个计算集群,该集群通过数据中心网络传递连接,传输速度大于300 Gbit/s,并且用于 AI 训练算力的理论最大值大于每秒10^20次运算操作整数或浮点操作。

同时,该规则将为先进的AI模型和计算集群制定报告要求。

今年以来,虽然美国国会对 AI 的立法行动陷入停滞,但监管力度不断加大。早些时候,美国BIS对 AI 开发者进行了一项试点调查。由于这一新兴行业引发了安全担忧,拜登政府已采取一系列措施阻止中国使用美国 AI、半导体等技术。

新的规则文件总计20页左右,详细叙述AI模型(AI Model),是指的是信息系统中的一个组成部分,它实现AI技术并使用计算、统计或机器学习技术从给定的输入集合中产生输出;而AI系统(AI System),指的是任何完全或部分使用AI运作的数据系统、软件、硬件、应用程序、工具或实用程序。

如果美国人士的相关活动达到上述要求参数门槛,BIS将跟进更详细的问题,美国人士必须在30日内答复。美国人士不仅包括美国国籍和美国永久居民身份(即“绿卡”持有者)人士,还包括美国法律下组织的公司和机构,以及任何居住在美国的人。BIS评估,目前有15家以下的公司超过了模型和计算集群的报告门槛。

BIS的草拟规则明确指向大模型的军事用途。BIS称,世界各地的工业和政府都在积极努力将军民两用基础模型整合到他们的国防能力中,美国的国防工业基础也将需要整合军民两用基础模型以保持国际竞争力。美国政府必须准备好采取行动,确保美国公司生产的军民两用基础模型可供国防工业使用。

“为此,美国政府需要了解有多少美国公司正在开发、计划开发或拥有开发两用基础模型所需的计算硬件,以及正在开发的两用基础模型的特点。”BIS称,“这些信息将使美国政府能够确定是否有必要采取行动来刺激军民两用基础模型的发展,或支持特定类型模型的发展。”

BIS还认为,美国政府需要收集两用基础大模型的信息,以减小网络攻击对两用基础大模型的伤害,并阻止外国敌手和非政府实体使用两用基础大模型来威胁美国的国防。

报告中还要求,相关企业需要报告网络安全措施以及所谓的红队行动的结果,例如测试危险能力,包括协助网络攻击的能力或降低非专家开发化学、生物、放射或核武器的进入门槛。而多年来,外部红队一直在网络安全领域用于识别新风险,该术语指的是美国冷战模拟,其中敌人被称为“红队”。

“因此,美国政府必须准备好采取行动,确保美国公司生产的两用基础模型可供工业基地使用。为此,美国政府需要了解有多少美国公司正在开发、计划开发或拥有开发军民两用基础模型所需的计算硬件的信息,以及有关军民两用基础模型特征的信息。发展。这些信息将使美国政府能够确定是否有必要采取行动来刺激两用基础模型的开发,或支持特定类型模型的开发。将 AI 模型融入工业基础还需要美国政府根据需要采取行动,确保两用基础模型以安全可靠的方式运行。集成这些模型的产品可能会以不可预测或不可靠的方式运行,可能导致危险事故,而缺乏可靠性将使美国政府难以在误差幅度很小的环境中使用这些产品,包括国防相关活动事故可能导致受伤甚至死亡。因此,美国政府需要有关开发两用基础模型的公司如何训练这些模型以响应不同类型的输入的信息,以及有关这些公司如何测试其模型的安全性和可靠性的信息。此类信息将使美国政府能够确定国防工业基地可以在多大程度上使用某些两用基础模型,以及是否需要采取行动。”美国BIS出口管理助理部长Thea D. Rozman Kendler在文件中表示。

和拜登的 AI 行政令相比,拟议规则技术参数中的浮点运算数量标准没有变化,但机器之间的互联速度从100GB/s提升到了300GB/s,提高了门槛。报告的频率和技术参数是商务部希望公众重点发表意见的领域,因为这直接决定了需要报告的公司的范围。按照现在的技术参数,BIS预计不超过15家美国公司需要履行报告义务,且都是财大气粗的科技公司,不包括小公司。

BIS也坦承,随着AI技术研发和应用不断发展,需要报告的美国人和公司的数量也会增加。但第14110号行政命令也明确了,商务部长会与时俱进更新触发报告要求的技术条件,受影响公司的数量很有限。

目前,美国政府已经发布关于实施对外投资行政命令的拟议规则(Notice of Proposed Rulemaking, NPRM),限制美国人在中国 AI 系统、半导体等领域进行投资。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 14:12:12

文字版  标准版  电脑端

© 2003-2024