OpenAI 于周一发布了其所谓的人工智能"经济蓝图":这是一份活动文件,列出了该公司认为可以与美国政府及其盟友共同制定的政策。该蓝图包括 OpenAI 全球事务副总裁克里斯-莱恩(Chris Lehane)撰写的前言,声称美国必须采取行动,为"在人工智能上获胜"所需的芯片、数据、能源和人才吸引数十亿美元的资金。
莱恩写道:"如今,当一些国家将人工智能及其经济潜力置于一旁时,美国政府可以为其人工智能产业铺平道路,在保护国家安全的同时,继续保持美国在创新领域的全球领先地位。"
OpenAI 曾多次呼吁美国政府在人工智能和基础设施方面采取更多实质性行动,以支持该技术的发展。 联邦政府在很大程度上将人工智能的监管工作留给了各州,OpenAI 在蓝图中认为这种局面是无法维持的。
仅在 2024 年,各州立法者就提出了近 700 项与人工智能相关的法案,其中一些法案与其他法案相冲突。 例如,得克萨斯州的《负责任的人工智能治理法案》对开源人工智能模型的开发者提出了苛刻的责任要求。
OpenAI 首席执行官 Sam Altman 还批评了现有的联邦法律,例如CHIPS法案,该法案旨在通过吸引世界顶级芯片制造商的国内投资来振兴美国半导体产业。 在最近接受彭博社采访时,Altman 表示,CHIPS法案"并没有像我们希望的那样有效",他认为特朗普政府"确实有机会""做一些更好的后续工作"。
奥特曼在采访中说:"我非常赞同[特朗普]的观点,那就是在美国建厂已经变得如此困难,这太疯狂了。发电厂、数据中心,诸如此类的东西。 我理解官僚主义是如何积重难返的,但这对整个国家都没有帮助。 尤其是当你考虑到美国需要发生什么才能引领人工智能时,这种情况就更无益了。 美国确实需要引领人工智能。"
为了给开发和运行人工智能所需的数据中心提供燃料,OpenAI 的蓝图建议"大幅"增加联邦在电力和数据传输方面的支出,并大力发展"新能源",如太阳能、风力发电场和核能。 OpenAI 与其AI竞争对手一起,此前曾支持核电项目,声称需要这些项目来满足下一代服务器农场的电力需求。
科技巨头 Meta 和 AWS 在核能方面的努力也遇到了阻碍,尽管原因与核能本身无关。
就近期而言,OpenAI 的蓝图建议政府为模型部署"制定最佳实践",以防止滥用,"简化"人工智能行业与国家安全机构的接触,并制定出口控制措施,以便与盟友共享模型,同时"限制"向"敌对国家"出口模型。 此外,蓝图还鼓励政府与供应商共享某些与国家安全相关的信息,如关于人工智能行业所面临威胁的简报,并帮助供应商获得评估其模型风险的资源。
蓝图中写道:"联邦政府对前沿模型安全保障的方法应简化要求。"负责任地向我们的盟友和合作伙伴输出......模型,将帮助他们建立自己的人工智能生态系统,包括他们自己的开发者社区,利用人工智能进行创新并分配其利益,同时也在美国的技术上建立人工智能,而不是由中共资助的技术。"
OpenAI的合作伙伴已经包括一些美国政府部门,如果它的蓝图在政策制定者中流行起来,它还会增加更多的合作伙伴。 该公司与五角大楼就网络安全工作和其他相关项目达成了协议,并与国防初创公司Anduril合作,为美国军方用于应对无人机袭击的系统提供人工智能技术。
OpenAI 在其蓝图中呼吁代表美国私营部门起草其他国家和国际机构"认可和尊重"的标准。 但该公司并不赞同强制性规则或法令。蓝图中写道:"[政府可以]为开发[人工智能]的公司创建一个明确的、自愿的途径,与政府合作确定模型评估、测试模型并交换信息,以支持公司的保障措施。"
拜登政府在其人工智能行政令中也采取了类似的做法,该行政令试图颁布几项高级别的、自愿性人工智能安全和安保标准。 该行政令设立了美国人工智能安全研究所(AISI),这是一个研究人工智能系统风险的联邦政府机构,该机构已与包括 OpenAI 在内的公司合作,对模型的安全性进行评估。 但是,特朗普和他的盟友已经承诺废除拜登的行政命令,这使得行政命令的编纂和 AISI 都面临着被废除的风险。
OpenAI 的蓝图还涉及与人工智能相关的版权问题,这是一个热门话题。 该公司认为,人工智能开发者应该能够使用"公开信息"(包括受版权保护的内容)来开发模型。
OpenAI 与其他许多人工智能公司一样,都是通过网络上的公共数据来训练模型的。 该公司与许多平台和出版商签订了许可协议,并提供有限的方式让创作者"退出"其模型开发。 但是,OpenAI 也表示,如果不使用受版权保护的材料,要训练人工智能模型是"不可能的",而且一些创作者已经起诉该公司,指控其未经许可使用他们的作品进行训练。
蓝图中写道:"其他行为者,包括其他国家的开发者,没有努力尊重知识产权所有者,也没有与知识产权所有者接触。如果美国和志同道合的国家不采取有助于长期推动人工智能发展的合理措施来解决这一不平衡问题,同样的内容仍将被用于其他地方的人工智能培训,但受益的却是其他经济体。 [政府应确保]人工智能有能力像人类一样从普遍、公开的信息中学习,同时也保护创作者免受未经授权的数字复制。"
OpenAI 的蓝图中哪些部分(如果有的话)会对立法产生影响,我们拭目以待。 但这些建议是一个信号,表明 OpenAI 打算在美国统一人工智能政策的竞争中继续扮演重要角色。
去年上半年,OpenAI 的游说支出增加了两倍多,达到 80 万美元,而 2023 年全年的游说支出仅为 26 万美元。 该公司还将前政府领导人引入其管理团队,包括前国防部官员 萨沙-贝克(Sasha Baker)、美国国家安全局局长 保罗-中曾根(Paul Nakasone)和前乔-拜登(Joe Biden)总统领导下的商务部首席经济学家亚伦-查特吉(Aaron Chatterji)。
在招聘人才和扩大其全球事务部门的同时,OpenAI对其偏好的人工智能法律和规则也有了更多的表述,例如 支持参议院关于建立人工智能联邦规则制定机构和为人工智能研发提供联邦奖学金的法案。 该公司还反对法案,尤其是加利福尼亚州的SB 1047,认为这将扼杀人工智能创新并挤走人才。