当AI学会设计病毒 人类如何筑起“数字防火墙”?

摘要:

人工智能(AI)正在加速设计新型蛋白质,这些蛋白质有望应用于药物、疫苗等领域,但也可能被用于开发生物武器或有毒物质。为此,科学家提出了一系列可内置在AI工具中的防护措施,以阻止恶意使用或追踪生物武器的源头。

美国约翰斯·霍普金斯大学的专家指出,建立防护框架对平衡技术潜力与风险至关重要。近年来,AI模型已能根据氨基酸序列预测蛋白质结构,甚至生成全新功能的蛋白质。例如,RF diffusion和ProGen等大模型可在数秒内定制蛋白质,其医学价值显著,但易用性也带来隐患——即便非专业人士也可能利用AI生成有毒物质。

麻省理工学院媒体实验室的研究人员认为,目前AI设计生物武器的风险仍属理论层面,尚无证据表明现有技术能引发大流行。尽管如此,130名蛋白质研究人员已签署协议,承诺安全使用AI。普林斯顿大学的研究团队进一步提出技术方案,例如FoldMark防护系统,通过在蛋白质结构中嵌入可追溯的标识代码,确保危险物质可被追踪。

此外,该研究团队建议改良AI模型,采用“数据遗忘(unlearning)”技术剔除危险数据,或通过“防越狱(antijailbreaking)”训练使AI拒绝恶意指令。美国国防高级研究计划署(DARPA)的研究人员表示,实施这些措施需建立监管机制。斯坦福大学的专家则认为,监管重点应放在AI蛋白质设计的量产环节,生产设施需核查分子来源及用途,并进行安全性检测。

当前,AI与生物安全的关系尚未得到足够重视,但相关研究正逐步展开,以防范潜在风险。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan