OpenAI承认,其最新AI推理模型o1“显著”增加了AI被滥用于制造生物武器的风险。OpenAI的系统卡是一种解释AI如何运作的工具。该工具表示,新模型对化学武器、生物武器、放射性武器和核武器(CBRN)相关问题的风险为“中等”,这是OpenAI有史以来给出的最高风险。
OpenAI表示,这意味着该模型“显著提高了”专家制造生物武器的能力。
专家称,如果具备更先进功能的AI软件落在危险分子手中,这会带来更高的滥用风险。例如,o1模型就具备了逐步推理能力。
OpenAI首席技术官米拉·穆拉蒂(Mira Murati)向英国《金融时报》表示,由于o1模型具备了先进功能,该公司在向公众推出它时特别“谨慎”。她补充说,这个模型已经被所谓的“红队”(各个科学领域的专家)测试过。穆拉蒂表示,o1模型在整体安全指标上的表现远远好于之前的模型。