Meta 公司解散了负责任人工智能团队(RAI)
随着将更多资源投入到生成式人工智能领域,Meta 公司已经解散了其负责任人工智能(RAI)团队。The Information 今天援引其看到的一篇内部文本爆料了这一消息。报道称,RAI 的大部分成员将转到公司的生成式人工智能产品团队,其他人则将在 Meta 的人工智能基础设施上工作。
Meta经常对外宣称要以负责任的方式开发人工智能,甚至还专门为此设立了一个页面,列出了其"负责任的人工智能支柱",包括问责制、透明度、安全性、隐私等。
The Information 的报道援引 Meta 公司代表乔恩-卡维尔(Jon Carvill)的话说,公司将"继续优先投资于安全、负责任的人工智能开发"。他补充说,虽然公司正在拆分团队,但这些成员将"继续支持跨 Meta 的相关工作,负责任地开发和使用人工智能"。
截至发稿时,Meta 公司没有回应置评请求。
该团队在今年早些时候已经进行了重组,《商业内幕》(Business Insider)在报道中写道,重组包括裁员,这使得 RAI 成为"一个空壳团队"。该报道还称,RAI 团队自 2019 年起就已存在,但几乎没有自主权,其倡议在实施前必须经过漫长的利益相关者谈判。
RAI 的创建是为了发现其人工智能训练方法中存在的问题,包括公司的模型是否经过了充分多样化的信息训练,以防止出现平台上的审核问题等。Meta 社交平台上的自动化系统已经导致了一些问题,比如 Facebook 翻译问题导致了一次错误逮捕,WhatsApp 人工智能贴纸生成在特定提示下会产生有偏见的图片,Instagram 的算法帮助人们找到CSAM有害信息材料。
在世界各国政府竞相为人工智能发展设立监管护栏之际,微软也在今年年初采取了类似的举措。美国政府与人工智能公司达成了协议,总统拜登随后指示政府机构制定人工智能安全规则。与此同时,欧盟公布了其人工智能原则,并仍在努力通过其人工智能法案。