微软发布首份年度人工智能透明度报告

摘要:

在过去的一年半里,微软一直走在生成式人工智能开发的前沿。该公司与 OpenAI 等合作伙伴合作,将其 Copilot 生成式人工智能助手添加到许多产品和服务中,并将推出更多产品和服务。此外,该公司还在开发自己的人工智能大型语言模型,例如最近发布的轻量级 LLM Phi-3 系列。

GettyImages-1495320384.jpg

所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。

微软总裁 Brad Smith 在博文中表示:

这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。

这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:

2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。

微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。

报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。

微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。

了解更多:

https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/

查看评论
created by ceallan