Google表示只要有人工监督 客户就可以在"高风险"领域使用其AI

摘要:

Google修改了其服务条款,以明确客户可以部署其生成式人工智能工具,在医疗保健等"高风险"领域做出"自动决策",只要有人类参与其中即可。根据该公司周二发布的更新的《生成式人工智能禁止使用政策》,客户可以使用Google的生成式人工智能做出可能对"个人权利产生重大不利影响"的"自动决策"。 只要有人类以某种身份进行监督,客户就可以使用Google的生成式人工智能做出有关就业、住房、保险、社会福利和其他"高风险"领域的决定。

图片.png

在人工智能领域,自动决策是指人工智能系统根据事实数据和推断数据做出的决策。 例如,系统可能会自动做出发放贷款或筛选求职者的决定。

Google之前曾暗示,在涉及公司的生成式人工智能的情况下,将全面禁止高风险的自动决策制定。 但现在Google表示,只要有人类进行监督,客户始终可以使用其生成式人工智能进行自动决策,即使是高风险应用也不例外。

Google发言人在通过电子邮件接受采访时说:"对于所有高风险领域,我们的政策中一直都有人工监管的要求。[我们]正在对[我们条款中的]一些项目进行重新分类,并更明确地指出一些例子,以便让用户更清楚地了解。"

Google的AI竞争对手 OpenAI 和 Anthropic 曾对使用其人工智能进行高风险的自动决策有着更严格的规定。 例如,OpenAI 禁止将其服务用于与信贷、就业、住房、教育、社会评分和保险有关的自动决策。 Anthropic 允许将其人工智能用于法律、保险、医疗保健和其他高风险领域的自动决策,但必须在"合格专业人员"的监督下进行,而且要求客户披露他们为此目的使用人工智能。

自动做出影响个人决策的人工智能引起了监管机构的密切关注,他们对该技术可能造成的结果偏差表示担忧。 研究表明,例如用于做出信贷和抵押贷款申请审批等决定的人工智能可能会延续历史上的歧视。

非营利组织"人权观察"(Human Rights Watch)特别呼吁禁止"社会评分"系统,该组织称,该系统可能会破坏人们获得社会保障支持的机会,损害他们的隐私,并以偏见的方式对他们进行描述。

根据欧盟的《人工智能法》,高风险的人工智能系统,包括那些做出个人信贷和就业决定的系统,面临最多的监督。 除其他要求外,这些系统的提供商必须在数据库中注册,执行质量和风险管理,雇用人工监管人员,并向相关机构报告事故。

在美国,科罗拉多州最近通过了一项法律,规定人工智能开发商必须披露有关"高风险"人工智能系统的信息,并发布声明概述系统的能力和局限性。 与此同时,纽约市禁止雇主使用自动化工具筛选求职者,除非该工具在前一年内接受过偏见审计。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan