人工智能(AI)的快速发展将曾经局限于科幻小说领域的伦理问题带到了前台。例如,如果人工智能系统有一天能够像人类一样“思考”,它们是否也会拥有主观体验?它们会感受到痛苦吗?如果会,人类是否有能力妥善照顾这些系统?
一群哲学家和计算机科学家认为,应严肃对待人工智能的福利问题。上个月,他们在预印本服务器arXiv1上发布了一份报告,呼吁人工智能公司不仅要评估系统是否具备意识和自主决策能力,还需制定政策,说明如果这些情景成为现实,该如何对待这些系统。
报告指出,如果未能认识到人工智能系统可能已经具有意识,可能会导致忽视、伤害或使其遭受痛苦的情况发生。
然而,并非所有人都认为人工智能意识应是当前的优先事项。今年9月,联合国人工智能高级别咨询机构发布了一份关于全球应如何管理人工智能技术的报告。尽管一些科学家呼吁该机构支持评估机器意识的研究,这份文件并未涉及人工智能意识相关主题。
报告的作者表示,尽管目前尚不清楚人工智能系统是否会实现意识(这种状态即使在人类和动物身上也难以评估),但这种不确定性不应阻碍建立评估协议的努力。作为初步尝试,一组科学家去年公布了一份标准清单,可用于识别可能具有意识的系统。作者指出:“即使是不完美的初始框架,也优于当前的空白状态。”
不过,报告作者同时强调,关于人工智能福利的讨论不应以牺牲其他重要问题为代价,例如确保人工智能的发展对人类的安全性。