美国下任总统若由算法选出 选民能同意吗?
据Techcrunch报道,想象下2020年的场景:届时你的个人AI助理将以友好的方式将你唤醒,并帮助准备好你最喜欢的早餐。在你晨练时,它会按照你的音乐品味播放曲目。在你乘坐无人驾驶通勤车辆上班时,它已经按照通勤时间长短以及过去的习惯为你选好文章。你可能读到这样的新闻,意识到即将进行总统大选。
基于你此前表达的政治观点和所在州的其他选民数据,AI助理会为你提供预测模型,提醒你为民主党提名人投票。手机上弹出的信息会询问你,是否需要AI助理帮助你处理文书工作,并代表你进行投票。如果你选择同意,剩下的事情可完全交给AI助理,你可以继续自己的生活。
AI与数据同样重要
我们正进入一个AI无所不在的世界。尽管个人AI助理已经成为现实,但对于许多人来说,AI代表我们行使某些重要的公民权利依然是不可想象的,即使AI助理可能知道每时每刻什么对我们最好。如果获得足够数据,AI助理可以提供更加精确和个性化的建议,这些建议甚至远超我们最亲密朋友的忠告。
然而,机器的智能潜力经常导致人们产生恐惧。研究显示,34%的人害怕AI崛起,24%的人认为AI将会对社会产生伤害。GWI发现,63%的人担心科技公司如何利用他们的数据。而牛津大学网络学院最近研究也发现,人们对将自己的个人生活完全交给AI助理处理感到犹豫不决,特别是当AI助理在未提供透明理由时即帮助我们做出决定时,尽管它们可从不同替代方案中选择最佳方案。
没必要将数学与魔术进行混淆。AI并非被住在你手机中的神秘生物操作的,它们就像代理人,拥有自己的议程。但我们常常忘记的是,这种看似无形的数学模型是其他人利用我们此前已有的个人数据设计的,可以不断对我们的兴趣、位置、行为、财务以及健康等进行自动推测。
人类开发者的角色
许多当前有关算法的文化争论都是都围绕着人类在算法设计中所发挥的作用展开的。也就是说,无论开发者的潜意识信仰或偏见,都可能被编入可帮我们做出决定的算法中。新闻行业对此充满了担忧,因为开发者可能编码他们的算法,在某种程度上允许歧视某个特定种群的行为存在。更糟糕的是,技术平台正充当通过它们的信息的守门人。
正如约翰·曼尼斯(John Mannes)所说的那样:“有偏见的世界可能产生有偏见的数据集,相反也会产生有偏见的人工智能框架。”持这种观点的决策者和学者往往会产生误解,忽视了算法中存在误差率的明显事实。他们谴责开发算法的人,而非算法本身。当然,寻找其他人的错误是人类本能,特别是在你不了解当前技术的内在工作原理时。
但是算法偏见实际上很少来自其人类开发者。在大多数情况下,它产生自被用于训练算法的数据。
算法决定论
让我们首先回顾下机器学习技术的工作原理。通过运用统计学习技术,程序员开发出计算模型,它可以自动识别数据中的模式。为了实现这个目标,模型需要被使用大量数据训练,以便在数据中确定界限和关系。训练模型使用的数据越多,预测的准确率就越高。
在个性化数字应用的背景下,这些统计学习技术被用于开发算法,以便识别用户身份,这包括几个方面,比如模式、品味、喜好、人格特质以及他们的社会图结构等。可是,这种数字识别并非直接基于用户的人格或自我意识而开发的。相反,它们基于可测数据点的收集和机器解释方法。换句话说,在AI眼中,无论多么复杂,体现用户身份正被不完美的数字取代。
但是AI在其计算中只能使用历史追踪数据,然后利用其预测用户需求,以及预测其将来。这也是为何利用美国前总统图像,神经网络预测共和党总统提名人唐纳德·特朗普(Donald Trump)将会赢得大选的原因,毕竟这些训练都是基于男性总统进行的。因为数据库中还没有女性总统,如果模型中不存在性别相关性,AI就无法做出推断。实际上,如果这种特定AI能够选择下任总统,它会为特朗普投票。
这些推论导致越来越多的确定性的推荐系统,它倾向于加强现有信仰和类似社交媒体信息流中“回声室”的做法。预测发现应用公司Random的联合创始人雅尔诺·米卡埃尔·高波伦(Jarno Mikael Koponen)表示,个性化以讽刺性的方式模仿我们,在我们真正的兴趣与它们的数字反映之间形成鸿沟。与此同时,这位《Netflix Effect》的作者还解释称,个性化推荐系统往往引导用户关注这些内容。随着时间推移,这种情况变得越来越普遍和明显,这也是算法决定论被认为有害的重要理由。
身份变化无常
我们的身份是动态而复杂的,包含了许多矛盾。在社会现实中,我们可能需要有不同的行为表现,同时需要从AI助理处获得不同形式的帮助,比如在学校、办公室、酒吧或教堂等。
除了默认的自我展示,还有许多原因可以解释,为何我们在不同的人际网络中需要不同的身份。我们想让自己完全融入社交网络吗?抑或是我们会发现新的社交空间,远离我们的朋友或家人的窥探?如果我们尝试不同的角色和不同的身份,会发生什么?正如4chan创始人克里斯·珀尔(Chris Poole)所说:“这并非关于你与谁分享,而是你作为谁来分享。身份就像个棱形柱,人们通过许多镜头来看你!”
对于AI来说,区分这些不同层次的自我,并将它们映射到不同的社会环境中是个巨大挑战,因为它们往往被训练为识别单一的用户身份。有些时候,我们甚至都不知道自己是谁。但是我们的AI助理总能帮助找到答案:因为它们总是在识别昨天的我们。改变越来越困难,我们使用的模式和信仰系统正陷入自我强化循环的危险中,就像算法的“土拔鼠日”。
我们日常生活中越依赖个性化算法,它们越会依据我们看到的、读到的、谈论的以及如何生活等信息形成。通过坚持不懈地专注于现状,它们推荐我们阅读的新书、观看的电影以及会见的人,都是依据我们以前的兴趣确定的,只能帮我们重复昔日的满足感。
当你的未来受到过去限制时,通过自发的开放思维和试验开发个性化就会变得越来越难。在这种情况下,我们开发出算法,而算法反过来又会重塑我们!
如何让未来减速
如今,AI在现实世界中的应用已经嵌入到生活的方方面面。但有2大主要挑战阻碍它们在未来发挥潜力。
第一,从技术进步角度来看,在应用之间进行数据交换依然缺少互用性标准,这可防止激进的个性化。为了变得真正有用,机器学习系统要求大量个人数据,这些数据目前是科技公司争相竞争的东西。谁拥有数据,谁就拥有主导权。苹果、Viv等公司已经通过整合第三方服务的方式开始民主化这种权利。最近,某些科技巨头宣布在AI研究方面进行协作,以便其能让更多人受益。展望未来,这将是AI技术获得公众信任的关键。
第二,从社会进步角度来看,人们对AI的快速发展依然存在担忧。人们害怕失去对AI助理的控制权。当然,AI依然处于起步阶段,AI助理可能以其人类开发者不期望的方式行事。有很多AI试验失败的先例,导致人们对狭隘AI解决方案和聊天机器人的信任在降低。当Facebook、微软以及谷歌都于2016年推出聊天机器人平台时,用户对其有限的功能、应用以及过早提出AI技术定制感到失望。
对AI技术挥之不去的担忧,还被许多科幻作品加剧,这些科幻作品描述有了情感的AI接管世界。但是将来,我们既不会走向“天网”世界,也不会走向“老大哥”社会,很可能是《Brave New World》中那样的享乐社会,届时技术依然能够保持现状。
新的监管框架
技术在不断前进,我们依然存有希望。Global Shapers Community在2016年年度调查中显示,年轻人将AI视为主要技术趋势。此外,21%的受访者称他们支持类人机器人的权利,这种支持在东南亚最高,当地年轻人似乎对日常生活中依赖AI持更积极态度。
而在欧洲,欧盟最新公布的《通用数据保护条例》可能严格限制算法的极端形式,给与用户更大权利,包括算法做出特定决策的解释。到2018年5月份,这部法案有望在所有欧盟成员国生效。它强调人类参与算法设计的重要性,现在还不清楚其是否会导致大科技公司的流行算法发生巨变。
每天,我们都会遇到数以千计的算法决定,从Netflix电影推荐到Facebook的保险风险评估、信用评分以及朋友建议等。还有许多事情需要考虑,公民自己负责追踪和检查算法做出的决策吗?这些东西需要被编码到他们正使用的数字平台设计中去吗?问责制是个重要问题,正因为如此,它才如此难以衡量和大规模实施。
现在该是制定明智策略的时候了,开发出透明和负责任的AI以改善人类的集体未来。在跨越式地进入未知世界,探索人类与AI的关系之前,我们需要问自己许多问题。反思这些问题将可以帮助我们设计非确定性、透明、负责任的算法,它可以识别出我们个性中的复杂、不断发展的多面性的特征。
热门评论
>>共有0条评论,显示0条