返回上一页  首页 | cnbeta报时: 21:30:19
报告称儿童正在与AI聊天机器人建立情感纽带
发布日期:2025-07-14 17:01:43  稿源:cnBeta.COM

由于人工智能聊天机器人融入了孩子们已经使用的搜索引擎、游戏和社交媒体等平台,它们正迅速成为孩子们数字生活中不可或缺的一部分。互联网安全组织 Internet Matters 的一份报告发现,英国三分之二的 9 至 17 岁儿童使用过人工智能聊天机器人;过去 18 个月,其使用量显著增长。

根据《我,我自己和人工智能》报告,分别是 ChatGPT(43%)、Google Gemini(32%)和 Snapchat 的 My AI(31%)。更有可能使用人工智能聊天机器人的孩子(71%)是弱势儿童,相比之下,非弱势同龄人的比例为 62%。弱势儿童使用Character.ai和 Replika 等陪伴机器人的可能性几乎是其他儿童的三倍。

人工智能在儿童中的兴起与21世纪初社交媒体的兴起类似。区别在于,政府似乎对人工智能的掌控力更强,并敦促企业关注人工智能的安全问题,大多数机器人都配备了安全护栏——尽管这些护栏并不完美。

我们经常被告知,人工智能是一种加速工作的工具,但儿童(以及成人)正在以更具情感的方式使用人工智能,例如寻求友谊或建议。报告指出,四分之一的孩子曾从机器人那里获得建议,三分之一的孩子表示与人工智能聊天就像在与朋友交谈。同样,在弱势儿童中,这些数字上升到一半。

在所有孩子中,相当一部分孩子因为无人倾诉而使用人工智能聊天机器人。在弱势儿童中,这一比例上升到四分之一。人工智能应用最令人担忧的方面之一是,孩子们可能会得到不准确或不恰当的回应——58%的受访孩子认为使用人工智能聊天机器人比手动在Google上搜索信息更好,这引发了人们对过度依赖人工智能的担忧。

用户测试发现,Snapchat 的 My AI 和 ChatGPT 有时会提供露骨或不适合其年龄的内容。此外,用户可能会绕过过滤系统,从而可能让孩子接触到他们本不该访问的信息。

报告援引专家的警告称,随着人工智能变得越来越像人类,儿童可能会花更多时间与它们互动,尤其是那些更容易受到伤害的儿童。这可能会导致他们在情感上更加依赖这些机器人,这可能是不健康的。

一个意料之中却又令人担忧的问题是,孩子们经常独自探索人工智能聊天机器人,或者只能得到有限的成人指导。虽然大多数孩子的父母都和他们谈过人工智能,但他们并没有解释具体的担忧,比如人工智能生成信息的准确性——只有三分之一的父母讨论过准确性,尽管三分之二的父母都希望讨论。

此外,尽管孩子们支持学校教授人工智能聊天机器人的使用方法,包括不准确、过度依赖和隐私等风险,但只有 57% 的孩子表示曾与老师或学校谈论过人工智能。只有 18% 的孩子多次就此进行过交谈。

为了解决这些问题,该报告呼吁采取全系统的方法,让行业、政府、学校、家长和研究人员都参与进来,共同保护儿童。报告指出,行业需要提供家长控制和读写功能,政府则需要确保法规与技术发展同步。

报告指出,对于学校而言,人工智能和媒体素养应融入所有关键阶段,教师需要接受人工智能培训,并应提供关于如何正确使用人工智能的指导。家长需要得到支持,以指导孩子使用人工智能,并就人工智能、何时使用以及何时寻求现实世界的支持进行对话。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 21:30:19

文字版  标准版  电脑端

© 2003-2025