基于AI的语音分析技术可以为预防自杀热线的工作人员提供情绪指标
一项新的研究表明,人工智能模型可以准确追踪危机热线来电者声音中的恐惧和担忧等情绪。该模型的开发者希望它能为电话接线员预防自杀提供实时帮助。言语可以传递有关一个人精神和情绪状态的有用信息,提供有关他们是否悲伤、愤怒或恐惧的线索。对自杀性言语的研究可以追溯到 30 多年前,这些研究确定了客观的声音标记,可用于区分各种精神状态和精神疾病,包括抑郁症。
然而,对于人类听众来说,从某人的言语中识别自杀风险是一项挑战,因为拨打这些热线电话的人情绪都很不稳定,而且他们的言语特征也会迅速变化。
也许实时情绪"仪表盘"会有所帮助。加拿大蒙特利尔康考迪亚大学(Concordia University)的博士生阿拉-恩菲西(Alaa Nfissi)在语音情感识别(SER)方面训练了一个人工智能模型,以帮助预防自杀。他在今年于加利福尼亚举行的电气和电子工程师学会语义计算国际会议上发表了一篇论文,并获得了最佳学生论文奖。
"传统上,SER 是由训练有素的心理学家手动完成的,他们会对语音信号进行注释,这需要大量的时间和专业知识,"Nfissi 说。"我们的深度学习模型可以自动提取与情感识别相关的语音特征。"
为了训练该模型,恩菲西使用了一个数据库,其中包含了拨打自杀热线的真实电话录音以及演员表达特定情绪的录音。这些录音被分成若干段,并标注了特定的心理状态:愤怒、悲伤、中立、恐惧/担心/忧虑。由于愤怒和恐惧/担心/忧虑等情绪的代表性不足,因此将演员的录音与原始的真实录音合并。
Nfissi 的模型可以准确识别四种情绪。在合并的数据集中,该模型正确识别恐惧/担心/忧虑的比例为 82%,悲伤的比例为 77%,愤怒的比例为 72%,中性的比例为 78%。该模型尤其擅长识别真实通话中的片段,悲伤的识别成功率为 78%,愤怒的识别成功率为 100%。
Nfissi 希望看到他的模型被用于开发实时仪表板,帮助危机热线接线员为来电者选择适当的干预策略。
"这些人中有很多都在受苦受难,有时辅导员的简单干预就能帮上大忙,"恩菲西说。"这种(人工智能模型)将有望确保干预措施能够帮助他们,并最终防止自杀事件的发生"。
最终,这类感同身受的人工智能很可能会接管整个自杀热线。休谟(Hume)被誉为首个语音对语音人工智能,可以解读情绪并产生情感反应。你可以访问 Hume 网站对其进行测试,人工智能会告诉你它能从你的声音中察觉到哪些情绪,并尝试相应地调整回应的语气。
即使没有这种情感响应技术,对话式人工智能也已开始在呼叫中心行业的其他地方占据一席之地;《金融时报》最近刊登了一篇文章,印度 IT 公司塔塔咨询服务公司的首席执行官兼董事总经理 K. Krithivasan 在文章中说,人工智能最终可能会消除菲律宾和印度等国对雇佣大量员工的呼叫中心的需求。
因此,失业显然是一个令人担忧的问题,但响应情感的人工智能会引发更多问题。例如,当向 OpenAI 的 GPT-4 提供一个人的性别、年龄、种族、教育程度和政治倾向,并要求它利用这些信息提出一个针对这个人的论点时,它的说服力比人类高出了惊人的 81.7%。
人工智能已经证明,它能够通过眼球追踪技术收集大量信息,如种族、体重、性格特征、吸毒习惯、恐惧和性偏好等。追踪眼睛需要一些特殊的设备,但如果你的声音能透露出这么多关于你的情绪,那么你口袋里的设备就可能在倾听你的声音。
想象一下,在这样一个世界里,配备人工智能的智能手机通过声音和表情追踪我们的情绪,然后利用你当前的状态以及它们对你的其他了解,向你推荐与你的情绪相匹配的物品、美食、电影或歌曲。或者操纵你购买人寿保险、新车、裙子或出国旅行。
当然,响应情感的人工智能可用于医疗保健领域,与病人,尤其是那些没有亲人或患有痴呆症的病人进行互动。我们可能很快就会看到这种东西。2024 年 3 月,科技巨头英伟达(NVIDIA)宣布与希波克拉底人工智能公司(Hippocratic AI)合作,生产人工智能驱动的"医疗保健代理",其性能优于人类护士,而且成本更低。与快速发展的人工智能相关的大多数事情一样,时间会告诉我们最终的结果。
Nfissi 的论文在2024 年电气和电子工程师学会第 18 届语义计算国际会议(ICSC)上发表。