开创性的实时可穿戴人类情感实时识别技术亮相

摘要:

蔚山国立科学技术研究院(UNIST)材料科学与工程系的 Jiyun Kim 教授及其团队开发出了一种能够实时识别人类情绪的开创性技术。这项尖端创新技术将给各行各业带来革命性的变化,包括基于情绪提供服务的下一代可穿戴系统。

Real-Time-Wearable-Human-Emotion-Recognition-Technology-Graphic.jpg

研究人员推出了一种创新的实时情感识别技术,利用个性化的自供电界面进行全面的情感分析。这项技术有望应用于可穿戴设备,标志着基于情感的个性化服务和增强型人机交互的飞跃。资料来源:UNIST

长期以来,由于情绪、心情和感觉等人类情感的抽象性和模糊性,理解和准确提取情感信息一直是一项挑战。为解决这一问题,研究团队开发了一种多模态人类情绪识别系统,该系统结合了语言和非语言表达数据,可有效利用全面的情绪信息。

该系统的核心是个性化皮肤集成面部界面(PSiFI)系统,它具有自供电、简便、可拉伸和透明的特点。它配备了一个首创的双向三电应变和振动传感器,可同时感应和整合语言和非语言表达数据。该系统与用于无线数据传输的数据处理电路完全集成,可实现实时情绪识别。

利用机器学习算法,所开发的技术展示了准确、实时的人类情绪识别任务,即使个人戴着面具也能识别。该系统还成功应用于虚拟现实(VR)环境中的数字礼宾服务应用。

Schematic-Illustration-of-the-System-Overview-With-PSiFI.jpg

个性化皮肤集成面部界面(PSiFI)系统概览示意图。资料来源:联合国软件技术研究所

该技术基于"摩擦充电"现象,即物体在摩擦时会分离成正电荷和负电荷。值得注意的是,该系统是自发电的,不需要外部电源或复杂的测量设备来识别数据。

金教授评论说:"在这些技术的基础上,我们开发出了一种皮肤集成面部界面(PSiFI)系统,可以为个人定制。研究小组利用半固化技术为摩擦充电电极制造了透明导体。此外,他们还利用多角度拍摄技术制作了个性化面具,将柔韧性、弹性和透明度融为一体。"

研究团队成功整合了面部肌肉变形和声带振动检测,实现了实时情绪识别。该系统的功能在虚拟现实"数字门房"应用中得到了展示,该应用根据用户的情绪提供定制服务。

该研究的第一作者 Jin Pyo Lee 说:"有了这个开发的系统,只需几个学习步骤,无需复杂的测量设备,就能实现实时情感识别。这为未来的便携式情感识别设备和下一代基于情感的数字平台服务提供了可能性"。

Jiyun-Kim-and-Jin-Pyo-Lee.jpg

左起为 UNIST 材料科学与工程系教授 Jiyun Kim 和 Jin Pyo Lee。资料来源:UNIST

研究团队进行了实时情感识别实验,收集了面部肌肉变形和语音等多模态数据。该系统的情绪识别准确率很高,只需少量训练。其无线和可定制的特性确保了可穿戴性和便利性。

此外,该团队还将该系统应用于 VR 环境,将其用作智能家居、私人电影院和智能办公室等各种环境的"数字门房"。该系统能够识别不同情境下的个人情绪,从而提供个性化的音乐、电影和书籍推荐。

金教授强调说:"为了实现人与机器之间的有效互动,人机界面(HMI)设备必须能够收集各种类型的数据并处理复杂的综合信息。这项研究体现了在下一代可穿戴系统中使用情绪这种复杂形式的人类信息的潜力"。

编译自:ScitechDaily

查看评论
created by ceallan