Emo机器人在你微笑之前就能感知你的微笑 并做出回应

摘要:

一个名为"Emo"的机器人能够感知人类即将露出的微笑,并同时用自己的微笑做出回应,这可能是朝着开发具有更强交流技能、更有利于建立人类信任的机器人迈出的一大步。虽然大型语言模型(LLM)(如 OpenAI 的 ChatGPT)的进步使机器人在语言交流方面有了长足的发展,但它们在非语言交流方面仍面临挑战,尤其是读取面部表情并做出适当反应。

QhYB5OsU.jpeg

哥伦比亚大学哥伦比亚工程学院创意机器实验室的研究人员通过教他们的蓝硅拟人机器人头"Emo"预测人的微笑并做出回应,解决了这一难题。

设计一个能对非语言提示做出反应的机器人涉及两个挑战。首先是创造一个表情丰富但功能多样的面部,这涉及到复杂的硬件和执行机制。其次是教会机器人及时做出何种表情,以便显得自然和真实。

Emo 可能"只是一个脑袋",但它由 26 个执行器组成,可以做出各种细微的面部表情。两个瞳孔中的高清摄像头使 Emo 能够进行非语言交流所需的眼神交流。为了训练 Emo 如何做出面部表情,研究人员把它放在摄像头前,让它做一些随机动作--相当于我们在照镜子时练习不同的表情。几个小时后,Emo就学会了哪些动作指令会产生相应的面部表情。

随后,Emo 观看了人类面部表情的视频,逐帧进行分析。再经过几个小时的训练,Emo 就能通过观察微小的变化来预测人的面部表情了。Emo 在人类微笑发生前约 840 毫秒预测到了人类的微笑,并同时做出了自己的回应(尽管这样做看起来相当吓人)。

人类与机器人的面部共同表情

该研究的第一作者胡宇航说:"我认为准确预测人类面部表情是 HRI(人机交互)领域的一场革命。传统上,机器人在设计时并没有考虑到人类在交互过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,当机器人与人实时做出共同表情时,不仅能提高交互质量,还有助于建立人类与机器人之间的信任,未来,在与机器人互动时,机器人会像真人一样观察并解读你的面部表情。"

目前,研究人员正在努力将 LLM 集成到 Emo 中,使其能够进行语言交流,他们非常清楚开发这种先进机器人所涉及的伦理问题。

"尽管这种能力预示着从家庭助手到教育辅助工具等大量积极的应用,但开发者和用户仍有责任谨慎行事,并考虑道德因素,"该研究的通讯作者、创意机器实验室主任霍德-利普森(Hod Lipson)说。

"但这也非常令人兴奋--通过开发能够准确解读和模仿人类表情的机器人,我们正一步步接近这样一个未来:机器人可以无缝融入我们的日常生活,为我们提供陪伴、帮助,甚至是共鸣。想象一下,在这个世界上,与机器人互动就像与朋友交谈一样自然、舒适。"

这项研究发表在《科学机器人学》(Science Robotics)上。

查看评论
created by ceallan