苹果正改进Siri等语音助手对非典型语言模式的识别
苹果正在努力让Siri等语音技术更容易被语言模式不典型的用户所接受。根据《华尔街日报》的报道,该公司正在研究如何自动检测某人说话是否有口吃。为此,该公司已经从播客中积累了近2.8万个人们说话时有口吃的片段。
这一数据发表在本周的一份苹果研究报告中(PDF链接:https://arxiv.org/pdf/2102.12394.pdf)。
虽然苹果发言人拒绝评论它将如何使用这些数据的发现,但至少该公司计划至少利用其中的一部分来改进语音识别系统。在此期间,苹果在2015年推出的Hold to Talk功能允许用户控制他们希望Siri倾听多长时间。这有助于防止助手在命令完全说出之前打断用户或超时。
虽然文章没有提到,但Siri也可以在macOS和iOS上使用Type to Siri功能来激活和控制。
针对非典型语音模式的训练只是Siri改进的一个研究领域。苹果还在开发系统,可以通过锁定用户独特的语音模式来帮助保护设备的安全。《华尔街日报》还报道了亚马逊和谷歌等其他科技公司如何训练他们的数字助理,以了解更多可能在语音命令方面有问题的用户。
亚马逊在去年12月推出了一个新的基金,允许拥有非典型语音模式的用户训练算法,以识别他们独特的声音。谷歌也在收集非典型语音数据,用于谷歌助手。