研究发现我们的大脑使用基本的音速和模式来区分音乐和语音

摘要:

音乐和语言是我们最常听到的声音类型。但是,我们如何识别我们认为两者之间的差异呢?一个国际研究小组通过一系列实验绘制出了这一过程--这些实验得出的见解为优化治疗方案提供了一种潜在的手段,这种治疗方案利用音乐来恢复失语症患者的说话能力。

每年有超过三分之一的美国人受到这种语言障碍的困扰,其中包括温迪-威廉姆斯(Wendy Williams)和布鲁斯-威利斯(Bruce Willis)。

纽约大学心理学系博士后、论文第一作者安德鲁-张(Andrew Chang)解释说:"虽然音乐和语音在很多方面都不同,从音高、音色到声音质地,但我们的研究结果表明,听觉系统使用非常简单的声学参数来区分音乐和语音,总的来说,较慢和稳定的纯噪音声音片段听起来更像音乐,而较快和不规则的片段听起来更像语音"。

该论文今天(5 月 28 日)发表在《PLOS 生物学》杂志上。

journal.pbio.3002631.g001.PNG

科学家通过精确的测量单位来衡量信号的速率:赫兹(Hz)。赫兹数越大,表示每秒发生的次数(或周期)越多,而赫兹数越小,表示每秒发生的次数(或周期)越少。例如,人们通常以每秒 1.5 到 2 步的速度行走,也就是 1.5-2 赫兹。史蒂夫-汪达 1972 年的名曲"Superstition"(迷信)的节拍也是如此。迷信"的节拍约为 1.6 赫兹,而安娜-卡琳娜 1967 年的名曲"Roller Girl"则为 2 赫兹。相比之下,语音的速度通常要快两到三倍,为 4-5 赫兹。

journal.pbio.3002631.g002.PNG

歌曲的音量或响度随时间的变化--即所谓的"振幅调制"--相对稳定在 1-2 赫兹。相比之下,语音的振幅调制通常为 4-5 赫兹,这意味着其音量变化频繁。尽管音乐和语音无处不在、耳熟能详,但科学家们以前并不清楚我们是如何毫不费力地自动将声音识别为音乐或语音的。

journal.pbio.3002631.g003.PNG

journal.pbio.3002631.g004.PNG

声音感知实验结果

在PLOS Biology的研究中,为了更好地理解这一过程,张及其同事进行了四次实验,让 300 多名参与者聆听了一系列不同振幅调制速度和规律的合成音乐和语音噪声片段。

音频噪声片段只允许检测音量和速度。参与者被要求判断这些模棱两可的噪音片段(他们被告知这些片段是掩盖了噪音的音乐或语音)听起来像音乐还是语音。通过观察参与者将数百个噪音片段分类为音乐或语音的模式,可以发现速度和/或规律性特征对他们判断音乐和语音的影响有多大。科学家们总结说,这就是听觉版的"云中看脸":如果声波中的某一特征符合听众对音乐或语音的理解,那么即使是白噪声片段听起来也会像音乐或语音。音乐和语音的例子可以从以下页面中获取:

https://github.com/curlsloth/MusicSpeechAmplitudeModulation?tab=readme-ov-file

结果表明,我们的听觉系统使用了令人惊讶的简单而基本的声学参数来区分音乐和语音:对参与者来说,速率较慢(<2Hz)、振幅调制较规则的片段听起来更像音乐,而速率较高(~4Hz)、振幅调制较不规则的片段听起来更像语音。

对治疗和康复的影响

作者指出,了解人脑是如何区分音乐和语音的,有可能使听觉或语言障碍(如失语症)患者受益。例如,旋律音调疗法是一种很有前途的方法,它可以训练失语症患者唱出他们想说的话,利用他们完好的"音乐机制"绕过受损的语言机制。因此,了解是什么使音乐和语言在大脑中相似或不同,有助于设计更有效的康复计划。

编译来源:ScitechDaily

查看评论
created by ceallan