立体脑电图揭示人类上颞沟在视听语音感知中多感官整合的神经特征
发布时间: November 27, 2025 at 10:11 AM
News Article

内容
人类语音感知本质上是多感官的,依赖于说话者声音的听觉线索与其面部动作的视觉刺激的整合。先前采用血氧水平依赖(BOLD)功能性磁共振成像(fMRI)的研究表明,上颞回(STG)参与听觉语音处理,上颞沟(STS)参与听觉和视觉语音信号的整合。然而,fMRI作为一种间接的血流动力学测量,缺乏捕捉语音感知中快速神经计算的时间分辨率。\n\n为克服这些限制,本研究利用立体脑电图(sEEG)直接记录42名癫痫患者(25名女性,17名男性)STG和STS区域的神经活动。参与者需识别以三种感官形式呈现的单词:仅听觉、仅视觉和视听语音。这些条件在有无添加听觉噪声的情况下均被测试,以评估视觉语音线索的感知益处。值得注意的是,观察说话者面部始终增强了参与者的语音感知能力,尤其在嘈杂环境中更为显著。\n\n神经记录显示,一部分电极主要位于中后部STG和STS,对听觉和视觉语音信号均有反应。听觉语音反应的平均潜伏期为71毫秒,视觉语音反应稍晚,为109毫秒。关键是,多感官增强在STS上部最为显著。与仅听觉语音相比,STS在处理视听语音时反应潜伏期快40%,反应幅度增加18%。相比之下,STG在多感官条件下未表现出反应速度或幅度的显著差异。\n\n一个意外发现是STS对视听语音的反应潜伏期显著快于STG(50毫秒对64毫秒)。这表明一种并行处理模型,其中STG主要支持仅听觉语音感知,而STS在整合多感官语音信息中起主导作用。这些神经动态强调STS作为视听语音处理关键枢纽的地位,补充了先前fMRI发现的直接电生理证据。\n\n综上,这些结果有力支持上颞沟作为语音感知中多感官整合的神经基础。sEEG的应用使得神经反应的时间追踪更加精确,揭示了人类颞叶皮层中独特且快速的处理路径。本研究不仅推进了对语音感知神经机制的理解,也强调了多感官整合在现实交流场景中的重要性。这些见解对语音感知受损人群的临床干预及旨在增强交流能力的神经假体设备开发具有潜在意义。
关键见解
本研究于2025年在临床神经生理环境中对42名癫痫患者进行,阐明了人类上颞叶皮层多感官语音感知的关键神经机制。
核心事实包括在STG和STS中识别出听觉和视觉语音信号的不同反应潜伏期,仅在STS上部观察到显著的多感官增强,以及STS中视听处理速度快于STG的新发现。
直接利益相关者包括有语音感知困难的个体和研究皮层感觉整合的神经科学家,而听力学家和语言治疗师等外围群体可能间接受影响。
即时影响表现为对语音处理时间动态的理解提升以及临床上对视听交流障碍的潜在创新方法。
历史上,该工作与早期癫痫患者侵入性记录和感觉整合的fMRI研究相呼应,显著扩展了时间分辨率。
展望未来,乐观情景设想增强的神经假体语音设备和利用STS功能的靶向疗法,而风险情景强调将颅内发现推广到更广泛人群的挑战。
从监管角度,建议优先制定语音研究中sEEG的标准化协议,促进跨学科合作整合电生理和成像数据,并推动侵入性神经记录的伦理框架。
这些建议在可行性与推进语音感知障碍诊断和康复能力的承诺之间取得平衡。