Neurocientífico halla cómo el cerebro interpreta el tono de voz para comprender la intención del habla y optimizar la IA
Un estudio pionero revela que una región del cerebro, conocida desde hace tiempo por su procesamiento auditivo temprano, desempeña un papel mucho más importante en la interpretación del habla de lo que se pensaba.

Un estudio multidisciplinario de la Escuela de Comunicación de la Universidad Northwestern, la Universidad de Pittsburgh y la Universidad de Wisconsin-Madison ha revelado que una región del cerebro conocida como giro de Heschl no solo procesa sonidos: transforma cambios sutiles en el tono, conocidos como prosodia, en información lingüística significativa que guía cómo los humanos entienden el énfasis, la intención y el enfoque en una conversación.
Bharath Chandrasekaran, coinvestigador principal del estudio y profesor y presidente del Departamento de Ciencias y Trastornos de la Comunicación Roxelyn and Richard Pepper de Northwestern.
Durante años, los científicos creyeron que todos los aspectos de la prosodia se procesaban principalmente en el giro temporal superior, una región del cerebro conocida por la percepción del habla. Chandrasekaran dice que los resultados desafían suposiciones sostenidas durante mucho tiempo sobre cómo, dónde y con qué rapidez se procesa la prosodia en el cerebro.
Se implantaron electrodos en la corteza cerebral de los participantes
Chandrasekaran se asoció con el Dr. Taylor Abel, jefe de neurocirugía pediátrica de la Facultad de Medicina de la Universidad de Pittsburgh, para estudiar el procesamiento de información auditiva en 11 pacientes adolescentes que estaban recibiendo tratamiento neuroquirúrgico para epilepsia grave. A todos ellos se les implantaron electrodos en la corteza cerebral, esencial para el funcionamiento del lenguaje.
Dr. Taylor Abel.
Para explorar cómo el cerebro descifra la melodía del habla, los investigadores trabajaron con este raro grupo de pacientes a quienes se les implantaron electrodos en el cerebro como parte de su tratamiento para la epilepsia.

Mientras estos pacientes escuchaban activamente una grabación del audiolibro de “Alicia en el país de las maravillas”, los científicos rastrearon la actividad de varias regiones del cerebro en tiempo real.
Nuestro cerebro puede codificar acentos tonales
Utilizando registros intracerebrales de electrodos en el cerebro del paciente, los investigadores observaron que la sección del giro de Heschl procesaba cambios sutiles en el tono de la voz, no sólo como sonido, sino como unidades lingüísticas significativas. El cerebro codificó los acentos tonales por separado de los sonidos que componen las palabras.
G. Nike Gnanataja del Departamento de Ciencias de la Comunicación y Trastornos de la Universidad de Wisconsin-Madison y coautor del estudio.
Gnanataja dice que la investigación también reveló que la capa oculta de significado transportada por los contornos prosódicos (el ascenso y la caída del habla) se codifica mucho antes en el procesamiento auditivo de lo que se pensaba anteriormente.

Se realizaron investigaciones similares en primates no humanos, pero los investigadores descubrieron que estos cerebros carecían de esta abstracción, a pesar de procesar las mismas señales acústicas.
¿Por qué es importante este descubrimiento?
Al descubrir la capa oculta del habla, Chandrasekaran y su equipo descubrieron cómo el cerebro procesa los acentos tonales, revelando profundas implicaciones para varios campos.
La comprensión del procesamiento prosódico temprano puede conducir a nuevas intervenciones para trastornos del habla y del lenguaje, como el autismo, la disprosodia en pacientes con accidente cerebrovascular y las diferencias de aprendizaje basadas en el lenguaje.
El estudio también destaca el papel único de la experiencia lingüística en la comunicación humana, ya que los primates no humanos carecen de la capacidad de procesar los acentos tonales como categorías abstractas.
Además, estos hallazgos podrían mejorar significativamente los sistemas de reconocimiento de voz basados en IA al permitirles manejar mejor la prosodia, acercando el procesamiento del lenguaje natural a la percepción del habla humana.
Referencia de la noticia:
G. Nike Gnanateja, Kyle Rupp, Fernando Llanos, Jasmine Hect, James S. German, Tobias Teichert, Taylor J. Abel & Bharath Chandrasekaran. Cortical processing of discrete prosodic patterns in continuous speech. Nature Communications (2025).