Neurocientífico halla cómo el cerebro interpreta el tono de voz para comprender la intención del habla y optimizar la IA

Un estudio pionero revela que una región del cerebro, conocida desde hace tiempo por su procesamiento auditivo temprano, desempeña un papel mucho más importante en la interpretación del habla de lo que se pensaba.

cerebro; voz
La interpretación que hace nuestro cerebro de lo que oímos podría transmitirse a la IA. (Imagen creada por IA))

Un estudio multidisciplinario de la Escuela de Comunicación de la Universidad Northwestern, la Universidad de Pittsburgh y la Universidad de Wisconsin-Madison ha revelado que una región del cerebro conocida como giro de Heschl no solo procesa sonidos: transforma cambios sutiles en el tono, conocidos como prosodia, en información lingüística significativa que guía cómo los humanos entienden el énfasis, la intención y el enfoque en una conversación.

“Los resultados de este estudio redefinen nuestra comprensión de la arquitectura de la percepción del habla. Hemos pasado décadas investigando los matices de cómo se abstrae el habla en el cerebro, pero este es el primer estudio que investiga cómo se procesan en el cerebro las variaciones sutiles en el tono que también comunican significado”.

Bharath Chandrasekaran, coinvestigador principal del estudio y profesor y presidente del Departamento de Ciencias y Trastornos de la Comunicación Roxelyn and Richard Pepper de Northwestern.

Durante años, los científicos creyeron que todos los aspectos de la prosodia se procesaban principalmente en el giro temporal superior, una región del cerebro conocida por la percepción del habla. Chandrasekaran dice que los resultados desafían suposiciones sostenidas durante mucho tiempo sobre cómo, dónde y con qué rapidez se procesa la prosodia en el cerebro.

Se implantaron electrodos en la corteza cerebral de los participantes

Chandrasekaran se asoció con el Dr. Taylor Abel, jefe de neurocirugía pediátrica de la Facultad de Medicina de la Universidad de Pittsburgh, para estudiar el procesamiento de información auditiva en 11 pacientes adolescentes que estaban recibiendo tratamiento neuroquirúrgico para epilepsia grave. A todos ellos se les implantaron electrodos en la corteza cerebral, esencial para el funcionamiento del lenguaje.

“Normalmente, la investigación en comunicación y lingüística se basa en registros no invasivos de la superficie de la piel, lo que los hace accesibles pero no muy precisos. “Una colaboración entre neurocirujanos científicos y neurocientíficos como los nuestros nos ha permitido recopilar grabaciones de alta calidad de la actividad cerebral que de otro modo no habrían sido posibles, y aprender sobre los mecanismos de procesamiento cerebral de una forma completamente nueva”.

Dr. Taylor Abel.

Para explorar cómo el cerebro descifra la melodía del habla, los investigadores trabajaron con este raro grupo de pacientes a quienes se les implantaron electrodos en el cerebro como parte de su tratamiento para la epilepsia.

cerebro; comprensión del tono de voz
A todos los participantes en este estudio se les implantaron electrodos en la corteza cerebral, fundamental para el funcionamiento del lenguaje. (Imagen creada por IA)

Mientras estos pacientes escuchaban activamente una grabación del audiolibro de “Alicia en el país de las maravillas”, los científicos rastrearon la actividad de varias regiones del cerebro en tiempo real.

Nuestro cerebro puede codificar acentos tonales

Utilizando registros intracerebrales de electrodos en el cerebro del paciente, los investigadores observaron que la sección del giro de Heschl procesaba cambios sutiles en el tono de la voz, no sólo como sonido, sino como unidades lingüísticas significativas. El cerebro codificó los acentos tonales por separado de los sonidos que componen las palabras.

“Nuestro estudio desafía suposiciones sostenidas durante mucho tiempo sobre cómo y dónde el cerebro capta la melodía natural del habla: esos cambios sutiles en el tono que ayudan a transmitir significado e intención. Aunque estos patrones de tono varían cada vez que hablamos, nuestros cerebros crean representaciones estables para comprenderlos”.

G. Nike Gnanataja del Departamento de Ciencias de la Comunicación y Trastornos de la Universidad de Wisconsin-Madison y coautor del estudio.

Gnanataja dice que la investigación también reveló que la capa oculta de significado transportada por los contornos prosódicos (el ascenso y la caída del habla) se codifica mucho antes en el procesamiento auditivo de lo que se pensaba anteriormente.

tono; discurso
Los investigadores han llevado a cabo investigaciones similares en primates no humanos, pero los resultados difieren. (Imagen creada por IA)

Se realizaron investigaciones similares en primates no humanos, pero los investigadores descubrieron que estos cerebros carecían de esta abstracción, a pesar de procesar las mismas señales acústicas.

¿Por qué es importante este descubrimiento?

Al descubrir la capa oculta del habla, Chandrasekaran y su equipo descubrieron cómo el cerebro procesa los acentos tonales, revelando profundas implicaciones para varios campos.

“Nuestros hallazgos podrían transformar la rehabilitación del habla, los asistentes de voz impulsados por IA y nuestra comprensión de lo que hace que la comunicación humana sea única”, afirmó.

La comprensión del procesamiento prosódico temprano puede conducir a nuevas intervenciones para trastornos del habla y del lenguaje, como el autismo, la disprosodia en pacientes con accidente cerebrovascular y las diferencias de aprendizaje basadas en el lenguaje.

El estudio también destaca el papel único de la experiencia lingüística en la comunicación humana, ya que los primates no humanos carecen de la capacidad de procesar los acentos tonales como categorías abstractas.

Además, estos hallazgos podrían mejorar significativamente los sistemas de reconocimiento de voz basados en IA al permitirles manejar mejor la prosodia, acercando el procesamiento del lenguaje natural a la percepción del habla humana.

Referencia de la noticia:

G. Nike Gnanateja, Kyle Rupp, Fernando Llanos, Jasmine Hect, James S. German, Tobias Teichert, Taylor J. Abel & Bharath Chandrasekaran. Cortical processing of discrete prosodic patterns in continuous speech. Nature Communications (2025).