Probablemente una de las diferencias más notables entre los seres humanos y otras especies es el lenguaje.

Ahora los científicos de la Universidad de Ginebra (UNIGE) y el Centro Nacional para la Evolución del Lenguaje para la Competencia en la Investigación (NCCR) han diseñado un modelo computacional que reproduce el complejo mecanismo empleado por el sistema nervioso central para desarrollar esta operación.

El modelo junta dos marcos teóricos independientes, equivalentes a la oscilación de neuronas producida por la actividad cerebral para procesar el flujo continuo de sonidos del lenguaje hablado.

Lo que hay detrás de este modelo teórico

El modelo funciona de acuerdo a la teoría conocida como predicción de código, en donde el cerebro optimiza la percepción tratando constantemente de predecir las señales sensoriales sobre una hipótesis de lo que serían los candidatos adecuados, lo cual son las sílabas en este modelo.

El resultado -descrito en la publicación Nature Communications– ha ayudado al reconocimiento en tiempo real de miles de sílabas contenidas en cientos de oraciones habladas en el lenguaje natural.

Esto valida la idea de que las oscilaciones neuronales pueden ser usadas para coordinar el flujo de las sílabas que escuchamos, con la predicción que hace nuestro cerebro.

«La actividad cerebral produce oscilaciones neuronales que pueden ser medidas a través de una encefalografía», dice Anne-Lise Giraud, profesora en el Departamento de Neurociencias Básicas de la Facultad de Medicina y co-directora del tema correspondiente en NCCR.

Las oscilaciones neuronales son ondas electromagnéticas que resultan de la actividad coherente del cerebro en una red conjunta de neuronas. Hay muchos tipos, definidos de acuerdo a su frecuencia.

Se llaman ondas alpha, beta, theta, delta o gamma. Cuando se toman individualmente o se sobreponen, estos ritmos están ligados a diferentes funciones cognitivas tales como la percepción, la atención, la memoria, etcétera.

Anne-Lise Giraud 1
La Profesora Anne-Lise Giraud

Cabe destacar que los científicos aún no saben cuándo ni cómo la actividad de las neuronas contribuye a estas funciones. En un estudio del 2015, el equipo de la profesora Giraud mostró que las ondas theta -que son de baja frecuencia- y las ondas gamma -que son de alta frecuencia- se coordinan la secuencia del flujo del sonido en sílabas y analizan su contenido para ser reconocidas.

Así desarrollaron una red neuronal basada en estos ritmos fisiológicos, cuyo desempeño en el manejo del entendimiento de las sílabas fue mejor que el que usan los sistemas automáticos de reconocimiento del habla tradicionales.

Las sílabas tienen su propio ritmo

Para comprender mejor el modelo creado, se hizo un experimento en donde las ondas theta (que van de los 4 a 8 Hertz (ciclos por segundo)), hizo posible el seguir el ritmo de las sílabas en la medida que eran percibidas por el sistema.

Las ondas gamma (cerca de los 300 Hertz) se usaron para segmentar la señal original en pequeños pedazos y los codificaron.

Esto produjo lo que los investigadores llamaron un «perfil fonético» ligado a cada secuencia de sonido, que se pudo comparar más adelante con una biblioteca de sílabas conocidas.

Una de las ventajas de este tipo de modelo es que se adapta espontáneamente a la velocidad del habla, que puede variar entre un hablante y otro.

El modelo propuesto

Prediciendo códigos

La profesora Giraud y su equipo desarrollaron entonces un nuevo modelo en donde incorporaron elementos de otros marcos teóricos, independientes de las oscilaciones neuronales, el cual se llama «predicción de códigos».

Esta teoría indica que las funciones cerebrales están optimizadas porque constantemente están tratando de anticipar y explicar lo que pasa en su entorno y para ello usan modelos aprendidos sobre cómo se generan en el entorno las señales sensoriales.

En el caso del lenguaje hablado, el cerebro intenta encontrar las causas más idóneas para comprender el sonido percibido por el oído en la medida que éste llega al órgano sensorial.

«Esto se hace sobre la base de una representación mental de lo que se ha aprendido y esto se está actualizando permanentemente», indica el Dr. Itsaso Olasagasti, neurocientífico computacional del equipo de Giraud, quien supervisa la implementación del modelo.

En otras palabras, este modelo simula la predicción de códigos, dice Sevada Hovsepyan, un investigador del Departamento de Neurociencias y primer autor del artículo.

«Implementamos éste incorporando los mecanismos oscilatorios», asegura el experto.

2,888 sílabas

El modelo es ingenioso y complejo en muchos sentidos, además de que maneja un conjunto de sílabas que tiende a crecer. As, cuando el sonido entra al sistema, primero se modula por una onda theta de baja frecuencia, que simula lo que la población de neuronas produce.

Esto hace posible el señalar el contorno de las sílabas. Mediante un entrenamiento de las ondas gamma, se ayuda entonces a codificar las sílabas cuando son percibidas.

Durante este proceso, el sistema sugiere posibles sílabas y corrige las acciones si considera necesario esto. Después de realizar este paso de ondas theta y gamma muchas veces, se descubre la sílaba correcta. El sistema se reinicializa al final de cada sílaba percibida.

Ester modelo se has probado con éxito usando 2,888 sílabas diferentes, contenidas en 220 oraciones, habladas en el idioma natural, en este caso, el inglés.

«Por una parte, tuvimos éxito en tomar dos marcos teóricos diferentes en un solo modelo computacional», dice la Profesora Giraud.

«Y por otro lado, hemos mostrado que las oscilaciones neuronales se alinean rítmicamente con el funcionamiento del cerebro con las señales que le llegan desde el entorno a los órganos sensoriales.

Si ponemos esto en la teoría de la predicción de código, significa que estas oscilaciones probablemente permiten al cerebro hacer las hipótesis correctas en el momento correcto», concluye Giraud.