jueves, 28 de junio de 2018

MIRAME CUANDO TE HABLO...CUANTAS VECES TE LO HAN DICHO TUS PADRES ?


El cerebro atiende más al lenguaje cuando se ven los movimientos faciales


Los movimientos oculares o labiales que se producen en la conversación cara a cara no solo adquieren gran valor social, también cerebral. Por primera vez, una investigación internacional en la que participa la Universidad Complutense de Madrid revela que durante la comprensión del lenguaje el cerebro muestra una actividad diferente si recibe información visual de los movimientos faciales del interlocutor.

<p>El cerebro presta más atención si ve la cara en movimiento. / <a href="https://flic.kr/p/RJgB8h" target="_self">Ars Electronica</a></p>
El cerebro presta más atención si ve la cara en movimiento. / Ars Electronica
Ante una conversación cara a cara, que se caracteriza entre otras cosas por ver los movimientos faciales de los interlocutores, el cerebro tiende a prestar más atención al lenguaje que si la cara estuviera estática, según una investigación de la Universidad Complutense de Madrid (UCM) y de la Universidad de Humboldt (Alemania).
El estudio, publicado en la revista Cortex, se realizó con el objetivo de indagar en las particularidades cerebrales de la comunicación frente a frente para conocer cómo los movimientos faciales de los hablantes, pueden influir en la comprensión semántica de oraciones.
“Aunque nos pueda parecer que es indiferente, al cerebro le importa mucho que la persona que nos habla esté delante y podamos verla además de oírla. En estas circunstancias en las que el contexto social es más rico y permite recibir información tanto de la mirada como especialmente de los labios, se presta mucha más atención a cada una de las palabras que escuchamos”, explica David Hermández Gutiérrez, miembro de la Sección de Neurociencia Cognitiva del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humanos.
Sin embargo, lo curioso es que ese efecto no ocurre siempre. Según los resultados de la investigación, únicamente cuando el lenguaje es sencillo y no requiere gran esfuerzo comprenderlo, ver la cara en movimiento del interlocutor aumenta la atención de la persona que escucha, de manera similar a como lo hacen, por ejemplo, las emociones.

Actividad eléctrica cerebral peculiar
“Cuando el contenido del lenguaje es difícil de entender, el cerebro se centra en los procesos lingüísticos, dejando de lado la información social que recibe de manera visual”, aclara el investigador de la UCM.
Esta investigación comprendió tres experimentos con electroencefalografía, en los que los participantes escuchaban oraciones acompañadas por el correspondiente vídeo de la persona hablando, o por una imagen estática de la misma persona, mientras se registraba su actividad eléctrica cerebral. 
Algunas de estas frases eran predecibles, siendo la compresión semántica sencilla, pero otras eran impredecibles, lo que dificultaba su comprensión. Los resultados obtenidos mostraron que la comprensión semántica de las oraciones impredecibles no se vio afectada en absoluto por el dinamismo facial.
Sin embargo, hubo un resultado interesante e inesperado: la actividad eléctrica cerebral correspondiente a la comprensión de frases predecibles mostró una actividad peculiar cuando iban acompañadas del vídeo y que no ocurría ante una imagen estática del hablante.
“Esta respuesta cerebral, caracterizada como una Positividad Posterior Tardía, era particularmente grande cuando se mostraba la cara completa, y más pequeña cuando se tapaban los ojos y especialmente la boca. Esto reflejaría un aumento de la atención en contextos comunicativos realistas, parecidos a una situación natural de una conversación cara a cara”, señala Hernández Gutiérrez.
Hasta ahora, la psicología y la neurociencia cognitiva se habían centrado en la percepción de fonemas o palabras aisladas en la comunicación cara a cara pero “el lenguaje es mucho más, contiene oraciones que llevan un mensaje que hay que comprender”, concluye el experto. Y el cerebro prefiere entenderlos en persona.
Referencia bibliográfica: 
David Hernández Gutiérrez, Rasha Abdel Rahman, Manuel Martín-Loeches, Francisco Muñoz, Annekathrin Schacht y Werner Sommer. “Does dynamic information about the speaker´s face contribute to semantic speech processing? ERP evidence”. Cortex 104. 2018. DOI: 10.1016/j.cortex.2018.03.031