Oyentes de izquierdas o derechas

La localización cerebral de los centros del lenguaje determina con qué oído escuchamos el teléfono

Cuando quiero tomar notas mientras hablo por teléfono, cojo el lápiz con la diestra y con la izquierda sostengo el aparato en mi oído derecho. Realmente sería mucho más cómodo escuchar con el oído izquierdo. Pero no hay manera: soy un recalcitrante oyente de derechas. Como el 70% de la población, según revela un estudio dado a conocer el pasado 26 de febrero en un congreso de la Association for Research in Otolaringology y que tiene su miga médica y lingüística.

Vaya por adelantado que los congresos científicos no se merecen el eco mediático que tienen. Son, esencialmente, eventos técnicos para el intercambio de ideas. En los congresos se cocina la ciencia, pero no se ofrecen platos preparados; todo lo más, resultados preliminares, que a menudo no se confirman ni se acaban publicando en revistas científicas.

El estudio en cuestión establece una fuerte correlación entre la dominancia cerebral y la lateralidad en el uso del teléfono. Es decir, las personas que usan principalmente el cerebro izquierdo para hablar (no confundir con los pensadores de izquierdas) no sólo suelen escribir con la mano derecha, sino que también suelen llevarse el auricular del teléfono al oído derecho. Y las personas con dominancia cerebral izquierda lo hacen al revés. De acuerdo, ¿y qué importancia tiene si hablo más con el cerebro derecho que con el izquierdo?

A veces interesa saber si los centros del lenguaje están en uno u otro hemisferio. Este es el caso de enfermos con epilepsia que van a ser operados intentando preservar al máximo el habla y la memoria próxima. Para saberlo se utiliza el llamado test de Wada,  una inyección de barbitúricos que duerme selectivamente el cerebro derecho o el izquierdo, para así saber dónde se ubican los centros del lenguaje (en este vídeo se explica muy bien).

El test de Wada tiene sus riesgos y efectos no deseados (puede provocar desinhibición, entre otras cosas). Así que, si los resultados presentados en San Diego se confirman, para evitar el test de Wada y saber con qué cerebro hablamos no habría más que mirar si somos oyentes de izquierdas o de derechas.

Foto: Mr. Thomas / Flickr


El tamaño de los sonidos

Los sonidos /i/ y /e/ se asocian con objetos más pequeños que los sonidos /o/ y /a/

Son los sonidos –y no exactamente las palabras– lo que tiene significado para nosotros. Esta relación entre el sonido y el significado se nos antoja arbitraria, pero quizá no lo sea tanto. Diversos experimentos han descubierto en las últimas décadas asociaciones claras entre las propiedades físicas de los sonidos de las palabras y sus referentes.  Tanto en niños como en adultos, se ha observado que diferentes sonidos vocálicos se asocian con objetos romos o puntiagudos, grandes o pequeños, quietos o en movimiento.

Así, se ha comprobado en diferentes lenguas que las vocales anteriores, como i  y e, se suelen usar en morfemas diminutivos, y que la mayoría de las vocales posteriores, como o y a se usan en morfemas aumentativos. Es decir, los sonidos /i/ y /e/ se asocian con objetos más pequeños que los sonidos /o/ y /a/.

Pero la gran pregunta es si esta asociación sonido-significado tiene alguna base cerebral innata o hay que aprenderla. Los niños no aprenden palabras sino sonidos que tienen que categorizar y asociar con un concepto. ¿Y qué asociaciones hacen los niños muy pequeños al escuchar diferentes sonidos vocálicos?

Un reciente estudio realizado con 28 niños de cuatro meses, hijos de hispanohablantes, se propuso comprobarlo con un ingenioso experimento doble, debidamente controlado. Los niños, sentados en el regazo de sus padres, escuchaban diferentes monosílabos que contenían los sonidos /i/ y /o/ en un caso, y /e/ o /a/ en el otro, al tiempo que se les presentaba en una pantalla una pareja de objetos abstractos (cuadrados, círculos, triángulos) idénticos en todo excepto en su tamaño, y se hacía un seguimiento de su mirada.

Los resultados de esta investigación, dirigida por la psicolingüista chilena Marcela Peña y publicado en Psychological Science, muestran que los niños dirigen significativamente más a menudo su mirada hacia los objetos grandes cuando las sílabas contienen /o/ y /a/, mientras que la dirigen más hacia los objetos pequeños cuando las sílabas escuchadas contienen /i/ o /e/. Asimismo, los niños mantienen más tiempo fija la mirada en los objetos grandes al escuchar /o/ y /a/, y en los objetos pequeños al escuchar /i/ o /e/.

Con sólo cuatro meses, los niños ya parecen capaces de asociar lo que oyen con la noción de tamaño. El trabajo no resuelve si estas asociaciones reflejan o no un conocimiento previo (innato  o aprendido en los cuatro meses de vida de los bebés), pero pasa por ser el primero que ha estudiado esta cuestión en niños tan pequeños y añade nuevos datos para iluminar el misterio del desarrollo del lenguaje.

Foto: semarr / Flickr


Diccionarios orales de lenguas en extinción

Photograph by Gurmeet Singh

Muchas de las 7.000 lenguas que se hablan todavía en el mundo nunca han sido grabadas ni recogidas en un diccionario. Apenas tienen hablantes y están en peligro de extinción, como tantas especies animales y vegetales. La mitad de ellas dejarán probablemente de hablarse en 2100 (las matemáticas dicen que cada dos semanas muere una lengua). Son víctimas, por condensarlo irónicamente en una sola palabra, del progreso.

Lamentablemente, no sabemos cómo se pronunciaba el latín del Imperio Romano, pero todavía estamos a tiempo de recoger las voces de los últimos hablantes de las lenguas más amenazadas. El pasado 17 de febrero, en el transcurso de la reunión anual de la American Association for the Avancement of Science (AAAS),  vieron la luz ocho diccionarios orales que recogen en total más de 32.000 palabras, acompañadas en muchos casos de fotografías, y con más de 24.000 grabaciones sonoras de hablantes nativos pronunciando palabras y frases.

Estos diccionarios orales son resultado del proyecto Enduring Voices de National Geographic, dirigido por los lingüistas Gregory Anderson y David Harrison, una ambiciosa iniciativa conservacionista impulsada en colaboración con el Living Tongues Institute for Endangered Languages.

El conservacionismo del patrimonio biológico y el de las lenguas están más relacionados de lo que parece, entre otras cosas porque una parte importante del conocimiento del medio natural está codificado en las lenguas amenazadas. Como el oso polar o el lince, las voces recogidas en estos diccionarios orales tienen la frágil belleza de una criatura viva que puede desaparecer.

Estos son tres de los diccionarios orales presentados, que vale la pena consultar/escuchar:

Diccionario de chamacoco: una lengua del norte de Paraguay, hablada todavía por 1.200 personas. El diccionario tiene 912 entradas y otras tantas grabaciones sonoras.

Diccionario de sora: una lengua tribal de la India (453 entradas y 453 grabaciones).

Diccionario de tuvan: una lengua indígena hablada por nómadas de Siberia y Mongolia. Tiene 7.459 entradas, 2.972 grabaciones y 49 imágenes.

(El proyecto Enduring Voices tiene un canal en YouTube)

Foto: Equipo de Enduring Voices en India con un hablante de aka. / Nationa Geographic / Gurmeet Singh


¿Dónde nos hicimos verbívoros?

Nos alimentamos de palabras que metabolizamos en preguntas y respuestas

Las preguntas se amontonan y empujan unas a otras: ¿Por qué los humanos tenemos lenguaje? ¿Para qué desarrollamos un sistema tan complejo y creativo, sin parangón en el reino animal? ¿Cómo empezó todo? ¿Y dónde? Para quien crea que las respuestas importan más que las preguntas, hay que decirlo pronto y claro: no lo sabemos. Y en este plural hay que incluir a lingüistas, antropólogos culturales y de los otros, etólogos, genetistas y biólogos evolucionistas, científicos cognitivos y neurocientíficos, más otras yerbas raras e híbridos investigadores.

La discusión sobre el origen del lenguaje puede ser de lo más entretenida, y así ha sido desde Grecia. Mucho de lo que se ha escrito sobre estas cuestiones se caracteriza por ser pura especulación, muy elegante en el mejor de los casos, pero carente de pruebas empíricas. El estudio lingüístico de los patrones geográficos de la diversidad lingüística tiene sus limitaciones, y la entrada en escena de otros investigadores, como los estudiosos de los genes o del protolenguaje animal, ha ampliado mucho el campo de trabajo, aunque sin claros beneficios por el momento.

Pongamos un ejemplo. El 11 de abril de 2011, el psicólogo y antropólogo cultural Quentin Atkinson dejó boquiabiertos a científicos y lingüistas al afirmar en la influyente revista científica Science (uno de los dos templos de la ciencia, junto con Nature), que la cuna de la actual diversidad lingüística podría localizarse en el suroeste de África. Sus “pruebas” surgían del análisis comparativo del número de fonemas de 500 lenguas usadas actualmente (Phonemic diversity supports a serial founder effect model of language expansion from Africa).

Como la polémica estaba servida, el pasado 10 de febrero, el grupo de Michael Cysouw, del departamento de Lenguage y Genética de la Ludwig Maximilian University en Munich, criticaba en la misma revista las conclusiones de Atkinson calificándolas de “artefacto” por sus datos poco apropiados, su metodología sesgada y sus suposiciones sin justificar (Comment on “Phonemic Diversity Supports a Serial Founder Effect Model of Language Expansion from Africa”). Aplicando dicha metodología, replicaba, el lenguaje podía haber surgido en el este de África,  en el Cáucaso o en otra parte bien distinta.

El lenguaje es, ciertamente, un hueso muy duro de roer para los investigadores de la evolución humana. ¿Surgió de forma gradual o súbita? ¿Como evolución del lenguaje corporal o como habla propiamente dicha? ¿Cómo consecuencia de la evolución genética o de la evolución cultural?  ¿Cómo adaptación o como mero subproducto?

La evolución, sospechamos, no tiene un plan definido, sino que está gobernada por el azar. El caso es que, sin saber muy bien cómo, cuándo, dónde y por qué, nos hemos hecho verbívoros. Y, claro, quien se alimenta de palabras no puede evitar metabolizarlas en preguntas y respuestas, según las preferencias metabólicas (léase, culturales) de cada cual.

Foto: eyesplash / Flickr


¿De qué depende la longitud de las palabras?

Sobre la revisión de la ley de Zipf y la comunicación eficiente

Durante muchos años, los lingüistas han mantenido que la longitud de las palabras está relacionada con su frecuencia de uso. Las más cortas tienden a ser las más habituales, y viceversa. Pensemos en los “de”, “a”, “y”, “el”, “que” y en tantos otros cortísimos vocablos que pueblan un texto cualquiera o una conversación. Y reparemos en la rareza de las palabras que tienen más de 15 o 20 letras. Tetrametildiaminodifenilsulfonas, con sus 32 letras, una detrás de otra, pasa por ser la más larga en español, como nos contaba Eumanista en su muy recomendable post Cómo de larga la tenemos, la palabra.

Está claro que utilizamos mucho más las palabras cortas que las largas, pero el primero en darse cuenta –y formularlo matemáticamente– de que existía una asociación entre la frecuencia de uso y la longitud de las palabras fue George K. Zipf. Este lingüista y filólogo de Harvard, que enunció en 1935 la ley empírica que lleva su nombre, sostenía que tendemos a acortar las palabras más usadas para ahorrar tiempo al hablar y al escribir.

El lenguaje es sin duda un buen ejemplo de este principio del mínimo esfuerzo de Zipf , “un principio que –como él decía y sabemos por experiencia– gobierna toda nuestra vida individual y colectiva”.

Quizá por eso durante los últimos 75 años nadie ha cuestionado (con pruebas científicas, se entiende) la ley de Zipf. El año pasado, sin embargo, un grupo de investigadores del Massachusetts Institute of Technology (MIT) publicó un trabajo que mostraba que la longitud de una palabra está más estrechamente relacionada con la cantidad de información que contiene que con su frecuencia de uso.

La publicación de este artículo (Word lengths are optimized for efficient communication) en la prestigiosa revista científica Proceedings of the National Academy of Sciences (PNAS) es todo un aval para el planteamiento de Steven T. Piantadosi, Harry Tily y Edward Gibson, aunque el cálculo de la “cantidad de información” es posiblemente su punto más cuestionable.

¿Cómo se puede medir la “cantidad de información” que contiene una palabra? Los autores asumen que una palabra es tanto más informativa cuanto más impredecible resulta, y utilizan una fórmula matemática para calcular la predictibilidad de las palabras en una decena de idiomas, entre ellos el español.

Los resultados de esta investigación indican que las palabras más cortas no son simplemente las más frecuentes, sino –lo que es más importante– las menos informativas y las más predecibles. El tamaño de las palabras parece estar optimizado para garantizar una comunicación más eficiente. Esto deberá ser estudiado por otros investigadores, pero de momento lo que ya conseguido el grupo de Piantadosi es cuestionar la ley de Zipf y obligarnos a pensar sobre el tamaño de las palabras.

Foto: Andrés Nieto Porras / Flickr


La selección sonora

Las palabras que mejor suenan son las que sobreviven

El lenguaje, como los organismos vivos, también parece estar sometido a las fuerzas de la selección natural.  Continuamente se están creando palabras nuevas en todas las lenguas, pero sólo las más aptas sobreviven. Una de las fuerzas principales que selecciona los vocablos que se incorporarán a una lengua y se mantendrán a lo largo del tiempo es la sonoridad. Hay otros factores que influyen, es verdad, como la simple desaparición de los objetos que designan estas palabras (¿quién usa hoy, por ejemplo, magnetofón?), pero las palabras que suenan mejor a los oídos de los hablantes tienen mejor porvenir.

Cada lengua tiene sus propias reglas para la formación de palabras, sus restricciones a la hora de juntar fonemas, y esto se aprecia en el sonido inconfundible de un habla, en su prosodia y musicalidad características. Hay palabras que son, sencillamente, imposibles o muy improbables en un idioma, como está poniendo de relieve la fonotáctica, un área de la lingüística de reciente creación que estudia la frecuencia de las sucesiones fonémicas en las distintas lenguas.

La creación de vocablos compuestos permitiría en principio saltarse las reglas internas de emparejamiento de fonemas, pero a la postre estas palabras acaban condenadas a la marginalidad, ya sea en el inglés o en el navajo, como ha puesto de manifiesto un estudio publicado en el número de diciembre de 2011 de la revista Language, de la Linguistic Society of America (Grammars leak: modeling howphonotactic generalizations interact within the grammar).

Andrew Martin, investigador del Laboratory for Language Development en el Riken Brain Science Institute en Saitama (Japón) y autor de este estudio, muestra en su artículo que los hablantes ingleses tienden a evitar palabras compuestas como bookcase, que juntan en un vocablo dos fonemas /k/, y su análisis confirma que las palabras de este tipo están infrarrepresentadas en el lexicón inglés.

Ya sea en inglés o en español, las palabras que contravienen las reglas de la fonotáctica son más bien raras. La selección sonora va en su contra. Y esto es algo que se debe tener muy en cuenta en el procesamiento del lenguaje natural.

Foto: sergi blog/ Flickr


Los oyentes necesitan los “eeeh”

La presencia de disfluencias en el habla facilita la comprensión y el recuerdo

Las muletillas sonoras sin significado que encontramos en el habla espontánea, como los típicos “eeeh” o “mmmh”, son un recurso habitual para hilvanar el pensamiento con palabras. Estas disfluencias nos permiten ganar tiempo pero parece que afean y ralentizan el discurso. De hecho, cualquier profesor de oratoria abogaría por un discurso fluido y sin interrupciones para ganar eficacia. Sin embargo, parece que esto no es así y que estas pausas ayudan a los oyentes a recordar mejor lo que se ha dicho.

Los resultados de un estudio publicado el año pasado en el Journal of Memory and Language (The disfluent discourse: Effects of filled pauses on recall, doi:10.1016/j.jml.2011.03.004) por Scott H. Fraundorf y Duane G. Watson, de la University of Illinois (EE UU), indican que estas muletillas (speech fillers) facilitan la comprensión y el recuerdo; y de paso, ofrecen algunas pistas para entender mejor el sentido de estas vacilaciones.

En un primer experimento, realizado con la lectura de textos de Alicia en el país de las maravillas salpimentados con interrupciones varias, los autores comprobaron que el beneficio de los “eeeh” y los “mmmh” no parece estar relacionado con la simple ganancia de tiempo: mientras las interrupciones del discurso por estas muletillas facilitaban el recuerdo, las interrupciones por toses lo entorpecían.

¿Por qué, entonces, los “eeeh” y “mmmh” mejoran la transmisión de un mensaje oral? Los resultados de un segundo experimento, en el que se manipuló intencionadamente la ubicación de las muletillas, sugieren que estas pausas podrían potenciar y orientar la atención del oyente. De momento, son sólo hipótesis, pero los oradores, profesores de oratoria y desarrolladores de lenguaje natural para las máquinas deberían tomar buena nota.

Foto: comedy_nose / Flickr