Todos los nombres

Sobre la ilimitada capacidad de nombrar y el uso de los nombres propios

Una parte importante de nuestro vocabulario queda fuera del diccionario. Los nombres de personas, lugares, animales, empresas y otros objetos no están en el diccionario porque, en principio, carecen de significado (otra cosa es que el nombre propio coincida con un nombre común, ya sea Zapatero o Bush). No son conceptos genéricos sino nombres de realidades únicas: África, Apple, Chuchi (otra cosa es que pueda haber diferentes realidades únicas con el mismo nombre).

Los diccionarios son muy sensatos al dar solo entrada a los nombres comunes. El genio propio de las lenguas ya se encarga de limitar la creación de palabras a los conceptos que son mínimamente frecuentes o máximamente infrecuentes, como dice aforísticamente Jorge Wagensberg. Existe la palabra huérfano porque no es ni muy frecuente ni muy infrecuente, pero no existe una palabra para designar a quien ha perdido a su abuelo (demasiado frecuente) o a quien todavía no ha perdido a su bisabuelo (demasiado infrecuente). Pero, ¿qué limites hay para crear nombres propios?

Nadie tiene ni idea de cuántos nombres propios puede haber, incluso en una lengua concreta. Existe la hipótesis, no confirmada, de que conocemos más nombres propios que nombres comunes. Pudiera ser. Entre los residentes en España, según del Instituto Nacional de Estadística (INE), hay más de 25.000 nombres de varón y casi otros tantos de mujer (excluyendo aquellos tan raros que los llevan menos de 20 personas). Curiosear por la página web del INE dedicada a los nombres y apellidos de los residentes en España no tiene desperdicio.

Los nombres más frecuentes en España no son ninguna sorpresa: en varones, Antonio (765.138) y José (706.051), y en mujeres, María [del] Carmen (681.108) y María (668.112), aunque si se incluyen los nombres simples y los compuestos, más de la cuarta parte de las mujeres españolas se llaman María (6.424.495). Las perlas aparecen en la zona de los nombres raros: Víctor Jacinto, Venancio Jesús, Victoria Virginia o Ramona Simona, que sólo llevan una veintena de personas.

Entre los nombres más raros hay algunos en vías de extinción, dada la edad media de sus portadores. Hay solo 24 mujeres que se llaman Canuta (con una edad media de 80,9 años), y las 21 que se llaman Decorosa tienen de media 79 años. Entre los varones, por citar sólo un par, hay 32 que se llaman Progreso y 27 Euquerio, ambos con edades medias de más de 70. Abundio, con 702 hombres tocados por este nombre de pila, es otro de los que tienen una edad media más avanzada (72,3).

“Conoces el nombre que te dieron, no conoces el nombre que tienes”, reza la cita ficticia del ficticio Libro de las evidencias que abre la novela Todos los nombres de José Saramago. ¿Qué sabemos de los nombres propios? ¿Cómo se forman? ¿Qué factores determinan el nombre propio que damos a las personas y las cosas? Corre la historia de que en algunos países de Latinoamérica han hecho cierta fortuna nombres como Usnavy, Usmail, Yulaisi o Yulernin, pero sea o no cierta, ilustra muy bien la ilimitada capacidad de crear nombres propios. Y muestra también que toda esta parte importante de nuestro vocabulario sigue siendo una asignatura pendiente para la investigación lingüística y sociolingüística.

Foto: Aguarate / Flickr


Fenómenos TOT

Sobre el desacoplamiento entre sonido y significado de una palabra

Sabemos por qué letra empieza o quizá cuántas sílabas tiene. Podemos incluso invocar otra palabra con un sonido o significado similar, pero la que buscamos se nos ha quedado atascada en la punta de la lengua y no acaba de salir. Esta frustrante situación, conocida en la bibliografía internacional como fenómeno TOT (tip-of-the-tongue), es relativamente habitual y se relaciona sobre todo con nombres propios y palabras que no se pronuncian habitualmente.

El candidato republicano a la presidencia de Estados Unidos Rick Perry se quedó apeado de la carrera presidencial por un triste TOT en un debate televisivo. Estaba explicando ante las cámaras que cuando fuera presidente eliminaría tres agencias gubernamentales: la de comercio, la de educación, y la de… Y ahí se quedó. Lo intentó varias veces durante casi un minuto interminable pero fue incapaz de pronunciar la palabra que su cerebro pretendía recuperar: energía.

Aunque el fenómeno TOT ha sido estudiada durante medio siglo, no acaba de ser entendido completamente por la neurociencia. La investigación experimental indica que, a la hora de pronunciar una palabra, primero recuperamos o activamos su significado y luego recuperamos o activamos su sonido. Lo que ocurre cuando se nos queda encallada una palabra en la punta de la lengua es que tenemos el significado, pero nos falta su sonido. La teoría más plausible indica que esto ocurre porque otros sonidos bloquean el que queremos pronunciar.

¿Qué le pasó entonces al cerebro de Rick Perry? Lo más probable, según la psicolingüista Gail Mauner, es que el bloqueo inicial se agravara cuando su contrincante Mitt Romney le echó un cable sugiriéndole que esa tercera agencia podría ser la EPA (Environmental Protection Agency). Al pronunciar el sonido “EPA” y activar en la mente de Perry otros sonidos similares le resultó imposible llegar hasta el sonido de “energy” que andaba buscando.

Cuando una palabra no se pronuncia habitualmente, la conexión entre significado y sonido puede ser débil. Y como esa palabra o palabras apenas se usan, la conexión entre significado y sonido puede verse interferida fácilmente por la activación residual de sonidos que se han producido recientemente.

Los estudios realizados muestran que el fenómeno TOT ocurre a todas las edades pero es más frecuente en las personas mayores de 50 años que en los jóvenes. Y la única manera de prevenirlo es usar y usar el lenguaje, leer para incorporar palabras nuevas, poner en circulación las que conocemos y jugar con ellas. Por ejemplo, cuaicapeando con el Dr. Cuaicap.

Foto: Geekr / Flickr


Enjutas o spandrels

Sobre la aparición del lenguaje como un subproducto en la evolución

Abundan en palacios y edificios históricos, aunque muy pocos las llaman por su nombre. Enjuta o albanega es el nombre que recibe el espacio triangular que deja un arco inscrito en un rectángulo de pared, y que la Wikipedia define como la superficie delimitada por el extradós de un arco y el alfiz. Las pechinas son un tipo de enjuta tridimensional: cada uno de los cuatro triángulos curvilíneos que forman el anillo de la cúpula con los arcos sobre los que descansa. Basta ver una para saber lo que son y darse cuenta de que, a pesar de que resultan zonas muy apropiadas para colocar pinturas u otras ornamentaciones, son como espacios sobrantes o un resultado accidental de enmarcar un arco.

En inglés se llaman spandrel,  que es también un término arquitectónico o palabra culta con un uso muy restringido. El 21 de septiembre de 1979, el biólogo evolutivo y gran divulgador científico Stephen Jay Gould, junto con el genetista Richard Lewontin, publicó en la revista Proceedings of the Royal Society del Reino Unido un artículo que acabaría dando un nuevo sentido a las pechinas o enjutas y que llevaba un título metafórico: The spandrels of San Marco and the panglossian paradigm: a critique of the adaptationist programme (Las pechinas de San Marcos y el paradigma panglossiano: crítica del programa adaptacionista).

A partir de entonces, la palabra spandrel salió de los dominios de la arquitectura para adentrarse en los de la biología evolucionista y la genética. ¿Qué es un spandrel o una pechina en este nuevo contexto? Según Jay Gould, es un subproducto de la evolución y no una solución adaptativa que surge por selección natural como resultado de una mutación. Un ejemplo serían las plumas de las aves, que han resultado muy útiles para volar pero que debieron de surgir como respuesta adaptativa para conservar la temperatura corporal.

El lenguaje, según sostenía también el propio Jay Gould, sería un buen ejemplo de spandrel. Como una hermosa enjuta o albanega en la fachada de la especie humana, podría ser que el habla fuera un resultado azaroso, un accidente que a la postre ha resultado providencial para el hombre, pero que inicialmente fue el subproducto innecesario de un cerebro seleccionado por la evolución para menesteres más importantes, como es la pura supervivencia.

El lingüista Noam Chomsky ha ido uno de los que apoyó esta idea de que la capacidad del lenguaje no era una solución adaptativa para favorecer la comunicación interhumana, sino algo superfluo, una de las muchas posibilidades que ofrecía un cerebro de gran tamaño, necesario para sobrevivir y para hacer posible, entre otras cosas, toda la multiplicidad de emociones que nos permite leer el mundo de una forma eficaz y tomar decisiones óptimas. Quizá el lenguaje fue al principio una herramienta solipsista para hablar con uno mismo y descifrar esos pensamientos condensados que son las emociones. La poesía o la simple conversación sobre lo humano y lo divino vendrían mucho después.

Foto: Las pechinas de la basílica de San Marco, en Venecia. HarshLight / Flickr


Segundas lenguas

La ciencia tiene algo que decir sobre el aprendizaje de un idioma extranjero

El aprendizaje de una lengua extranjera está envuelto en mitos y falsas creencias. Muchos nacen de la propaganda de la pujante industria de la enseñanza de idiomas; otros, de las a menudo penosas experiencias individuales. Pero aprender una lengua distinta a la materna no es tan fácil como nos venden algunos métodos ni tan difícil como pretenden ilustrar algunos casos particulares.

Con esfuerzo o sin esfuerzo, con clases o con inmersión, a una edad temprana o si no… El debate sobre las segundas lenguas es complejo, sobrado de opiniones y prejuicios, y falto de datos objetivos. ¿Tienen algo que aportar la neurociencia y otras ciencias? Desde luego que sí. Un reciente estudio publicado el la revista PLoS One ha venido a responder al menos a dos preguntas.

Primera pregunta: ¿Las clases de idiomas, con énfasis en cuestiones gramaticales, son más o menos beneficiosas que la simple inmersión? Algunos estudios previos apuntaban que las clases son más eficaces que la inmersión, pero parece ser que esto sólo es cierto en las primeras fases del aprendizaje. Aprender una segunda lengua es un camino largo y el estudio de PLoS One indica que cada método de aprendizaje implica un mecanismo cerebral diferente, y confirma que un adulto puede llegar a prender un idioma como un nativo (usando los mismos procesos cerebrales) si se sumerge en su entorno.

Segunda pregunta: ¿Qué pasa si después de alcanzar un nivel alto de una lengua extranjera se pierde el contacto con esa lengua? ¿Se dejará de hablar y pensar como un nativo? El estudio de PLoS One muestra que no hay tal pérdida, al menos durante meses (Second Language Processing Shows Increased Native-Like Neural Responses after Months of No Exposure).

Hay muchas otras interesantes preguntas acerca del aprendizaje de una segunda sobre las que la ciencia empieza a ofrecer respuestas, aunque nunca definitivas y a veces contradictorias: ¿Tienen ventaja los bilingües a la hora de aprender una lengua extranjera? (parece ser que no) ¿Es más eficaz enseñar con el acento nativo o con el del oyente? (parece ser que sí) ¿El acento español es un lastre más pesado que otros? (¡mmmh!) ¿Qué barreras impiden que un extranjero domine otra lengua?

Esta última cuestión, por ejemplo, la están estudiando en la Universidad Johannes Gutenberg de Mainz, donde han creado un corpus de variedades del inglés utilizado por estudiantes avanzados, el Corpus of Academic Learner English (CALE), un proyecto que está abierto a la colaboración internacional.

Por muy alto que sea el nivel del hablante de una segunda lengua, siempre hay palabras, acentos, giros que le delatan como extranjero. Y que sólo el tiempo acaba limando. Aprender una segunda lengua es un proceso lento y largo, muy asociado a la motivación y la práctica, realmente un camino sin fin. Pero con la primera lengua tampoco se acaba nunca de aprender.

Foto: mugley / Flickr


La ventajosa ambigüedad de las palabras

La polisemia facilita la comunicación humana pero se atraganta en las máquinas

En un escenario de comunicación ideal no debería haber espacio para la ambigüedad. Cada palabra debería tener un significado y sólo uno. Así, sin los quebraderos de cabeza de la polisemia y otras ambigüedades, cabe imaginar que sería mucho más fácil entenderse. Pero este es un escenario que afecta sólo a las máquinas, que toleran muy mal la ambigüedad. En Google, la Wikipedia y otros artefactos que procesan el lenguaje, ante la primera encrucijada semántica lo primero que hay que hacer es eliminar la ambigüedad (desambiguation), algo que las personas hacemos de forma natural y sin esfuerzo mediante el contexto.

¿Por qué todas lenguas tienen tantas palabras con múltiples significados? Pensemos, por ejemplo, en el verbo “pasar”, en el adjetivo “bajo”, en el sustantivo “pie” y en tantas otras palabras con decenas de significados diferentes. Si tenemos lenguas tan ambiguas es, probablemente, porque esto es lo más eficaz para comunicarse. Al hablante le interesa ser lo más eficaz posible: comunicar con un mínimo de  palabras y de esfuerzo, mientras que el oyente pretende entender correctamente lo que le dice el hablante.

En la comunicación humana, la ambigüedad no sólo no representa ningún problema, sino que es una ventaja. Esto es lo que argumenta un grupo de investigadores en un trabajo recién publicado en la revista Cognition.  En su artículo The communicative function of ambiguity in language sostienen que la ambigüedad del lenguaje es lo permite utilizar y reutilizar las palabras más eficaces, es decir, aquellas que tienen menos sílabas y una pronunciación clara.

Las lenguas, o más bien los cerebros de los hablantes, saben muy bien lo que se hacen, y por eso es mucho más ambiguo el verbo “poner” que el verbo, pongamos por caso, “desvencijar”. Los autores del trabajo de Cognition (Steven Piantadosi, Harry Tily y Edward Gibson) han confirmado en corpus de tres lenguas diferentes (inglés, alemán y holandés) que, efectivamente, las palabras más cortas, más usadas y de más fácil pronunciación son las que tienen más probabilidades de ser ambiguas.

Cognitivamente resulta más económico inferir el significado a partir del contexto que gastar tiempo en largas y complicadas sentencias para precisar lo que se quiere decir. La ambigüedad del lenguaje parece ser, por tanto, una gran ventaja para comunicarse entre personas. El desafío está ahora en que las máquinas sean también capaces de lidiar con el contexto para dominar la ambigüedades del lenguaje.

Foto: kiwaja / Flickr


Oyentes de izquierdas o derechas

La localización cerebral de los centros del lenguaje determina con qué oído escuchamos el teléfono

Cuando quiero tomar notas mientras hablo por teléfono, cojo el lápiz con la diestra y con la izquierda sostengo el aparato en mi oído derecho. Realmente sería mucho más cómodo escuchar con el oído izquierdo. Pero no hay manera: soy un recalcitrante oyente de derechas. Como el 70% de la población, según revela un estudio dado a conocer el pasado 26 de febrero en un congreso de la Association for Research in Otolaringology y que tiene su miga médica y lingüística.

Vaya por adelantado que los congresos científicos no se merecen el eco mediático que tienen. Son, esencialmente, eventos técnicos para el intercambio de ideas. En los congresos se cocina la ciencia, pero no se ofrecen platos preparados; todo lo más, resultados preliminares, que a menudo no se confirman ni se acaban publicando en revistas científicas.

El estudio en cuestión establece una fuerte correlación entre la dominancia cerebral y la lateralidad en el uso del teléfono. Es decir, las personas que usan principalmente el cerebro izquierdo para hablar (no confundir con los pensadores de izquierdas) no sólo suelen escribir con la mano derecha, sino que también suelen llevarse el auricular del teléfono al oído derecho. Y las personas con dominancia cerebral izquierda lo hacen al revés. De acuerdo, ¿y qué importancia tiene si hablo más con el cerebro derecho que con el izquierdo?

A veces interesa saber si los centros del lenguaje están en uno u otro hemisferio. Este es el caso de enfermos con epilepsia que van a ser operados intentando preservar al máximo el habla y la memoria próxima. Para saberlo se utiliza el llamado test de Wada,  una inyección de barbitúricos que duerme selectivamente el cerebro derecho o el izquierdo, para así saber dónde se ubican los centros del lenguaje (en este vídeo se explica muy bien).

El test de Wada tiene sus riesgos y efectos no deseados (puede provocar desinhibición, entre otras cosas). Así que, si los resultados presentados en San Diego se confirman, para evitar el test de Wada y saber con qué cerebro hablamos no habría más que mirar si somos oyentes de izquierdas o de derechas.

Foto: Mr. Thomas / Flickr


El tamaño de los sonidos

Los sonidos /i/ y /e/ se asocian con objetos más pequeños que los sonidos /o/ y /a/

Son los sonidos –y no exactamente las palabras– lo que tiene significado para nosotros. Esta relación entre el sonido y el significado se nos antoja arbitraria, pero quizá no lo sea tanto. Diversos experimentos han descubierto en las últimas décadas asociaciones claras entre las propiedades físicas de los sonidos de las palabras y sus referentes.  Tanto en niños como en adultos, se ha observado que diferentes sonidos vocálicos se asocian con objetos romos o puntiagudos, grandes o pequeños, quietos o en movimiento.

Así, se ha comprobado en diferentes lenguas que las vocales anteriores, como i  y e, se suelen usar en morfemas diminutivos, y que la mayoría de las vocales posteriores, como o y a se usan en morfemas aumentativos. Es decir, los sonidos /i/ y /e/ se asocian con objetos más pequeños que los sonidos /o/ y /a/.

Pero la gran pregunta es si esta asociación sonido-significado tiene alguna base cerebral innata o hay que aprenderla. Los niños no aprenden palabras sino sonidos que tienen que categorizar y asociar con un concepto. ¿Y qué asociaciones hacen los niños muy pequeños al escuchar diferentes sonidos vocálicos?

Un reciente estudio realizado con 28 niños de cuatro meses, hijos de hispanohablantes, se propuso comprobarlo con un ingenioso experimento doble, debidamente controlado. Los niños, sentados en el regazo de sus padres, escuchaban diferentes monosílabos que contenían los sonidos /i/ y /o/ en un caso, y /e/ o /a/ en el otro, al tiempo que se les presentaba en una pantalla una pareja de objetos abstractos (cuadrados, círculos, triángulos) idénticos en todo excepto en su tamaño, y se hacía un seguimiento de su mirada.

Los resultados de esta investigación, dirigida por la psicolingüista chilena Marcela Peña y publicado en Psychological Science, muestran que los niños dirigen significativamente más a menudo su mirada hacia los objetos grandes cuando las sílabas contienen /o/ y /a/, mientras que la dirigen más hacia los objetos pequeños cuando las sílabas escuchadas contienen /i/ o /e/. Asimismo, los niños mantienen más tiempo fija la mirada en los objetos grandes al escuchar /o/ y /a/, y en los objetos pequeños al escuchar /i/ o /e/.

Con sólo cuatro meses, los niños ya parecen capaces de asociar lo que oyen con la noción de tamaño. El trabajo no resuelve si estas asociaciones reflejan o no un conocimiento previo (innato  o aprendido en los cuatro meses de vida de los bebés), pero pasa por ser el primero que ha estudiado esta cuestión en niños tan pequeños y añade nuevos datos para iluminar el misterio del desarrollo del lenguaje.

Foto: semarr / Flickr