Opinión Eugenio Mallol

Por qué a Chomsky no le va cierta inteligencia artificial

Noam Chomsky cree que el proceso que se está siguiendo en el caso de sistemas como el GPT-3 y el DALL-E son sólo logros de la ingeniería, “como el telescopio”, pero no producen ciencia.

Para entender por qué el padre de la lingüística moderna Noam Chomsky titula su charla en el reciente Web Summit de Lisboa “Desacreditando la mentira de la inteligencia artificial” (y bravo por este intelectual capaz de conseguir a sus 94 años uno de los grandes llenos de público del evento) hay que levantar el velo de susceptibilidades que separa a la ciencia de la ingeniería. Un software no estaría dotado para esa clase de sutilezas.

El físico español Pablo Jarillo, que investiga materiales cuánticos en el MIT con especial atención al grafeno, me lo explica así: “Gente como yo nos ocupamos de encontrar ciertos materiales cuyas propiedades intrínsecas fundamentales sean especiales y permitan hacer cosas que antes no imaginábamos”.

Pero una vez desarrollan ese conocimiento básico, “se lo pasamos a nuestros amigos los ingenieros y a veces te dicen: ‘es superbonito desde el punto de la física, pero ahí se queda, para los libros de texto, porque no podemos hacer tecnología’”. En ocasiones, ese conocimiento “permanece dormido durante unas décadas hasta que aparece una tecnología que te permite hacer lo que antes no podías”.

Noam Chomsky cree que el proceso que se está siguiendo en el caso de sistemas como el GPT-3, que es capaz de generar textos con apariencia humana, y del DALL-E, que crea imágenes a partir de una breve descripción escrita, ambos de Openai, es el inverso. Son sólo logros de la ingeniería, “como el telescopio”, pero no producen ciencia. Ese engaño merece ser desacreditado, en su opinión.

Está “bien hacer cosas útiles”, y bromea con el hecho de que ha podido seguir la conversación de sus interlocutores gracias a un sistema artificial de transcripción. Los enfoques del deep learning, una de las variantes de la IA, ayudan en ámbitos como el plegamiento de proteínas, gracias a la computación masiva que hay detrás. De eso no hay duda. “Pero la ciencia tiene preocupaciones distintas, intenta comprender cómo es el mundo, no cómo puedo hacer algo útil”.

Una de las propiedades fundamentales del lenguaje es que “las reglas clave no ignoran lo que compone a las palabras”, afirma. Estos sistemas de IA manejan un “lenguaje imposible”. Creemos que podemos resolverlo “porque tenemos billones de programadores, pero cuando un sistema es demasiado fuerte, es irreparable”.

La IA “puede detectar con precisión regularidades, manejar astronómicas cantidades de datos y producir algo que parezca inteligente, pero puede hacer exactamente lo mismo e incluso mejor a menudo con datos que violan todos los principios del lenguaje y la misión del código”. Sistemas como GPT-3 “no nos enseñan nada”, afirma Chomsky. “Lo que veo es básicamente una forma de gastar un montón de energía en California”.

No reniega de la IA. Sí a su contribución a la ciencia cognitiva; no a “estos juguetes del lenguaje para tratar de impresionar a los ámbitos informados por la ciencia”. 

Acompaña a Chomsky en el escenario central el profesor de la Universidad de Nueva York Gary Marcus quien incide en que “una de las aportaciones de los lenguajes es que ponemos en común significados que pertenecen a diferentes órdenes del mundo”, y eso no sucede en los grandes sistemas de generación de texto e imágenes basados en IA.

En lugar de ello, “lo único que hacen es pasar datos perpetuamente”. Pueden ser sexistas o racistas, no porque hayan sido construidos así, sino porque copian datos producidos de ese modo. “Pueden estar mintiendo continuamente, sin intención obviamente, ni maldad, y el coste que eso puede tener es realmente devastador para las democracias”. El peligro es que la gente crea que no necesita comprender el significado porque dispone de un montón de datos.

Gary Marcus predice que en 2023 viviremos el primer año en el que se producirá una muerte atribuible a uno de estos sistemas. Proclama que, como sucede con la función de autocompletar del móvil, que predice la siguiente palabra, el GPT-3 es un “autocompletar con esteroides”. Lo veremos muy presente el próximo año porque “estos sistemas se distribuirán ampliamente y de forma barata”.

No resultará fácil conciliar a la lingüística, en fin, con el anuncio de “una nueva era de la investigación científica” con ayuda de la IA, formulado en ese mismo foro por Colin Murdoch, de DeepMind. Intuyo que lo que repele a un genio de las humanidades como Chomsky entusiasma a científicos del mundo de la química, la física o las matemáticas. El halo de las palabras refulge con distinta intensidad cuando éstas excitan recuerdos o átomos.

Artículos relacionados