La gran transformación de la ciencia actual, según me explica el español Javier García, presidente de la Unión Química Internacional y emprendedor de éxito, consiste en que algunos de los grandes descubrimientos no los están haciendo (sólo) científicos, sino informáticos. Las máquinas pasaron el Test de Turing en 2018, son capaces de proponer rutas sintéticas indistinguibles de las de los mejores especialistas en química orgánica y el algoritmo AlphaFold 2, desarrollado por la empresa DeepMind, ha conseguido predecir el plegamiento de proteínas a partir de una sucesión de aminoácidos. A Javier García le habían dicho en sus tiempos universitarios que esto último resultaba sencillamente imposible.
La inteligencia artificial está abriendo un nuevo espacio para los descubrimientos asistidos por ordenador y su capacidad de procesamiento de información, en un mundo con sobreabundancia de publicaciones científicas, le permite a ‘leer’ cientos de miles de documentos diarios y marcar tendencias, anticipar, virtualizar y proponer mejores experimentos a sus ‘colegas’ humanos.
Es en este contexto en el que hay que situar el reciente anuncio de Meta, antes conocida como Facebook, de que “democratiza el acceso a modelos lingüísticos a gran escala con OPT-175B”, un modelo de lenguaje con 175.000 millones de parámetros entrenados a partir de conjuntos de datos de acceso público. Sus dimensiones son similares a las del sistema GPT-3 de OpenAI, un modelo para inteligencia artificial que asombra al mundo por su capacidad para redactar distintos tipos de texto con un nivel de calidad excepcional.
Pero OPT-175B aporta más, según Meta AI. Porque su lanzamiento incluye tanto los modelos preentrenados como el código necesario para entrenarlos y usarlos. Además, para mantener su integridad y evitar un mal uso, se distribuirá bajo una licencia no comercial y enfocado a casos de uso de investigación científica. De modo que sólo podrán beneficiarse, de momento, investigadores académicos, organizaciones gubernamentales y de la sociedad civil, así como laboratorios de investigación de la industria en todo el mundo. Es cuestión de tiempo, no obstante, que acabe adquiriendo voz propia en el Metaverso, claro.
La directora de investigación del Observatorio de Internet de Stanford, Renée DiResta, no ha necesitado enfrentarse a un modelo de lenguaje de 175.000 millones de parámetros para advertir de que, con un sistema capaz de producir ensayos a escala industrial, con una gramática perfecta y excelente coherencia, «el suministro de desinformación pronto será infinito», según reza el título de uno de sus ensayos. Y el psicólogo social Jonathan Haidt, no quiere ni pensar en qué sucederá cuando el programa de OpenAI se actualice a GPT-4.
Es llamativo ver cómo una misma herramienta puede capaz de producir tan excelsos niveles de veracidad y de engaño. Como el lenguaje natural. Lo que resulta ya incuestionable es que ese potro salvaje artificial tiene que ser domado, y hay dos ejercicios al menos que la sociedad debe promover para no ser devorada por una energía tan poderosa.
Uno es la promoción de la identidad digital: de la misma forma que los bancos y la Administración aplican severos mecanismos de “conoce a tu cliente” (know your customer, KYC) es esencial que en el futuro podamos saber, y las redes sociales nos ayuden también a hacerlo, si estamos interactuando con una persona o una máquina. El consorcio español Alastria es uno de los más avanzados del mundo, desde luego es el que más en Europa, en tecnología de identidad digital, por más que haya sido el Gobierno alemán el que haya arrebatado a nuestro país la iniciativa con la excusa del euro digital. Un tema que aún escuece.
El otro ejercicio debe ser la salvaguarda de la neutralidad informativa, base del liberalismo cultural (que no económico) sobre el que se han construido las instituciones democráticas contemporáneas. Aún resuena el reciente enfrentamiento entre el Gobierno de Boris Johnson en Reino Unido y la cúpula de la BBC a este respecto. Hoy más que nunca hay que reivindicar los valores de un conocimiento compartido sin considerar credos, razas, género u origen. La importancia de disponer de entes neutrales centrados únicamente en propiciar el acceso de todo el mundo a la mejor información.
La máquina sólo es capaz de generar conocimiento de calidad con muchísima información, esa es su grandeza y su debilidad. Las personas necesitamos muy poca información para conseguirlo, esa es la diferencia. Pero ésta debe ser buena.