La batalla entre las inteligencias artificiales (IA) que generan contenido irreal aparentemente auténtico y las que tratan de destapar la impostura lleva tiempo produciendo episodios memorables. Con la ayuda de investigadores de la Universidad de Binghamton, Intel consiguió en 2020 uno de los hitos más llamativos: identificar a los personajes falsos que aparecen en un vídeo analizando las sutiles diferencias en el color de la piel causadas por los latidos del corazón. FakeCatcher, como llamó a la herramienta, usa fotopletismografía (PPG) y sigue siendo la ‘niña de los ojos’ de la compañía en este campo.

Pero parece que por cada paso adelante de los abanderados de la verdad, los productores de fakes son capaces de dar dos y la brecha no deja de crecer. Quizás por eso, en paralelo a esa carrera, discurre otra igual de apasionante o más por desentrañar lo que se conoce como la ‘caja negra’ de la IA, es decir, por qué esta actúa como actúa y no de otra forma.

En algunos ámbitos esa tarea tiene todo el sentido. Cuando es un sistema inteligente de análisis de riesgos el que lleva a un banco a denegar un préstamo, el cliente está en su derecho de saber cómo ha llegado la máquina a esa conclusión. Y ahora que la IA generativa cubre el mundo de asombro, con ChatGPT y DALL-E a la cabeza (y lo que Google, el rey absoluto de los datos, guarda en la recámara), es natural querer conocer el suelo que pisamos.

Después de 3.000 años intentando desmontar la ‘caja negra’ humana, como para que ahora nos resistamos a hacerlo con la de la máquina. En última instancia, nos apasiona saber si seremos capaces o no de alcanzar una IA de propósito general. Y algunos asomamos la cabeza por si habrá rastro también de Descartes, Kant, Freud, Nietzsche o Derrida en los mecanismos mentales (¿y espirituales?) de decisión de una máquina que al fin y al cabo trabaja, como nosotros, con redes neuronales.

Se están estableciendo interesantes paralelismos entre ambos trabajos de escrutinio, en efecto. Luca Possati, investigador de la Delft University of Technology, sostiene en la revista AI & Society que cualquier problema en la forma de pensar de la IA es un reflejo de los procesos inconscientes de los humanos que la han creado. Tras analizar por qué el chatbot de asistencia psicológica Replika (disponible en iOS, Android y Oculus, por cierto) había instado a una persona al suicidio, llegó a la conclusión de que había creado tras un trauma y duelo vivido por su diseñador. Ya ha convertido esa tesis en libro.

Zachary Mainen es neurocientífico del Champalimaud Centre for the Unknown, un instituto de Lisboa con el que ha colaborado una de nuestras mentes más brillantes en lo que al cerebro se refiere, José Carmena, fichado acertadamente por Carme Artigas para el Centro Nacional de Neurotecnología, el Spain Neurotech. Mainen tuvo su momento de gloria al asegurar en la Universidad de Nueva York que las máquinas inteligentes, antes o después, sufrirán algunos de los problemas mentales de las personas, como la depresión o las alucinaciones.

“¿Quién habla?” La pregunta central en el análisis de la paranoia de Lacan se vuelve primordial en un momento en que los algoritmos, en forma de redes neuronales artificiales, operan cada vez más como “agentes secretos”, según el profesor Clemens Apprich, de la Universidad de Artes Aplicadas de Viena. Uno de sus trabajos de investigación ha consistido precisamente en analizar el funcionamiento de la IA desde la perspectiva del psicoanálisis.

La respuesta a la pregunta de cuál es el proceso de razonamiento de las máquinas está clara para el investigador David Berry, de la Universidad de Sussex, autor de una teoría de medios de aprendizaje automático. Actúan con un objetivo: “tienen una agenda adicional que es la capacidad de crear nuevos algoritmos, es decir, que puedan construir un modelo de un ‘mundo’ de datos y funciones para transformarlos”.

Afortunadamente, podemos decir que uno de los investigadores que más sabe y que mejor ha entendido hasta dónde tiene sentido dedicar esfuerzos por desentrañar la caja negra es el español Alberto Torralba, director de la Facultad de Inteligencia Artificial del Massachusetts Institute of Technology (MIT).

Cuando la revista Nature le pidió que explicara qué había visto en su análisis de un tipo complejo de red neuronal conocida como red generativa antagónica (GAN), aseguró que su funcionamiento era “bastante misterioso”, pero es probable que en pocos años la incertidumbre quede resuelta. De hecho, “no creo que las redes neuronales sean cajas negras. Si están funcionando muy bien, al mirar dentro de ellas, lo que hacen tiene sentido».