Opinión Eugenio Mallol

Barandillas y bóvedas para la IA

La experiencia de H&M Group es que la agradable textura sonora de su asistente de voz, 'Mauricio', está llevando a muchos de sus clientes a confesarle cada vez más información sobre sí mismos.
Foto: Yolanda Suen/Unsplash

Una de las primeras voces que se levantó para advertir del riesgo de confiar nuestros datos a los sistemas de inteligencia artificial generativa basados en el procesamiento de lenguaje natural (PNL) fue la de la directora de IA y datos responsables del grupo textil H&M Group, Linda Leopold. Siempre el retail por delante.

En el AI Summit de Londres, compartía protagonismo con entidades que, en otras circunstancias, nunca asociaríamos a la corporación sueca, como la OTAN, AstraZeneca, el Banco de Inglaterra, IBM o el Ministerio de Defensa de Reino Unido.

La experiencia del grupo textil es que la agradable textura sonora de su asistente de voz, Mauricio, está llevando a muchos de sus clientes a confesarle cada vez más información sobre sí mismos, “sobre la vida, el amor, la lujuria. La gente está compartiendo sus secretos más íntimos”, advierte Linda Leopold. Y muchos de los usuarios online de H&M son adolescentes.

Lo que puede pasar por la cabeza de un CEO si descubre que son empleados de su organización los que bajan la guardia. Era cuestión de tiempo que el hype desencadenado por OpenAI y su ChatGPT provocara una movilización de energía innovadora (e inversora, por qué no decirlo) para diseñar las infraestructuras y el paisaje del Nuevo Mundo. Pero el fenómeno cambia de rostro casi cada semana. ¿Quieres emprender en el lado adecuado? Diseña sistemas de entrenamiento y de gobernanza.

La atención se ha desviado hacia los mecanismos para mantener a raya a la IA, de modo que no se convierta en una fuente de indiscreciones en el ámbito laboral. Compañías como Samsung o Apple han comunicado que restringen el intercambio de información de sus empleados con los sistemas artificiales.

Los modelos de lenguaje extenso (LLM) como GPT se han entrenado con información pública, y ofrecen muchas prestaciones gracias a ello, pero lo verdaderamente tentador es integrarlos en los flujos de trabajo de las empresas. Para ello, resulta necesario que se entrenen con información privada, en ocasiones confidencial. Es entonces cuando aparece el fantasma de Mauricio.

Nvidia ha lanzado un set de herramientas de código abierto llamado NeMo Guardrails (podría traducirse por “barandillas”) para evitar que los sistemas de inteligencia artificial basados en LLM se desvíen hacia áreas inconvenientes, compartan información con aplicaciones externas de terceros indeseadas y verifiquen información.

Desde Palo Alto, la empresa SkyFlow invita a instalarse lo que llama una “bóveda de seguridad” que cubre todo el ciclo de vida de los datos en sistemas de IA, desde la captación hasta el procesamiento y aplicación. Utiliza para ello una técnica de cifrado polimórfico con patente propia.

Otros optan por echar más madera a la hoguera. Desde hace unas semanas se ha desatado una fiebre por crear sistemas que automatizan la actividad de GPT-4, es decir, que le permiten hacer tareas en tu nombre, para quitarte trabajo. En los repositorios de código abierto es posible descargarse ya propuestas como la de BabyAGI de Mini Yohei, pioneros en este campo, pero también Auto-GPT de Significant Gravitas y JARVIS de la mismísima Microsoft.

No quiero ni imaginar los desvelos de los responsables de las organizaciones si a todo esto le añadimos el componente gráfico. Para reinventar el diseño de moda, por ejemplo, un grupo de investigadores italianos proponen una técnica llamada “edición de imágenes de moda condicionada multimodal”, que utiliza la tecnología de difusión que hemos conocido con sistemas de AI como DALL-E para generar alternativas de una prenda siguiendo indicaciones multimodales, como texto, poses del cuerpo humano y bocetos.

La IA extrae elementos de fotos y genera imágenes situándolos en contextos distintos, como hacen DreamBooth y Meta con su Segment Anything Model (SAM). Y LLaVA te permite ya chatear con un sistema inteligente acerca del contenido de una imagen. ¿Dónde está este edificio? Le pregunto. “En Otawa, Canadá”, me responde. Bingo.

La clave de la IA está en el entrenamiento y también ahí reside una de sus fuentes de vulnerabilidad. En los últimos cuatro años, el tamaño de los parámetros de los modelos de lenguaje basados en IA ha crecido casi 2.000 veces: de alrededor de 100 millones de parámetros a casi 200.000 millones.

Justo antes del estallido del fenómeno GPT, el director de Google Cloud AI, Andrew Moore, había dicho en su comparecencia ante el Senado de EEUU que defender los sistemas de IA es “absolutamente el lugar donde se libra la batalla en este momento”. Un par de meses después, el Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown y el Centro de Política Cibernética de Stanford convocaron un taller de expertos para abordar estas preguntas. El informe acaba de publicarse. Simplemente no ha dado tiempo para prepararse.

Artículos relacionados