La guerra está poniendo a prueba el verdadero poder de la inteligencia artificial (IA) y, de paso, los cimientos de la propia democracia. Se ha abierto un debate apasionante que bien podría equipararse al dilema ético que supuso la construcción de la bomba nuclear por el Proyecto Manhattan, desarrollado en el Laboratorio Nacional de Los Alamos bajo la dirección de Robert Oppenheimer. ¿Quién decide el buen uso de la tecnología: los directivos de una empresa, los científicos o el Gobierno de un país?
Palantir es una compañía tecnológica norteamericana, especializada en la gestión inteligente de información, en cuyo nacimiento fue clave el fondo de capital riesgo In-Q-Tel de la CIA de Estados Unidos. Tan pronto organiza la gestión de las ayudas a los afectados por la dana de Valencia como participa en la captura de Nicolás Maduro en Venezuela. Su valor ha subido meteóricamente en los últimos tres años hasta situarse en el entorno de los 360.000 millones de dólares.
En el Foro de Davos, su cofundador y CEO, Alex Karp, explicaba con frialdad de tecnólogo las diferentes estrategias que aplican los ejércitos para sacar el máximo partido de la IA. Ucrania, por ejemplo, “construye sobre nuestros productos soluciones que ni siquiera anticipamos”, gracias a que el sistema de Palantir está diseñado “para ser extendido, no solo utilizado”. En cambio, Estados Unidos plantea un reto diferente, necesita integrar profundamente sus “fuerzas masivas” entre “sistemas heterogéneos”.
“Mover un dron de A a B no es el problema”, añadía Karp, sino “sincronizar datos, protegerlos del adversario, definir quién puede tocarlos y orquestar todo eso sin romper la cadena de seguridad”. Uno de los grandes problemas actuales de muchas organizaciones sería, de hecho, su incapacidad para evaluar su propio nivel tecnológico, “saber dónde están”, afirmó. “Hay infraestructuras enteras que existen solo en un PowerPoint y desaparecen cuando se enfrentan al mundo real”.
Uno de los modelos de IA que ha utilizado Palantir en sus operaciones es Claude, creado por la también norteamericana Anthropic. La polémica ha surgido porque el Gobierno de Donald Trump la ha declarado como un riesgo para la cadena de suministro al negarse a levantar las restricciones a la vigilancia masiva y el uso de armas totalmente autónomas que introdujo en el contrato que firmó con el Pentágono en 2024. Esta controversia ha desatado un debate filosófico verdaderamente significativo.
Expertos del mundo académico y directivos están reflexionando en público sobre el papel de los gobiernos y las empresas privadas en sectores vinculados con nuestra supervivencia. ¿Podría aceptar la Administración que una compañía desarrollara una bomba nuclear? Es uno de los argumentos que se han esgrimido estos días.
La megaconstelación de satélites Starlink de Elon Musk está siendo tan decisiva para la marcha de la guerra de Ucrania como el despliegue de los drones y los lanzacohetes HIMARS. ¿Es concebible la toma de control de la compañía espacial del fundador de Tesla si no acata las órdenes del Ejército de EEUU? El Estado-nación ha se ha topado de bruces con sus propios límites.
En un brillante repaso a la polémica actual en Substack, el investigador de la London School of Economics Stefan Schubert cita un post en X del influyente inversor de capital riesgo Marc Andreessen: “escuchado por casualidad en Silicon Valley: ‘cada persona individual que estaba a favor del control gubernamental de la IA se opone ahora al control gubernamental de la IA’”.
Entre los conversos partidarios de la acción estatal, Ben Thompson, fundador de Stratechery, sostiene que Anthropic asume un poder que no debería tener: “¿Quién decide cuándo y de qué manera se utilizan las capacidades militares estadounidenses? Esa es responsabilidad del Departamento de Guerra, que en última instancia responde al presidente, que es elegido”.
El CEO de Anduril, Palmer Luckey, se pregunta: “¿crees en la democracia? ¿Debería nuestro ejército estar regulado por nuestros líderes electos o por ejecutivos corporativos?” Y Alex Karp ha terciado también, por supuesto del lado de Trump: “si no crees que eso va a llevar a la nacionalización de nuestra tecnología, eres un idiota”.
Ciertamente, en un clima de polarización como el actual, es razonable pensar que la posición que están adoptando muchos partidarios y detractores de Anthropic variaría si el usuario de la Casa Blanca fuera demócrata. Cuesta encontrar posiciones basadas en ideas de fondo. En su artículo, Schubert apunta con acidez que “este debate ha invertido en cierta medida los patrones estándar: la izquierda se pone del lado de una empresa privada y la derecha habla de control democrático”.
Pero no se trata de buscar deslices, sino de elevar el debate a la cuestión fundamental del monopolio del Estado-nación sobre el uso de la fuerza y, como extensión de esa prerrogativa, sobre la tecnología. Como ponen de manifiesto las palabras de Alex Park en Davos, la IA se ha convertido en una pieza fundamental del engranaje. Pero de ahí a equiparar que la construcción de un modelo inteligente con el entrenamiento de una milicia hay una distancia considerable.
Es en estos momentos cuando, desde algunas instancias, se pone en valor el empeño de Europa por regular el despliegue seguro de la IA. Hay opciones alternativas para los más reacios, como la oficina de seguridad de California, impulsada por el proyecto de ley SB 53 firmado en septiembre, que se diferencia del modelo de la UE en apuesta por controlar mediante la transparencia y rendición de cuentas (post-despliegue).
También la Revolución Industrial dio lugar a nuevas armas que estaban muy por encima de las capacidades conocidas por los sistemas de defensa de los Estados. Pero la solución no consistió en dar a los gobiernos el control absoluto, eso habría ralentizado a la tecnología, sino establecer controles y prohibir usos finales destructivos específicos.
El problema ahora es doble: no tenemos un siglo para reaccionar, porque en cuestión de años las empresas de IA podrán desarrollar capacidades descomunales; y estamos ante un fenómeno digital y, en cierto modo, intangible, fácil de escalar, con efectos de red. No es el momento de apriorismos ideológicos, sino de aprender a usar la inteligencia artificial sin renunciar a todo lo que la natural ha aportado a la convivencia.
