Tecnología

Cómo la IA está transformando las investigaciones de seguridad del Pentágono

La Agencia de Seguridad y Contrainteligencia de Defensa, que concede autorizaciones de seguridad a millones de trabajadores estadounidenses, está utilizando IA para agilizar su trabajo. No se admiten «cajas negras», dice su director.

Daniel Slim/ Getty Images

Antes de permitir que sus más de 13.000 empleados del Pentágono busquen información sobre un ciudadano estadounidense, el director de la Agencia de Seguridad y Contrainteligencia de la Defensa (DCSA), David Cattler, les pide que se hagan una pregunta: ¿sabe mi madre que el Gobierno puede hacer esto?

La «prueba de la madre», como la llama Cattler, es una comprobación de sentido común sobre la forma en que la DCSA -una agencia de gran envergadura que concede y deniega autorizaciones de seguridad a millones de trabajadores- hace su trabajo. Y también es la forma en que Cattler piensa sobre el uso de la IA por parte de su agencia.

La DCSA es la agencia encargada de investigar y aprobar el 95% de las autorizaciones de seguridad de los empleados del gobierno federal, lo que le obliga a realizar millones de investigaciones al año. Esto da a la agencia acceso a un enorme tesoro de información privada, y en 2024, la DCSA recurrió a herramientas de IA para organizar e interpretar esos datos.

No se trata de ChatGPT, Bard, Claude u otros llamativos modelos generativos de IA. En su lugar, se están extrayendo y organizando datos de la forma en que las empresas tecnológicas de Silicon Valley lo han hecho durante años, utilizando sistemas que muestran su trabajo más claramente que la mayoría de los grandes modelos lingüísticos. Por ejemplo, según Cattler, el uso más prometedor de estas herramientas por parte de la Agencia es la priorización de las amenazas existentes.

Si no se utilizan con cuidado, estas herramientas podrían comprometer la seguridad de los datos e introducir sesgos en los sistemas gubernamentales. No obstante, Cattler se mostró optimista ante la posibilidad de que algunas de las funciones menos atractivas de la IA puedan cambiar las reglas del juego para la agencia, siempre que no sean «cajas negras».

«Tenemos que entender por qué es creíble y cómo hace lo que hace», dijo Cattler a Forbes. «Tenemos que demostrar, cuando utilicemos estas herramientas para los fines que estoy describiendo, que hacen lo que dicen que hacen y lo hacen de forma objetiva y lo hacen de una forma altamente conforme y coherente».

Puede que mucha gente ni siquiera piense que las herramientas que describe Cattler son IA. Le entusiasma la idea de crear un mapa de calor de las instalaciones protegidas por la DCSA, en el que los riesgos se representen en tiempo real y se actualicen cuando otros organismos públicos reciban nueva información sobre una amenaza potencial. Una herramienta así, dijo, podría ayudar a la DCSA a «determinar dónde poner los [metafóricos] camiones de bomberos». No se trataría de descubrir nueva información, sino de presentar la existente de una forma más útil.

Matthew Scherer, asesor principal de políticas del Centro para la Democracia y la Tecnología, dijo a Forbes que, aunque la IA puede ser útil para cotejar y organizar información que ya ha sido recopilada y validada, es el siguiente paso -tomar decisiones críticas, como señalar banderas rojas durante un proceso de comprobación de antecedentes o recopilar datos de perfiles de redes sociales- el que puede ser peligroso. Por ejemplo, los sistemas de IA siguen teniendo dificultades para diferenciar entre varias personas con el mismo nombre, lo que puede dar lugar a errores de identificación.

«Me preocuparía que el sistema de IA hiciera recomendaciones de algún tipo o pusiera el pulgar en la balanza para determinados solicitantes», afirma Scherer. «Entonces te estás moviendo en el reino de los sistemas de decisión automatizados».

Cattler dijo que el departamento se ha mantenido alejado del uso de la IA para identificar nuevos riesgos. Incluso en la priorización, sin embargo, pueden surgir problemas de privacidad y sesgo. Al contratar a empresas de IA (Cattler no quiso nombrar a ningún socio), la DCSA tiene que tener en cuenta qué datos privados introduce en algoritmos patentados y qué pueden hacer esos algoritmos con los datos una vez que los tienen. Las empresas que ofrecen productos de IA al público en general han filtrado inadvertidamente datos privados que los clientes les confiaron, un abuso de confianza que sería catastrófico si ocurriera con datos en poder del propio Pentágono.

La IA también podría introducir sesgos en los sistemas del Departamento de Defensa. Los algoritmos reflejan los puntos ciegos de las personas que los crean y los datos con los que se entrenan, y el DCSA depende de la supervisión de la Casa Blanca, el Congreso y otros órganos administrativos para protegerse contra los prejuicios en sus sistemas. Un informe de 2022 de la RAND Corporation advertía explícitamente de que la IA podría introducir prejuicios en el sistema de investigación de autorizaciones de seguridad «potencialmente como resultado de los prejuicios de los programadores o de diferencias raciales históricas».

Cattler reconoció que los valores sociales que informan los algoritmos, incluidos los del Pentágono, cambian con el tiempo. Hoy en día, dijo, el departamento es mucho menos tolerante con las opiniones extremistas de lo que solía ser, pero algo más tolerante con las personas que una vez fueron adictas al alcohol o las drogas, y ahora están en recuperación. «Hasta no hace mucho, ser homosexual era literalmente ilegal en muchos lugares de Estados Unidos», afirma. «Ese era un sesgo que el sistema quizá necesitaba eliminar por sí mismo».

Artículos relacionados