Encontrar una foto de un soldado ruso muerto en las redes sociales. Subirla al software de reconocimiento facial. Obtener una coincidencia de identidad de una base de datos de miles de millones de imágenes de las redes sociales. Identificar a los familiares y amigos del difunto. Mostrarles lo que le sucedió a la víctima de la guerra de Putin. Esta es una de las estrategias de Ucrania para tratar de informar a los rusos, que tienen un acceso limitado a los medios de comunicación y la información que no controla el Estado, sobre la muerte de sus soldados en la guerra iniciada por su presidente.
El miércoles, el viceprimer ministro y jefe del Ministerio de Transformación Digital de Ucrania, Mykhailo Fedorov, confirmó en su perfil de Telegram que la tecnología de vigilancia se estaba utilizando de esta forma, pocas semanas después de que Clearview AI, el proveedor de reconocimiento facial con sede en Nueva York, comenzara a ofrecer sus servicios a Ucrania para esos mismos fines. Fedorov no dijo qué marca de inteligencia artificial es la que se está usando con este fin, pero su departamento luego confirmó a FORBES que era Clearview AI, que proporciona su software de forma gratuita.
Tendrán buenas posibilidades de obtener algunas coincidencias: en una entrevista con Reuters a principios de este mes, el director ejecutivo de Clearview, Hoan Ton-That, dijo que la compañía tenía una reserva de 10.000 millones de rostros de usuarios extraídos de las redes sociales, incluidos 2.000 millones de la alternativa rusa de Facebook, Vkontakte. Fedorov escribió en una publicación de Telegram que el objetivo final era «disipar el mito de una ‘operación especial’ en la que ‘no hay reclutas’ y ‘nadie muere».
Hace apenas un mes, Clearview AI y el reconocimiento facial fueron objeto de fuertes críticas. Los legisladores de EE UU denunciaron su uso por parte del gobierno federal y dijeron que la tecnología se dirigía desproporcionadamente a las etnias negra, morena y asiática y las emparejaba falsamente con más frecuencia en comparación con las personas blancas. También denunciaron la amenaza existencial a la privacidad que representaba el software. Las organizaciones de derechos civiles como la Unión Estadounidense de Libertades Civiles no creen que la tecnología deba usarse en ningún entorno y piden prohibiciones absolutas.
El caso de uso en Ucrania, por supuesto, es muy diferente de los que normalmente se ven en EE UU, que intentan identificar a los sospechosos de delitos. Identificar a los soldados rusos muertos podría ser más aceptable, si el objetivo final es que la gente sepa que sus seres queridos han muerto como resultado del belicismo de su líder. Sin mencionar que los muertos no tienen derecho a la privacidad —al menos no de acuerdo con la ley de EE UU—. Es una de las razones por las que la policía puede desbloquear iPhones u otros dispositivos inteligentes de los fallecidos sosteniéndolos frente a sus rostros. Pero, ¿deberían los defensores de la privacidad preocuparse por el uso del reconocimiento facial en tiempos de guerra, cuando podría legitimar el uso de la tecnología en otros escenarios donde la privacidad de los vivos está amenazada?
Ucrania cree que es necesario identificar a los soldados rusos muertos, ya que hay mucha controversia sobre el número de militares fallecidos. La semana pasada, un periódico ruso publicó y posteriormente eliminó un informe que afirmaba que casi 10.000 soldados rusos habían muerto desde que comenzó la invasión, muchos más de los que se habían informado anteriormente. Más tarde, el tabloide afirmó que había sido pirateado y que las cifras no eran correctas. Ucrania cree que Rusia miente a sus ciudadanos sobre el número de muertos.
Albert Fox Cahn, fundador del Proyecto de Supervisión de Tecnología de Vigilancia, opina que la introducción del reconocimiento facial en la guerra podría ser desastrosa, incluso si Ucrania lo está utilizando para decir la verdad a los ciudadanos rusos. “Esta es una catástrofe de derechos humanos en ciernes. Cuando el reconocimiento facial comete errores en tiempos de paz, las personas son arrestadas por error. Cuando el reconocimiento facial comete errores en una zona de guerra, le disparan a personas inocentes”, dijo a Forbes.
“Me aterroriza pensar cuántos refugiados serán detenidos por error y disparados en los puntos de control debido a un error de reconocimiento facial. Deberíamos apoyar al pueblo ucraniano con las defensas aéreas y el equipo militar que solicita, no convirtiendo esta guerra desgarradora en un lugar para la promoción de productos”.
También se ha demostrado que el reconocimiento facial es falible, ya que hace coincidir falsamente las imágenes de los rostros de las personas con la identidad incorrecta. En EE UU, esto le ha sucedido al menos tres veces a personas negras, que fueron arrestadas por error porque su rostro coincidía erróneamente con las imágenes de las cámaras de vigilancia. Como señala Cahn, «cuando el reconocimiento facial inevitablemente identifica erróneamente a los muertos, significará angustia para los vivos».
Sobre las preocupaciones sobre el uso de su tecnología, Hoan Ton-That, CEO de Clearview AI, dijo: «Las zonas de guerra pueden ser peligrosas cuando no hay forma de distinguir a los combatientes enemigos de los civiles. La tecnología de reconocimiento facial puede ayudar a reducir la incertidumbre y aumentar la seguridad en estas situaciones». Según él, las pruebas financiadas por el gobierno de EE UU han demostrado que Clearview «puede elegir la cara correcta de una lista de más de 12 millones de fotos con una tasa de precisión del 99,85%». Esa precisión «evitará que ocurran identificaciones erróneas en el campo».
«Los funcionarios ucranianos que han recibido acceso a Clearview AI han expresado su entusiasmo y esperamos saber más de ellos. Nos aseguramos de que cada persona con acceso a la herramienta esté capacitada sobre cómo usarla de manera segura y responsable«, asegura.
Cualquiera que sea la moral en juego, el uso del reconocimiento facial en esta guerra es notable en su uso como herramienta en la guerra de propaganda. O como diría Ucrania, la guerra por la verdad. Ni siquiera Fedorov pensaba que usaría la tecnología para esto antes de la invasión: «Todos hemos cambiado. Empezamos a hacer cosas que ni siquiera podíamos imaginar hace un mes».