“Si no lo veo, no lo creo”, “Una imagen vale más que mil palabras”… y expresiones similares carecen de sentido en el año 2023, porque la verdad ya no la certifica el sentido de la vista, ni el oído, ni nuestro cerebro en general. Hace pocos días, una foto de la detención del expresidente de Estados Unidos, Donald Trump, generó inquietud y exacerbó a las masas hasta que se descubrió que era falsa.
Un cóctel de manos expertas, software adecuado y el progreso de la Inteligencia Artificial (AI) permite recrear, incluso en vídeo, cualquier situación y mucho más fácil resulta si el “prota” es un personaje popular con abundancia de documentos audiovisuales sobre su persona. Las redes sociales y los servicios de mensajería instantánea son las autopistas para que un bulo visual, una ultrafalsificación o deepfake, un montaje sofisticado o como queramos llamarlo se distribuya de forma masiva.
También es cierto que, cada vez con más agilidad, se desvela el engaño a las pocas horas, pero las mentiras, la manipulación y la crispación han sido el combustible de las grandes guerras, las revoluciones más sangrientas o incluso los magnicidios. El español medio pudo comprobar el poder de estas recreaciones con famosos gracias al anuncio de una conocida -y muy valorada sólo en el sur de España- marca de cerveza a la que le dio por “resucitar” a una artista como Lola Flores. Contra su voluntad, otras personas relevantes, como actrices o cantantes, han visto cómo su rostro se fundía con otros cuerpos en escenas pornográficas que deleitaban a sus fans más lascivos. No obstante, ser famoso conlleva algunos inconvenientes como que te sigan los paparazzi, que intenten hundir tu reputación con mentiras o verdades o, por ejemplo, intentar secuestrarte. Eso va en el sueldo. Pero, ¿qué ocurrirá si las falsificaciones ultrarrealistas se expanden a los ciudadanos corrientes?
El software para realizar montajes muy dignos está al alcance de la mano. Dejamos mucho rastro en las redes como para que una máquina pueda imitar sin problemas nuestra voz o poner la cara en otro cuerpo. Casi sin pensar, vienen a la mente todo tipo de usos perversos a los que podemos estar expuestos. Por ejemplo, pueden dinamitar tu relación enviando a tu pareja unas imágenes con otra persona en actitud comprometida. Aunque, por otra parte, a la vez nace la excusa universal -siempre que no te pillen “in fraganti”, claro- de que esas pruebas han sido creadas por ordenador. Pensemos también en posibles videollamadas de un familiar o un compañero de trabajo que no sea más que una recreación de esa persona. Cuando tenemos una reunión virtual por una plataforma tipo Teams, Zoom o Meet la seminitidez de las imágenes, los desenfoques del fondo o esos horribles “photocall” corporativos invitan a pensar que no sería tan complicado “colar” un personaje recreado con “deepfake” y obtener así valiosa información corporativa y personal. Las amantes rusas o los que te cuentan en un email que te ha tocado la lotería de Navidad pueden tener más éxito en sus timos virtuales. O imaginemos llamadas de un falso gestor personal del banco…
A lo mejor hay que volver a quedar en persona, mirar a los ojos al interlocutor, tocarle, pellizcarle sus mejillas como haría una abuela de las de antes para cerciorarnos de que no lleva una máscara. La tecnología nos lleva por muchos caminos interesantes, facilita nuestra vida, todo cambia, pero a la vez, y por desgracia, vivimos también el otoño de las certezas.