«Entrevistamos ahora al único superviviente del reciente tiroteo en una escuela: la TikToker Krishna Sahay», parece decir la presentadora de CBS News, Anne-Marie Green, al principio del segmento informativo.
«Eso debió de ser absolutamente traumatizante», le dice a Sahay un entrevistador en otro vídeo. «¿Qué pasaba por la cabeza de todos?».
Sahay hace una pausa, antes de responder: «¡Balas, uh!»
En otro aparente momento de las noticias sobre el tiroteo en la escuela, esta vez de la CNN, un entrevistador pregunta a Sahay: «¿Cómo lo viviste? ¿Estabas leyendo una revista durante el tiroteo?».
La estrella de TikTok y YouTube se encuentra entre una creciente cosecha de usuarios en redes sociales que han estado recurriendo a la IA generativa y a otros programas informáticos para producir fragmentos de noticias aparentemente reales de los principales presentadores de los principales medios de noticias, desde Norah O’Donnell, de CBS Evening News, a periodistas de la CNN, la BBC y otros. Gracias a la tecnología, los presentadores parecen y suenan como ellos mismos. Y gracias a los potentes algoritmos de las plataformas, las historias sensacionalistas y los titulares falsos que llevan sus nombres y su imagen (o el logotipo de un medio de noticias) se hacen virales bajo la apariencia de ser noticias fidedignas.
Esta semana, un vídeo real de la corresponsal de la CNN Clarissa Ward poniéndose a cubierto de los cohetes cerca de la frontera entre Israel y Gaza se hizo viral con un audio falso que socavaba su reportaje. A principios de este mes, circuló por Internet un clip generado por inteligencia artificial de la copresentadora de CBS This Morning, Gayle King, promocionando un producto que nunca había utilizado o del que ni siquiera había oído hablar. Un deepfake del presentador de la CNN Anderson Cooper, afirmando que el ex presidente Donald Trump nos estaba «partiendo la cara», también se hizo viral recientemente después de que Trump y su hijo lo compartieran en Truth Social y Twitter. Y los supuestos noticiarios de Sahay –que le ayudaron a amasar una audiencia de millones de personas– han incluido a más de una docena de destacados presentadores de diversas cadenas de televisión que emiten comentarios problemáticos y entrevistan al creador mientras éste se burla de los tiroteos en las escuelas, de los atentados terroristas del 11 de septiembre, de las víctimas de violaciones y de otras personas perjudicadas por delincuentes.
En muchos casos, estos fragmentos inventados protagonizados por presentadores de la vida real están atrayendo más miradas que los clips legítimos publicados en las cuentas de redes sociales de las organizaciones de noticias. Uno de los recientes deepfakes de Sahay sobre Margaret Brennan, de Face The Nation, por ejemplo, obtuvo más de 300.000 me gusta en TikTok, mientras que el vídeo más popular publicado el mismo día en la cuenta oficial de TikTok de Face The Nation sólo obtuvo 7.000 me gusta. Sahay fue expulsado de TikTok mientras Forbes informaba de esta historia y no respondió a las múltiples peticiones de comentarios y a una lista detallada de preguntas. Aunque su cuenta de TikTok está ahora inactiva, los vídeos de gran alcance de Sahay siguen siendo fáciles de encontrar en la plataforma, reenviados por otros usuarios, y varios de ellos siguen en directo en YouTube.
La mayoría de las grandes plataformas de medios sociales dominantes tienen políticas contra los deepfakes. La portavoz de TikTok, Ariane Selliers, dijo que «TikTok exige a los creadores que etiqueten el contenido realista generado por IA», ya sea con una pegatina o en un pie de foto, y que TikTok «sigue eliminando el contenido que pueda inducir a error o suplantar la identidad de las personas». (La mayoría de los vídeos de Sahay no incluían ninguna cláusula de exención de responsabilidad de este tipo.)
TikTok prohíbe los deepfakes que contengan el parecido de personas privadas y «aunque proporcionamos más latitud a las figuras públicas, no queremos que sean objeto de abusos, ni que se engañe a la gente sobre cuestiones políticas o financieras», afirma la empresa en su reglamento. La portavoz de YouTube, Elena Hernández, dijo que «tenemos desde hace tiempo políticas de desinformación para prohibir contenidos que hayan sido técnicamente manipulados o trucados de forma que supongan un grave riesgo de daño atroz».
La portavoz de la CNN, Emily Kuhn, declinó hacer comentarios sobre los fragmentos de noticias deepfake, pero dijo que el audio manipulado en el clip de la corresponsal de la CNN cerca de la frontera entre Israel y Gaza «es fabricado, inexacto y distorsiona irresponsablemente la realidad del momento que fue cubierto en directo por la CNN, que la gente debería ver íntegramente por sí misma en una plataforma de confianza». O’Donnell, la presentadora de la CBS, no respondió inmediatamente a una petición de comentarios, pero la portavoz de CBS News, April Andrews, dijo que «la CBS se toma muy en serio sus derechos de propiedad intelectual». La portavoz de la BBC, Robin Miller, dijo que «cada vez que tenemos conocimiento de un vídeo deepfake, nuestros abogados toman medidas» y que «en un mundo de creciente desinformación, instamos a todos a comprobar los enlaces y las URL para asegurarse de que están recibiendo noticias de una fuente de confianza.»
Una nueva era para los deepfakes
Los deepfakes, y los «cheapfakes» de bajo presupuesto no son nuevos, y sólo este mes se han utilizado para atacar a todo el mundo, desde Tom Hanks (cuyo doble de IA promocionaba un plan dental) hasta el principal creador de YouTube, MrBeast (que parecía estar organizando «el mayor sorteo de iPhone 15 del mundo»). «¿Están preparadas las plataformas de medios sociales para manejar el auge de los deepfakes de IA?». MrBeast, cuyo verdadero nombre es Jimmy Donaldson, advirtió la semana pasada en Twitter. «Es un problema grave». La Junta de Supervisión de Facebook también anunció esta semana un caso relacionado con un vídeo manipulado del presidente Joe Biden.
Pero los noticiarios manipulados que se basan en las voces y los rostros de periodistas de alto perfil parecen ser una táctica más reciente y potencialmente más peligrosa. A principios de este año, la empresa de análisis de medios sociales Graphika publicó una investigación sobre «una forma nueva y distintiva de contenido de vídeo» que había encontrado en Facebook, Twitter y YouTube: Presentadores de noticias generados por IA que formaban parte de «una operación de spam político prochino». (Los medios estatales chinos también han experimentado con presentadores de noticias generados por IA.) Y los vídeos deepfake más largos y de mayor producción, como algunos de los segmentos de noticias de Sahay, siguen ganando adeptos en todas las plataformas.
«Los vídeos de presentadores de noticias son un vehículo convincente para difundir desinformación», afirma Hany Farid, profesor de la Escuela de Información de la Universidad de Berkeley que ha testificado ante el Congreso sobre deepfakes. «En muchos casos, los telespectadores conocen a los presentadores y confían en ellos, e incluso si no es así, el formato general de las noticias les resulta familiar y, por tanto, más fiable«.
«Los resultados, aunque todavía no son perfectos, son muy buenos, sobre todo cuando se ven en un dispositivo móvil y cuando los espectadores se mueven rápidamente por las redes sociales», añadió Farid, cuyas investigaciones se han centrado en la percepción humana y el análisis de imágenes. «Vamos a tener que tomarnos más en serio la protección de los derechos de las personas cuya imagen y voz están siendo cooptadas».
Los deepfakes suelen desplegarse en memes para hacer reír a la gente, y el escenario más extremo –que este contenido manipulado pudiera utilizarse para difundir información errónea o desinformación destinada a cambiar el curso de las elecciones, las OPV de las empresas y otros acontecimientos de alto riesgo– no ha llegado a producirse. Pero las elecciones de 2020 se adelantaron notablemente a la explosión de la IA iniciada por ChatGPT, que a principios de este año se convirtió en una de las aplicaciones de consumo de más rápido crecimiento de la historia y ha contribuido a la adopción generalizada de la tecnología y a la financiación de miles de millones a startups de IA.
Ahora, casi cualquiera puede emplear un software de IA fácil de usar y de fácil acceso para hacer vídeos o audios de figuras públicas (o de gente corriente) haciendo y diciendo cosas que en realidad nunca hicieron. Esto ha aumentado los temores de que la IA transforme las inminentes elecciones de 2024 en un caótico Salvaje Oeste, una preocupación sólo intensificada por el aumento de los deepfakes que se convierten en armas como noticias aparentemente auténticas.
La mayor preocupación, según el abogado Kevin Goldberg, especialista en la Primera Enmienda de la organización sin ánimo de lucro Freedom Forum, con sede en Washington DC, es que los vídeos que utilizan presentadores de noticias reales en situaciones de apariencia realista puedan utilizarse como una «forma agresiva de desinformación… una preocupación real con la que vamos a tener que lidiar de cara a las elecciones de 2024». Pero advirtió que «tampoco queremos exagerar».
«Sí, aquí hay potencial para hacer travesuras», dijo a Forbes. «Pero nuestro sistema legal, y nuestra sociedad, están más que bien equipados para manejar este nuevo medio».