«Ahora estamos entrevistando al único superviviente del reciente tiroteo en la escuela: TikToker Krishna Sahay”, parece decir la presentadora de CBS News Anne-Marie Green en la parte superior del programa de noticias.
“Eso debe haber sido absolutamente traumatizante”, le dice a Sahay un entrevistador en otro vídeo. “¿Qué pasaba por la cabeza de todos?”
Sahay hace una pausa antes de responder: “¡Balas, claro!”
En otro aparente programa de noticias sobre el tiroteo en la escuela, esta vez de CNN, un entrevistador le pregunta a Sahay: “¿Cómo viviste eso? ¿Estabas leyendo una revista o algo así durante el tiroteo?».
«¿Lectura?» Sahay responde sobre la revista. «¡Estaba vaciando uno!».
La estrella de TikTok y YouTube se encuentra entre un creciente grupo de usuarios de redes sociales que han estado reclutando inteligencia artificial generativa y otro software para producir programas de noticias aparentemente reales de los principales presentadores de los principales medios de noticias, desde Norah O’Donnell de CBS Evening News hasta periodistas de CNN, la BBC y más allá. Gracias a la tecnología, los presentadoros lucen y suenan como ellos mismos. Y gracias a los poderosos algoritmos de las plataformas, las historias sensacionalistas y los titulares falsos que llevan sus nombres y semejanzas (o el logotipo de un medio de comunicación) se están volviendo virales con el pretexto de ser noticias autorizadas.
Esta semana, un video real de la corresponsal de CNN Clarissa Ward agachándose para protegerse de los cohetes cerca de la frontera entre Israel y Gaza se volvió viral con un audio falso que menospreciando su reporterismo. A principios de este mes, circulaba en línea un clip generado por IA de la copresentadora de CBS ‘This Morning‘, Gayle King, promocionando un producto que nunca había usado o del que nunca había oído hablar. Un deepfake del presentador de CNN Anderson Cooper, en el que afirmaba con una expresión soez que el expresidente Donald Trump estaba criticándoles duramente, también se volvió viral recientemente después de que Trump y su hijo lo compartieran en Truth Social y Twitter. Y las supuestas transmisiones de noticias de Sahay, que lo ayudaron a acumular una audiencia de millones, han incluido más de una docena de presentadores prominentes de una variedad de cadenas de televisión que ofrecen comentarios problemáticos y entrevistan al creador mientras se burla de los tiroteos escolares, los ataques terroristas del 11 de septiembre, las víctimas de violaciones, y otras personas perjudicadas por los delincuentes.
En muchos casos, estas secciones inventadas que presentan a locutores de la vida real atraen más atención que los clips legítimos publicados en las cuentas de redes sociales de las organizaciones de noticias. Uno de los recientes deepfakes de Sahay de Margaret Brennan de ‘Face The Nation‘, por ejemplo, obtuvo más de 300.000 me gusta en TikTok, mientras que el vídeo más popular publicado el mismo día en la cuenta oficial de TikTok de ‘Face The Nation‘ obtuvo solo 7.000 me gusta. Sahay fue excluido de TikTok mientras Forbes estaba informando esta historia y no respondió a múltiples solicitudes de comentarios y una lista detallada de preguntas. Aunque su cuenta de TikTok ahora está inactiva, los videos de gran alcance de Sahay aún son fáciles de encontrar en la plataforma, otros usuarios los vuelven a publicar y varios de ellos permanecen activos en YouTube .
La mayoría de las grandes plataformas de redes sociales tienen políticas contra los deepfakes. La portavoz de TikTok, Ariane Selliers, dijo: «TikTok requiere que los creadores etiqueten contenido realista generado por IA», ya sea con una pegatina o en un título, y que TikTok «continúa eliminando contenido que puede engañar o hacerse pasar por personas de manera dañina». (La mayoría de los videos de Sahay no incluían dicha exención de responsabilidad). TikTok prohíbe los deepfakes que contienen imágenes de personas privadas y “si bien brindamos más libertad a las figuras públicas, no queremos que sean objeto de abuso ni que las personas sean víctimas de abusos, engañados sobre cuestiones políticas o financieras”, afirma la empresa en su reglamento. La portavoz de YouTube, Elena Hernández, dijo que «hace mucho que tenemos políticas de desinformación para prohibir el contenido que ha sido técnicamente manipulado o manipulado de una manera que representa un riesgo grave de daño atroz».
La portavoz de CNN, Emily Kuhn, se negó a comentar sobre los segmentos de noticias deepfake, pero dijo que el audio manipulado en el clip del corresponsal de CNN cerca de la frontera entre Israel y Gaza “es fabricado, inexacto y distorsiona irresponsablemente la realidad del momento que fue cubierto en vivo por CNN”, que las personas deberían verlo en su totalidad por sí mismas en una plataforma confiable”. O’Donnell, el presentador de CBS, no respondió de inmediato a una solicitud de comentarios, pero la portavoz de CBS News, April Andrews, dijo que «CBS se toma muy en serio sus derechos de propiedad intelectual». El portavoz de la BBC, Robin Miller, dijo que “cada vez que nos damos cuenta de un vídeo deepfake, nuestros abogados toman medidas” y que “en un mundo de desinformación cada vez mayor, instamos a todos a verificar los enlaces y URL para asegurarse de que están recibiendo noticias de una fuente confiable”. «
Una nueva era para los deepfakes
Los deepfakes y los “cheapfakes” de bajo presupuesto no son nuevos, y solo este mes se han utilizado para atacar a todos, desde Tom Hanks (cuyo doble de IA estaba promocionando un plan dental) hasta el principal creador de YouTube, MrBeast (que parecía ser organizando “el sorteo de iPhone 15 más grande del mundo”). «¿Están las plataformas de redes sociales preparadas para hacer frente al aumento de los deepfakes de IA?», MrBeast, cuyo nombre real es Jimmy Donaldson, advirtió la semana pasada en Twitter. «Este es un problema grave.» (Donaldson se convertirá en miembro de la junta directiva de Forbes cuando se complete la venta planificada de la compañía). La Junta de Supervisión de Facebook también anunció esta semana un caso relacionado con un video manipulado del presidente Joe Biden.
Pero las transmisiones de noticias manipuladas que se basan en las voces y rostros de periodistas de alto perfil parecen ser una táctica más nueva y potencialmente más peligrosa. A principios de este año, la firma de análisis de redes sociales Graphika realizó una investigación sobre “una forma nueva y distintiva de contenido de video” que había encontrado en Facebook, Twitter y YouTube: presentadores de noticias generados por inteligencia artificial que formaban parte de “una operación de spam político pro-China”. .” (Los medios estatales chinos también han experimentado con presentadores de noticias de inteligencia artificial). Y los videos deepfake más largos y de mayor producción, como algunos de los programas de noticias de Sahay, continúan ganando terreno en todas las plataformas.
«Vamos a tener que tomarnos más en serio la protección de los derechos de las personas cuya imagen y voz están siendo cooptadas».Hany Farid, profesor de UC Berkeley y experto en deepfake
“Los vídeos de presentadores de noticias son un medio convincente para difundir desinformación”, afirmó Hany Farid, profesor de la Escuela de Información de la Universidad de California en Berkeley, que ha testificado ante el Congreso sobre los deepfakes. «En muchos casos, los presentadores son conocidos por los espectadores y confiables, e incluso si no, el formato general de las noticias es familiar y, por lo tanto, más confiable».
«Los resultados, aunque todavía no son perfectos, son muy buenos, especialmente cuando se ven en un dispositivo móvil y cuando los espectadores se mueven rápidamente a través de las redes sociales», añadió Farid, cuya investigación se ha centrado en la percepción humana y el análisis de imágenes. «Vamos a tener que tomarnos más en serio la protección de los derechos de las personas cuya imagen y voz están siendo utilizados».
Los deepfakes a menudo se utilizan en memes para hacer reír a la gente, y el escenario más extremo (que este contenido manipulado pueda usarse para difundir información errónea o desinformación destinada a cambiar el curso de las elecciones, las OPI de las empresas y otros eventos de alto riesgo) no ha llegado a pasar. Pero las elecciones de 2020 fueron notablemente anteriores a la explosión de la IA iniciada por ChatGPT, que a principios de este año se convirtió en una de las aplicaciones para consumidores de más rápido crecimiento en la historia y ha contribuido a la adopción generalizada de la tecnología y a miles de millones en financiación para nuevas empresas de IA .
Ahora, casi cualquier persona puede emplear software de inteligencia artificial fácil de usar y disponible para crear videos o audio de figuras públicas (o personas corrientes) haciendo y diciendo cosas que en realidad nunca hicieron. Esto ha aumentado los temores de que la IA transforme las inminentes elecciones de 2024 en un caótico Salvaje Oeste, una preocupación que solo se intensificó por el aumento de los deepfakes que se utilizan como armas que pasan desapercibidas como noticias aparentemente genuinos.
La mayor preocupación, según el abogado Kevin Goldberg, especialista en la Primera Enmienda del Freedom Forum, una organización sin fines de lucro con sede en Washington, es que los videos que utilizan presentadores de noticias reales en situaciones que parecen realistas podrían usarse como una “forma agresiva de desinformación… una preocupación real con la que tendremos que lidiar con las elecciones de 2024″.
Pero advirtió que «tampoco queremos reaccionar de forma exagerada«.
«Sí, hay posibilidades de que se produzcan daños», dijo a Forbes. «Pero nuestro sistema legal y nuestra sociedad están más que bien equipados para manejar este nuevo medio».