Meta anunció el martes que comenzará a etiquetar las imágenes generadas por inteligencia artificial (IA) en Facebook e Instagram «en los próximos meses», al tiempo que pidió «normas técnicas comunes» para identificar este tipo de contenido antes de un año histórico de elecciones mundiales, justo un día después de que una junta de supervisión criticara su política «incoherente» sobre los medios manipulados.

Nick Clegg, presidente de Asuntos Globales de Meta, dijo en una entrada de blog que el gigante de las redes sociales comenzará a etiquetar las imágenes generadas por IA en Facebook, Instagram y Threads «en los próximos meses», mientras trabaja con «socios de la industria» para desarrollar estándares comunes de detección para el contenido de IA.

Meta, que incluye Facebook, Instagram, Threads y WhatsApp, ya aplica etiquetas «Imagined with AI» para las imágenes creadas con su función Meta AI, pero Clegg aseguró que Meta quiere poder etiquetar también contenidos creados por otras empresas.

El directivo explicó que las etiquetas se aplicarán a las imágenes de Adobe, Google, Microsoft, Midjourney, OpenAI y Shutterstock, ya que las empresas ejecutan «planes para añadir metadatos a las imágenes creadas por sus herramientas».

Marcar si está generado por IA

Según Clegg, las plataformas añadirán una función que permita a los usuarios marcar si el contenido está generado por IA para que pueda ser etiquetado mientras la industria trabaja en el desarrollo de las normas de detección, una función que será necesaria cuando los usuarios publiquen «contenido orgánico con un vídeo fotorrealista o audio de sonido realista» que haya sido «creado o alterado digitalmente».

Además, el ejecutivo dijo que no es posible identificar todos los contenidos generados por IA, y que la empresa «persigue una serie de opciones» para evitar que los usuarios eliminen marcadores invisibles, como marcas de agua y metadatos, que indican que el contenido está generado por IA.

«Este trabajo es especialmente importante, ya que es probable que se convierta en un espacio cada vez más adverso en los próximos años«, dijo Clegg. «Las personas y organizaciones que quieran engañar activamente a la gente con contenidos generados por IA buscarán formas de eludir las salvaguardas que se pongan en marcha para detectarlo».

REvisión de su «incoherente» política sobre medios manipulados

El lunes, el Consejo de Supervisión de Meta, financiado por Meta pero gestionado de forma independiente, pidió a la empresa que revisara su «incoherente» política sobre medios manipulados tras mantener una decisión que permite que un vídeo alterado del presidente Joe Biden permanezca en Facebook.

Meta es una de las grandes empresas tecnológicas de todo el mundo que ha descrito sus planes para moderar los contenidos generados por IA durante el número récord de elecciones mundiales de 2024, afirmando en noviembre que mantendría las prácticas anteriores y que empezaría a etiquetar los anuncios políticos generados por inteligencia artificial. Ese mismo mes, también prohibió a los anunciantes utilizar su software de IA generativa para crear anuncios políticos en Instagram y Facebook.