Estoy convencido de que la inteligencia artificial (IA) será la tecnología más transformadora de nuestras vidas. Sin embargo, incluso yo, un firme defensor del bien que creo que hará, puedo ver que hay una gran cantidad de bombo y confusión a su alrededor.
No es de extrañar. Algunas de las empresas más grandes y poderosas han apostado la casa por vendérnosla. También es un tema muy polémico, ya que a muchos les preocupa su posible impacto en el empleo, la privacidad y la seguridad.
Otro temor frecuente es que la inteligencia artificial se utilice para crear desinformación que pueda promover discursos políticos o incluso influir en nuestras decisiones democráticas.
Hay dos afirmaciones que veo con frecuencia: la primera es que la IA puede utilizarse para difundir creencias extremistas e incluso para crear extremistas.
La segunda es que el resultado de la IA se inclina hacia lo woke, un término utilizado originalmente por los manifestantes afroamericanos por los derechos civiles, pero que ahora emplean con más frecuencia los conservadores para referirse a ideas y creencias progresistas o a favor de la justicia social.
Los informes sobre la parcialidad izquierdista de la IA fueron especialmente frecuentes durante las elecciones estadounidenses del año pasado. Al mismo tiempo, los grupos de reflexión antiterroristas han advertido de que los grupos extremistas utilizan la IA para adoctrinar.
Como ambos mitos se refieren a los peligros de la IA utilizada para influir en las opiniones políticas, pensé que tenía sentido examinarlos juntos.
Entonces, ¿son ciertas? ¿Tiene realmente la IA el poder de llevarnos a cometer actos terroristas o a adoptar filosofías liberales y volvernos woke?
¿Tiene la IA un sesgo izquierdista?
Los comentaristas conservadores y de derechas afirman con frecuencia que la IA y la cultura de Silicon Valley, de donde a menudo procede, tienen un sesgo izquierdista. Y parece que hay al menos algunas pruebas que respaldan estas creencias.
Varios estudios, entre ellos uno de la Universidad de East Anglia en 2023 y otro publicado en el Journal of Economic Behavior And Organization, defienden que esto es cierto.
Por supuesto, la IA generativa no tiene una opinión política, ni ninguna opinión en realidad. Todo lo que «sabe» procede de datos extraídos de Internet. Esto incluye libros, artículos científicos y revistas, así como contenidos extraídos de foros de debate y redes sociales.
Si esos datos apoyan un consenso progresista –por ejemplo, si la mayoría de los datos sobre la climatología apoyan la teoría de que el cambio climático está provocado por el hombre–, es probable que la IA lo presente como cierto.
En lugar de limitarse a presentar los datos con un sesgo izquierdista, algunas de las investigaciones se centran en los hallazgos de que la IA simplemente se negará a procesar las solicitudes de «generación de imágenes de derechas».
Y cuando las solicitudes describen imágenes que presentan temas de debate progresistas como «igualdad racial y ética» o «aceptación de la transexualidad», es más probable que los resultados muestren imágenes positivas (gente feliz, por ejemplo).
Pero eso no significa necesariamente que la IA sea woke. De hecho, otras investigaciones han descubierto que las IA basadas en LLM también pueden mostrar un sesgo de derechas, y los resultados varían según la IA que se ponga a prueba.
Un estudio publicado recientemente en Nature descubrió que, basándose en pruebas estandarizadas de orientación política, se ha producido «un cambio claro y estadísticamente significativo en el posicionamiento ideológico de ChatGPT a lo largo del tiempo».
Al fin y al cabo, los sistemas de IA están construidos por humanos y entrenados con los datos que seleccionamos. Si hay prejuicios en la forma en que se diseñan sus algoritmos o en la información que reciben sobre el mundo, es muy probable que esos prejuicios se reproduzcan en sus resultados.
¿Puede la IA convertirnos en extremistas?
Mientras que a algunos investigadores les preocupa que la IA nos convierta a todos en liberales, a otros les inquieta más que se utilice para radicalizar a la gente o fomentar los programas extremistas.
El Centro Internacional de Lucha contra el Terrorismo, con sede en La Haya, informa de que los grupos terroristas ya utilizan ampliamente la IA generativa para crear y difundir propaganda. Esto incluye el uso de imágenes y vídeos falsos para difundir narrativas afines a sus valores.
Grupos terroristas y extremistas, como el Estado Islámico, han publicado incluso guías que muestran cómo utilizar la IA para desarrollar propaganda y desinformación.
A menudo, el objetivo es simplemente sembrar el caos y la confusión, lo que lleva a desconfiar de las agencias e instituciones establecidas y de los medios de comunicación convencionales (lo que normalmente significa editados y verificados).
También se ha sugerido que los extremistas pueden utilizar la IA para averiguar quién es susceptible de radicalizarse en primer lugar, prediciendo quién es probable que simpatice con su ideología.
Una vez más, se trata de un caso en el que los humanos utilizan la IA para persuadir a la gente de que adopte sus puntos de vista, y no de un indicio de que la IA sea extremista o propensa a sugerir ideas y comportamientos extremos.
Sin embargo, un riesgo inherente a la IA es su capacidad para reforzar las opiniones extremas a través del efecto de cámara de eco algorítmica.
Esto ocurre cuando las redes sociales y las plataformas de noticias utilizan la IA para sugerir contenido basado en interacciones previas. El resultado suele ser que a los usuarios se les muestran más contenidos con los que ya están de acuerdo, lo que crea «cámaras de eco» en las que la gente ve repetidamente contenidos que reflejan sus creencias. Si esas creencias son extremas, la IA puede amplificar su efecto mostrando contenidos similares y más radicales.
¿Puede la IA influir realmente en nuestra forma de pensar?
Es importante recordar que, aunque es probable que la IA desempeñe un papel cada vez más importante en la forma en que consumimos la información, no puede influir directamente en nuestras creencias.
También hay que tener en cuenta que la IA puede ayudar a contrarrestar estas amenazas. Por ejemplo, puede detectar sesgos en los datos que podrían dar lugar a respuestas sesgadas, y puede encontrar y eliminar contenidos extremistas de Internet.
Sin embargo, es evidente que existe la percepción, que parece justificada, de que grupos de todas las afiliaciones políticas la utilizarán inevitablemente para tratar de dirigir la opinión pública.
Entender de dónde procede la desinformación y quién puede estar tratando de difundirla nos ayuda a perfeccionar nuestra capacidad de pensamiento crítico y a comprender mejor cuándo alguien (o alguna máquina) está tratando de influir en nosotros.
Estas habilidades serán cada vez más importantes a medida que la IA se integre en la vida cotidiana, independientemente de nuestra inclinación política.