Empresas

Por qué la UE cree que el X de Musk está utilizando patrones oscuros para engañar a los usuarios

Los comentarios se suman a una creciente disputa sobre desinformación entre las autoridades brasileñas, X y Musk. IMÁGENES GETTY

La Unión Europea ha acusado a X, antes conocida como Twitter, de utilizar «patrones oscuros» engañosos para confundir a los usuarios. Según las conclusiones preliminares de la UE, estas prácticas infringen la nueva normativa sobre redes sociales del bloque en virtud de la Ley de Servicios Digitales (DSA).

¿Qué son los patrones oscuros?

Los patrones oscuros son diseños de interfaz de usuario (UI) creados para engañar a los usuarios para que realicen acciones que de otro modo no harían. Acuñado por Harry Brignull, fundador de Deceptive Patterns, el término describe elementos de la interfaz de usuario que manipulan a los usuarios para que tomen decisiones que benefician al proveedor del servicio, a menudo a expensas del usuario. Estos patrones explotan los sesgos cognitivos y la falta de atención del usuario para guiarle por un camino del que más tarde puede arrepentirse.

Algunos ejemplos de patrones oscuros son

  • Falsa escasez. Se presiona a los usuarios para que actúen con rapidez indicándoles falsamente que lo que están viendo casi se ha acabado.
  • Anuncios camuflados. Engañar a los usuarios para que hagan clic en anuncios que parecen elementos de navegación.
  • Motel de cucarachas. Hacer que sea fácil entrar en una situación (por ejemplo, darse de alta en un servicio) pero difícil salir (por ejemplo, cancelar una suscripción).

Acusaciones de la UE contra X

La investigación de la Comisión Europea en el marco de la DSA reveló que las marcas de verificación azules de X, disponibles por una cuota mensual, son una forma de patrón oscuro. Durante la mayor parte de la historia de Twitter, estas marcas de verificación eran para famosos, políticos y otras cuentas influyentes. Era una indicación de que la identidad de la persona había sido verificada.

Otras redes sociales como LinkedIn siguen utilizando una insignia de «verificado» para indicar que han autentificado la identidad del miembro.

En cambio, bajo la propiedad de Elon Musk, cualquier usuario de X puede obtener una marca de verificación azul pagando ocho dólares al mes. Este cambio ha dado lugar a confusión y engaño, ya que los usuarios ya no pueden confiar en la marca de verificación azul como signo de autenticidad y fiabilidad.

Un rápido vistazo a los temas de actualidad en X mostró un montón de marcas azules: algunos nombres reconocibles, otros desconocidos que podrían ser reales o no, y muchas cuentas anónimas. En este punto, parece que la marca azul sólo significa que alguien pagó ocho dólares a X: la persona, una organización, el creador de una granja de bots… no hay forma de saberlo.

Según la UE, esta práctica «afecta negativamente a la capacidad de los usuarios para tomar decisiones libres e informadas sobre la autenticidad de las cuentas y los contenidos con los que interactúan».

Las marcas azules son sólo un aspecto de las acusaciones más amplias, que también incluyen el bloqueo del acceso a los datos a los investigadores y deficiencias en la base de datos de anuncios de X.

Entender las alegaciones de la UE sobre X

Las conclusiones de la UE sugieren que el actual sistema de marcas azules en X puede inducir a error a los usuarios haciéndoles creer que determinadas cuentas son más fiables o auténticas de lo que realmente son. Esta práctica socava el propósito original de la verificación, que era proporcionar un indicador fiable de la legitimidad de una cuenta. Al permitir que cualquiera compre una marca de verificación azul, X está reduciendo efectivamente la claridad y fiabilidad de este marcador para una verificación genuina.

Las acusaciones se extienden también al cumplimiento por parte de X de las normas de transparencia en materia de publicidad. La DSA exige que las plataformas mantengan una base de datos consultable y fiable de todos los anuncios digitales, que incluya detalles sobre quién pagó por ellos y su público destinatario. La investigación de la UE descubrió que la base de datos de anuncios de X no cumple estas normas, lo que obstaculiza la capacidad de los investigadores para estudiar los riesgos emergentes de los anuncios en línea.

El problema más amplio de los patrones oscuros

Muchas plataformas utilizan tácticas similares para inducir a los usuarios a tomar decisiones que beneficien a la empresa. Pueden ir desde dificultar la cancelación de suscripciones hasta inscribir automáticamente a los usuarios en servicios sin su consentimiento explícito.

Todas las grandes empresas tecnológicas han sido denunciadas varias veces en Deceptive Patterns. Incluso las empresas de campaña y recaudación de fondos de Trump aparecen en la lista.

Los patrones oscuros más comunes implican hacer que una opción favorable al usuario sea difícil de encontrar o que una acción favorable a la marca parezca la opción por defecto o la única. Hace años, compartí inadvertidamente mis contactos con LinkedIn al hacer clic en un botón «Continuar» después de añadir una conexión. Más tarde, me sugirieron que conectara con mi madre fallecida en la plataforma.

Respuesta reguladora y concienciación de los usuarios

La acción de la UE contra X forma parte de un esfuerzo más amplio por regular las plataformas digitales y proteger a los usuarios de prácticas manipuladoras. La Ley de Servicios Digitales representa un paso importante en esa dirección, al establecer directrices claras de transparencia y responsabilidad.

Como usuarios, es importante ser conscientes de los patrones oscuros y entender cómo pueden influir en nuestras decisiones.

La UE está investigando a X por su presunto uso de patrones oscuros, pero este problema es común a muchas plataformas digitales. Comprender y reconocer los patrones oscuros es crucial para que los consumidores tomen decisiones informadas y para que las empresas mantengan la confianza y la transparencia. Si no solo reconocemos estas tácticas, sino que denunciamos a los infractores, podremos tomar mejores decisiones y exigir responsabilidades a las plataformas.

Artículos relacionados