La empresa de Zuckerberg lleva mucho tiempo recibiendo críticas por su presunto fracaso para detener la desinformación y el discurso de odio en su plataforma, pero esas acusaciones se han incrementado en las últimas semanas después de que la denunciante Frances Haugen, antigua integrante del equipo de Integridad Cívica de Facebook, hablara con 60 Minutes y testificara ante el Congreso sobre las presuntas fechorías de la compañía.
En su declaración, Haugen dijo al Congreso que la compañía «había puesto sus ganancias astronómicas por encima de las personas» e instó a los legisladores a tomar medidas contra la red social. Ante las cámaras de 60 Minutes, Haugen aseguró que el caso de Facebook es «sustancialmente peor» de lo que había visto en otras redes sociales.
Durante su tiempo en la compañía, Haugen recopiló una serie de documentos internos, que posteriormente proporcionó a la Comisión de Bolsa y Valores (SEC, por sus siglas en inglés) y que sus abogados entregaron a los medios de comunicación que ahora los publican (entre los que se encuentran The Washington Post, The Wall Street Journal, Financial Times o The New York Times, CNN, Associated Press, The Verge o Politico, entre otros).
Los denominados como Papeles de Facebook revelan como la red social permite repetidamente a celebridades y políticos evadir sus reglas; como el CEO de la red social, Mark Zuckerberg, cedió a las demandas del gobierno de Vietnam de silenciar las publicaciones antigubernamentales que hubiera en la plataforma; la actuación de la red social frente al asalto al Capitolio de los EE UU; cómo reaccionan ante la difusión de desinformación… Estas so las claves de los documentos:
Tratos de favor
A pesar de que Zuckerberg pide a sus empleados «neutralidad intachable», los ejecutivos —incluido Zuckerberg— habitualmente «interferían» para permitir que celebridades y los políticos eludieran las reglas de la plataforma. Esto, a pesar de las protestas de los empleados. Además, según se revela, Zuckerberg habría intervenido personalmente para restablecer un video que había ha sido destituido por hacer afirmaciones falsas sobre el aborto porque los políticos republicanos se quejaron.
Zuckerberg también cedió a las demandas del gobierno de Vietnam de censurar las publicaciones de los disidentes antigubernamentales, informa el Washington Post, que también cita fuentes anónimas, eliminando 2.200 publicaciones entre julio y diciembre de 2020 en comparación con las 834 de los seis meses anteriores.
Otra de las revelaciones es que Apple amenazó eliminar Facebook e Instagram de su App Store. Los de Cupertino no estaban de acuerdo con que sus productos se usaran para «comprar y vender» sirvientas filipinas a través de las redes de Zuckerberg. Sin embargo, Apple se echaron atrás después de que Facebook prometiera «tomar medidas enérgicas». Según las publicaciones, las medidas para solucionar el problema han sido limitadas y forman parte de un problema mucho más amplio al que se enfrenta la plataforma con la trata de personas.
Por otro lado, Facebook tampoco ha tomado ninguna acción integral contra los usuarios que tienen múltiples cuentas, a pesar de saber que estas son una «fuente masiva» de publicaciones políticas «tóxicas» de la plataforma y son «proveedores de actividad política peligrosa», informa Politico.
El negocio por encima del control de las ‘fake news’
Los documentos de Facebook muestran el dominio del mercado de la compañía: un 78% de los adultos estadounidenses usan Facebook y «casi todos los adolescentes estadounidenses» usan plataformas propiedad de la compañía, informa Politico, lo que podría ayudar a la demanda antimonopolio de la Comisión Federal de Comercio contra la empresa al socavar las afirmaciones de que tiene una fuerte competencia de los negocios rivales.
The Washington Post también apunta que los documentos internos de Facebook muestran que la compañía eliminó menos del 5% del discurso de odio que hay en la plataforma, a pesar de que Zuckerberg afirmó ante el Congreso de EE UU el año pasado que la compañía había eliminado el 94%. Zuckerberg también habría desaprobado la idea de tener un discurso en español en el centro de información de votación para las elecciones porque consideraba que no sería «políticamente neutral».
Los empleados de Facebook dieron la alarma en la primavera sobre la escasa capacidad de la plataforma para moderar el contenido anti-vacunas: su detección de «comentarios que dudan de las vacunas es mala en inglés y básicamente no existe en otros lugares», señala un memorando.
Además, la empresa agrupa varios países en diferentes «niveles» para determinar los recursos que la empresa asigna a las elecciones de cada uno, informa Verge. De hecho, la empresa no brinda asistencia a los países que considera de nivel más bajo, a menos que se informe con moderación sobre contenido específico relacionado con las elecciones.
Facebook ha investigado las «características principales» de la plataforma, como los botones «Me gusta» y «Compartir», y descubrió que «habían permitido que la información errónea y el discurso del odio florecieran en el sitio», informa The New York Times. Sin embargo, los ejecutivos bloquearon las modificaciones para que para no sofocar el crecimiento y «[mantener] a los usuarios comprometidos». Además, apuntan los papeles que la empresa «abandonó o retrasó» los movimientos que podrían haber reducido la «desinformación y la radicalización», según The Washington Post.
Aunque Facebook ha realizado una investigación exhaustiva que muestra su caída en popularidad entre los jóvenes, Bloomberg informa que la compañía ha «tergiversado» eso a los inversores al omitir información sobre sus declives entre ciertos datos demográficos y solo se ha enfocado en el crecimiento general. A pesar de ello, la compañía ve el uso cada vez menor de los adolescentes como una amenaza «existencial».
Facebook a menudo da prioridad a las «consideraciones políticas» en la toma de decisiones para evitar parecer parciales, y da a los editores de derecha un «tratamiento especial» que les permite evadir el castigo por desinformación, informa The Wall Street Journal. Según un miembro del personal de Facebook, la compañía hace «excepciones especiales» para el sitio de noticias conservador Breitbart e «incluso lo respalda explícitamente» al incluirloen la pestaña Noticias de Facebook.
Según los documentos, la compañía eliminó las «salvaguardias» para detener la propagación de información errónea sobre las elecciones después del día de las elecciones antes del ataque al Capitolio del pasado 6 de enero, y tuvo una respuesta «tibia» después de que comenzó la violencia que los empleados criticaron como insuficientes, según documentos informados por medios como Bloomberg, CNN, Associated Press, The Washington Post, The Wall Street Journal y The New York Times.
Facebook llevó a cabo una extensa investigación interna que brindó recomendaciones sobre cómo la plataforma podría detener la propagación de contenido extremista, pero «en muchos casos, los ejecutivos se negaron a implementar esos pasos».
Los esfuerzos que hizo Facebook para prohibir las publicaciones de QAnon y otros grupos conspiranoicos fueron criticados por investigadores internos como «fragmentarios», ya que consideraban que frenaban el «crecimiento meteórico» del movimiento. Para prohibir los movimientos extremistas, la plataforma lleva a cabo «ataques quirúrgicos» a entidades individuales que cree que son peligrosas en lugar de un «enfoque más sistemático» que los funcionarios creen que sofocaría el crecimiento de Facebook.
El discurso de odio y la desinformación en Facebook también han florecido y, a menudo, se han dejado sin control en India, el mercado más grande de Facebook. En particular la retórica antimusulmana y las incitaciones a la violencia, a pesar de que la compañía está llevando a cabo una investigación interna que demuestra el alcance del problema.
Dos grupos nacionalistas hindúes que no han sido excluidos de Facebook a pesar de difundir contenido antimusulmán o incitar a la violencia tienen vínculos con el primer ministro indio Narendra Modi y su partido político, y otro grupo no fue eliminado por «razones políticas sensibles”, según un documento interno.
La plataforma no ha podido controlar una gran cantidad de contenido en India porque no tiene la capacidad de moderar y verificar de manera efectiva las publicaciones en los 22 idiomas oficiales del país. La red social parece tener problemas similares con el árabe y la moderación del contenido en el Medio Oriente. Los documentos citados por los medios también desvelan que la plataforma ha tenido problemas de vigilancia adecuada del contenido en países como Myanmar, Sri Lanka, Etiopía, Pakistán e Indonesia.
El 87% de los recursos que Facebook dedica para combatir la desinformación se destinan a Estados Unidos, dejando solo el 13% para el resto del mundo. En cuanto a su cobertura de los distintos idiomas en el ámbito global, la red social dedica el 84% a los EE UU frente al resto de países, según los documentos publicados. Facebook ha respondido cuestionando estas cifras, ya que —según dicen— no tienen en cuenta a los verificadores de hechos de terceros, muchos de los cuales están en el extranjero.
La red social se defiende
Facebook ha rechazado ampliamente los informes de los medios de comunicación y ha defendido los esfuerzos de la empresa contra la desinformación y el extremismo. «En el corazón de estas historias hay una premisa que es falsa», ha dicho el portavoz de Facebook Joe Osborne en un comunicado al Financial Times.
«Sí, somos una empresa y obtenemos ganancias, pero la idea de que lo hacemos a expensas de la seguridad o el bienestar de las personas malinterpreta dónde se encuentran nuestros propios intereses comerciales. La verdad es que hemos invertido 13 mil millones de dólares y tenemos más de 40,000 personas para hacer un trabajo: mantener a la gente segura en Facebook», ha añadido el portavoz de la empresa.
Según informan varios de los medios anglosajones citados, el vicepresidente de asuntos globales de Facebook, Nick Clegg, ha dicho a los empleados que «hay que prepararse para más titulares malos en los próximos días» e incluso «durante las próximas semanas».