Empresas

¿Deberían YouTube y Twitter ser más responsables de los contenidos peligrosos?

El Tribunal Supremo examina el grado de responsabilidad de las principales plataformas de redes sociales.

El Tribunal Supremo examina el grado de responsabilidad de las principales plataformas de redes sociales, especialmente Twitter, Facebook y YouTube, en relación con las publicaciones más peligrosas, cuestionando las amplias protecciones que las empresas tecnológicas afirman que son necesarias para evitar que Internet se convierta en un páramo sombrío, pero que, según los críticos, van demasiado lejos.

La Corte Suprema escuchará los alegatos el próximo lunes en el caso (González contra Google) en el que los familiares de una víctima de los atentados terroristas de París de 2015 demandaron a Google, exponiendo que YouTube (una empresa de Google) debería ser considerada responsable después de que su algoritmo recomendara vídeos de reclutamiento del ISIS a posibles simpatizantes, y escuchará los alegatos el miércoles de Twitter contra Taamneh, que apunta de forma similar contra las empresas de medios sociales por su papel en un atentado terrorista de 2017 en Turquía.

¿Responsables?

El primer caso cuestiona si YouTube puede ser considerado responsable de las recomendaciones que hace en virtud de la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que protege a las plataformas de medios sociales y otras empresas de Internet de la responsabilidad legal al decir que no son legalmente responsables de los contenidos de terceros publicados en su plataforma.

Plataformas tecnológicas como Google, Meta, Twitter, Microsoft, Yelp, Reddit, Craigslist y Wikipedia, entre otras, han alegado en sus escritos que una sentencia judicial que declarase responsable a YouTube tendría consecuencias desastrosas, lo que llevaría a las plataformas online a restringir ampliamente cualquier contenido que pudiera considerarse legalmente censurable, o a adoptar el enfoque opuesto y dejar todo abierto sin filtrar los contenidos obviamente problemáticos.

Grupos de defensa de la Primera Enmienda, como la ACLU y la Fundación Knight, han advertido de que tales restricciones podrían coartar la libertad de expresión, y si las plataformas tecnológicas se ven obligadas a deshacerse de los algoritmos de recomendación, Google argumentó que Internet podría convertirse en un «desorden desorganizado y un campo de minas de litigios«.

El caso de Twitter, en el que también están implicados Facebook y Google, no se refiere a la Sección 230, sino que plantea si las empresas de redes sociales pueden ser consideradas responsables en virtud de la Ley Antiterrorista, que permite demandar a cualquiera que «ayude e instigue» un acto de terrorismo internacional.

Después de que un tribunal inferior considerara que el mero hecho de saber que había terroristas entre los usuarios de la empresa sería motivo suficiente para una demanda, Twitter argumentó que una sentencia en su contra también daría lugar a una «responsabilidad particularmente amplia» para las empresas de medios sociales, y Facebook y Google sugirieron que podría extenderse a otras organizaciones que puedan tener que trabajar, incluso indirectamente, con terroristas, incluidos los grupos humanitarios que trabajan sobre el terreno en países como Siria.

¿Materiales dañinos?

Los demandantes que denunciaron a Google rechazaron las funestas predicciones realizadas por las empresas tecnológicas en un escrito presentado ante el tribunal, argumentando que son demasiado amplias y «en gran medida no están relacionadas con las cuestiones específicas» del caso.

«Las predicciones de que una decisión concreta de este Tribunal tendrá consecuencias nefastas son fáciles de hacer, pero a menudo difíciles de evaluar«, argumentaron los demandantes, señalando que, si bien las empresas de medios sociales todavía tienen otras salvaguardias legales para protegerlas, como la Primera Enmienda, «no se puede negar que los materiales que se promueven en los sitios de medios sociales han causado de hecho graves daños.»

Sección 230

La Administración Biden ha argumentado que el Tribunal Supremo debería reducir el alcance de la Sección 230 para que sea más posible demandar a las plataformas de medios sociales, advirtiendo contra una «lectura excesivamente amplia» del estatuto que podría «socavar la importancia de otros estatutos federales».

La Casa Blanca argumentó que la Sección 230 no protege a YouTube de demandas contra recomendaciones perjudiciales que haga su algoritmo, dado que sus recomendaciones son creadas por la empresa y no contenidos de terceros.

Los partidarios de los demandantes también han sugerido que una sentencia contra Google podría ayudar a las plataformas de medios sociales a limpiar los algoritmos que han dado lugar a recomendaciones perjudiciales para los menores, con el Centro de Información de Privacidad Electrónica argumentando que las empresas de medios sociales se aprovechan de la naturaleza amplia de la Sección 230 y la utilizan «como un escudo en lugar de hacer sus productos más seguros».

«Negar la protección de la Sección 230(c)(1) a la pantalla de recomendaciones de YouTube podría tener efectos devastadores», argumentó Google al tribunal en un escrito, alegando que destripar la Sección 230 «pondría patas arriba Internet y fomentaría perversamente tanto una amplia supresión de la expresión como la proliferación de una expresión más ofensiva».

Sentencia a largo plazo

Las sentencias en los dos casos llegarán cuando el Tribunal Supremo concluya su mandato, a finales de junio o principios de julio.

También es posible que el Tribunal no emita un fallo contundente sobre cuándo las empresas de medios sociales pueden ser consideradas responsables en virtud de la Sección 230: Google argumentó que si el tribunal desestima el caso de Twitter diciendo que la familia de la víctima no tenía motivos para demandar, también podría desestimar el caso de Google por los mismos motivos sin entrar en absoluto en la Sección 230.

Casos juzgados de forma conjunta

El caso de Google llega al Tribunal Supremo después de que tribunales de primera instancia y de apelación se pusieran de parte de la plataforma de medios sociales, dictaminando que está protegida por la Sección 230 y no puede ser demandada.

El caso se juzgó conjuntamente con el caso de Twitter ante el Tribunal de Apelaciones del Noveno Circuito, pero el tribunal de apelaciones falló en contra de las plataformas de medios sociales en el caso de Twitter, sosteniendo que Twitter, Facebook y Google podrían ser considerados responsables en virtud de las leyes antiterroristas, aunque por separado confirmó las protecciones de la Sección 230.

Los casos de las redes sociales llegan al Tribunal Supremo en un momento en el que el creciente poder de las grandes tecnológicas y la incapacidad de las plataformas para moderar con éxito los contenidos nocivos han sido objeto de críticas desde ambos bandos políticos, y el Tribunal Supremo se hizo cargo de los casos después de que el juez Clarence Thomas, de tendencia conservadora, sugiriera que el tribunal debería considerar la cuestión de la Sección 230.

En el punto de mira

Los legisladores republicanos han apuntado especialmente a la Sección 230 y han tratado de responsabilizar jurídicamente a las empresas de redes sociales, a las que han acusado de amedrentar la expresión de los conservadores.

El senador Ted Cruz (republicano de Texas) encabezó a once legisladores republicanos en la presentación de un escrito en el que abogaban por que el Tribunal Supremo redujera el alcance de la Sección 230, argumentando que las empresas de medios sociales han utilizado la amplia interpretación de la ley para «[no tener] reparos en restringir el acceso y eliminar contenidos en función de la política del orador».

Artículos relacionados