Fin de semana en Granada. El atardecer desde el Mirador de San Nicolás es digno de foto. La subo a Instagram y etiqueto a mi madre y a mi mejor amiga, sé que les encantaría estar aquí. ¿Qué hora es ya? Hmmm, interesante. Mi Apple Watch me indica, además, que hoy he andado un buen número de kilómetros y quemado considerables calorías, así que puedo disfrutar sin remordimientos de una cena de vinos y tapas por los alrededores de la Plaza Nueva. Pero como no sé muy bien cómo llegar, me guío por las indicaciones de Google Maps. ¡Qué fácil es moverse hoy en día! De vuelta al hotel, leo un artículo sobre la ciudad que he visto en una revista, a ver si me da ideas de sitios por los que perderme mañana. Por supuesto, acepto el uso de cookies de la página web en cuestión, porque si no lo hago, no puedo leerlo. Ahora, eso sí, esta vez me conecto con el wifi del hotel.
¿Quién no haría esto?
Se ha convertido en la manera de operar en la rampante sociedad digital en la que vivimos. Lo hacemos de manera automática, sin pensar. Pero las consecuencias de gestos y acciones aparentemente tan inocuos pueden ser peor de lo que nos imaginábamos. Porque con cada clic, hemos ido dejando una retahíla de valiosa información con la que las compañías online arramblan: nuestros rasgos faciales, datos personales, ubicación, gustos y preferencias, hábitos, relaciones personales, transacciones comerciales, información financiera.
La cantidad de datos que los gigantes tecnológicos tienen sobre nosotros es ingente. Y cada vez requieren más. Porque el Internet de las Cosas necesita big data para alimentar las finanzas, la comunicación, la energía, el transporte, la Inteligencia Artificial. Los datos se han convertido en uno de los activos más valorados. ¿Sabemos de verdad el valor de toda esa información que, muchas veces sin saber, le damos de forma gratuita a plataformas como Google o Facebook y qué hacen con ella?
“No creo que la gente entienda lo que se está haciendo con sus datos”, señala para Forbes Glen Weyl, presidente y fundador de la Fundación RadicalxChange y economista político y tecnólogo social en la Oficina del Jefe de Tecnología de Microsoft. La falta de conocimiento de los usuarios permite a estas empresas hacerse de manera gratuita con una colosal cantidad de datos que luego comercializan, obteniendo un gran beneficio económico. Y aun entendiéndolo, “no sé si su primera reacción sería frenar a las compañías” o “pedirles una recompensa y participación”.
La economía digital ha transformado a las personas en datos y las tecnológicas han convertido los datos en capital, usándolos a su libre albedrío. Resulta que uno usa ‘gratuitamente’ una plataforma sin darse cuenta de que nada es gratis y de que está pagando con sus datos; datos que se venden a terceras partes, cuyo objetivo es influenciar a los usuarios de esas mismas plataformas a las que compran la información y con las que hacen negocio.
Un círculo vicioso, oscuro y desconocido cuyo engranaje es tan complejo que es “imposible que el usuario común sepa cómo estas compañías usan esta información. A veces, ni siquiera los que trabajan en Google lo saben”, explica a Forbes Jaron Lanier, investigador en Microsoft y padre de la realidad virtual. Y esto no ha hecho más que empezar, advierte este gurú tecnológico. Cada vez habrá más sistemas automatizados que se nutrirán de nuestros datos para alimentar la Inteligencia Artificial y el Internet de las Cosas, que llegarán a sustituir la fuerza de trabajo del hombre y que darán lugar a tecnologías y procesos tecnológicos delegados en máquinas. Si no se hace nada, presiente, dejaremos de contar con el apoyo de una autoridad y nos veremos forzados a sobrevivir como podamos. Un escenario sombrío y pesimista del que saldría “una autocracia o algo por el estilo”.
“Si vamos a vivir en una sociedad de mercado donde la tecnología avanza cada vez más, pero no pagamos a los usuarios por sus datos, estamos creando un sistema donde las personas dejarán de ser ciudadanos”, advierte. Así que si queremos “mantener una situación donde el poder sea distribuido de manera suficiente para que el mundo sea un buen lugar para vivir y la tecnología continúe avanzando en beneficio de todos, no hay más opción que pagar a la gente por sus datos”. Es una cuestión de dignidad.
Dignidad digital
Internet funciona porque miles de millones de personas contribuyen a diario con datos, alimentando la maquinaria telemática. La información es poder y en la red se puede llegar a consolidar un extraordinario poder. Pero solo unos pocos se benefician de las riquezas que genera, haciéndose cada vez más ricos. Las mayores fortunas de la historia se han creado recientemente, en la era digital, usando las tecnologías y las redes sociales como una forma de concentrar información, poder y riqueza. Mas lo han hecho desproporcionadamente. Pese al brutal crecimiento digital, somos testigos de unas divisiones sociales que sugieren un futuro cada vez más estratificado, desigual y antidemocrático. “Esas grandes fortunas están menguando la economía, en vez de hacerla crecer”, apunta Lanier.
En un mundo con dignidad digital, cada individuo se convertiría en el propietario comercial de cualquier información suya que pudiera medirse, de tal manera que los datos digitales adquirirían un valor constante. La clave sería empezar a “tratar dichos datos como si fueran una fuerza de trabajo”, explica Weyl. Como generadores de datos, somos “la fuerza de trabajo que hace funcionar la economía digital”. ¿No deberíamos recibir una compensación económica a cambio?, plantea. Así, además, aumentaría la empleabilidad en la economía y se generarían datos de mejor calidad.
Weyl y Lanier son los principales promotores de esta teoría de data dignity que tiene seguidores y detractores a partes iguales. “Es una terrible idea que malinterpreta completamente el principal objetivo de la ley de privacidad, que trata de garantizar la legitimidad en la toma de decisiones automatizadas”, afirma para Forbes Marc Rotenberg, director ejecutivo del Centro de Información de Privacidad Electrónica (EPIC, por sus siglas en inglés).
Y si no, fijémonos en todos esos medios de comunicación que bloquean el acceso al contenido cuando el usuario está en modo privado. “Ilustra a la perfección que nada es gratis”, declara para Forbes Barak Orbach, profesor de Derecho de la Universidad de Arizona y experto en temas de antimonopolio y regulación. “La privacidad y las atenciones son tipos específicos de divisas de la economía digital”. Opina que la monetización de nuestros datos personales es posible porque estas compañías pueden usarlos para influenciar nuestros gustos y preferencias, algo de “incalculable valor para empresas, grupos de interés y candidatos políticos”. Es más, ese es el precio que pagamos por hacer uso de las redes sociales y demás plataformas online; “la capacidad [de estas empresas] de influenciar nuestras elecciones”.
Desde comprar la chaqueta que aparece en el anuncio a la derecha de la web que estás visitando hasta la publicidad subliminal del partido político al que deberías votar, pasando por la noticia que vas a pinchar para leer o la serie que vas a descargar para ver. La capacidad para manipular es apabullante. Y el problema no es solo un internet construido sobre la manipulación, sino una sociedad manipulada que pierde la capacidad de analizar, decidir y consensuar.
En cierta manera, pensamos que controlamos la información que proporcionamos a los gigantes tecnológicos reservándonos, por ejemplo, activar nuestra ubicación o Siri en nuestros móviles. Pero no se trata solo de la información que damos, sino de la que recopilan sobre nosotros a través de nuestras acciones y comportamientos. Como esgrime la profesora Shoshana Zuboff en su libro Surveillance Capitalism, se trata de los rastros digitales que vamos dejando con cada uno de nuestros clics y comandos: qué música elegimos, qué webs visitamos, cuán rápido tecleamos, dónde vamos, cómo conducimos, qué rutas elegimos, a qué restaurante llamamos para pedir comida, cuándo. Con cada una de estas herramientas y servicios, estas plataformas nos observan, extraen datos y los analizan con el único objetivo de entrenar patrones de comportamiento humano que les ayudan a diseñar campañas de publicidad dirigida cada vez más efectivas.
¿Por qué Google, una compañía de búsqueda online, invierte en dispositivos de reconocimiento de voz para hogares inteligentes o nos deja planear nuestras rutas en Google Maps? Le permite recabar información sobre nuestras rutinas o establecer modelos de tráfico con los que desarrollar servicios, que luego vende a plataformas de transporte público o compartido y que acabaremos consumiendo. ¿Por qué Facebook, además de conectarnos unos con otros y ofrecernos un espacio ‘gratuito’ para construir y compartir nuestra vida social, está desarrollando gafas de realidad aumentada? Le proporcionada todavía más información sobre tipos de personalidad y estados de ánimo, que asocia con productos que encajan con nuestros gustos y que terminaremos comprando. ¿Has pensado en todos los datos que revelamos utilizando estos artilugios? ¿Hablamos de Alexa?
El capitalismo de la información
Volvamos al tema que nos ocupa y centremos el debate en si los usuarios deberían o no cobrar por sus datos. La pregunta clave es “cómo calcular el valor de la privacidad, atención, servicios y productos”, plantea Orbach, el experto legal. “Todavía no contamos con buenas herramientas para calcular el valor monetario de la privacidad y la atención”. Este es un punto crítico de la propuesta de data dignity. De manera individual, nuestros datos no tienen ningún valor. Puesto que se trata de un valor agregado, son rentables cuando se reúnen los de muchos usuarios. Solo así las empresas pueden analizarlos y establecer patrones de comportamiento con los que persuadirnos e influir en nuestras acciones.
Tampoco contamos aún con mecanismos efectivos y transparentes con los que las empresas garanticen la protección de los datos que les damos; y esto, pone en riesgo “el funcionamiento de nuestra sociedad”, opina Nickolas Guggenberger, director ejecutivo del Proyecto Sociedad de la Información de la Universidad de Yale. “Una compensación económica no va a solucionar los problemas a los que se enfrenta la sociedad”. Se refiere a problemas como la posibilidad de interferir en resultados políticos, como evidenció el caso Cambridge Analytica que demostró que la consultora compró los datos de 87 millones de usuarios proporcionados por Facebook para influenciar los resultados de las elecciones presidenciales estadounidenses de 2016, así como el referéndum del brexit de ese mismo año. (Al respecto, la Comisión Federal de Comercio de EE UU ha sancionado a la red social a pagar 5.000 millones de dólares, la mayor jamás impuesta por malas prácticas en la gestión de la privacidad de los usuarios. Además, la obliga a crear un comité independiente para temas de privacidad en el que Zuckerberg no podrá tener control alguno).
Pero supongamos que vendiéramos nuestros datos; ¿cuánto se cobraría por qué tipo de información? ¿Cómo se realizarían esas transacciones? Antes de nada, habría que crear un mercado de trabajo justo y luego determinar qué información tiene valor y cuál no, explica para Forbes Paul Tang, miembro del Parlamento Europeo por Holanda. Solo así podría virar la dirección de los actuales modelos de negocio online hacia una en la que “los usuarios dejasen de ser el producto para pasar a ser trabajadores”. Después, “habría que establecer una relación de condiciones laborales entre empleados y trabajadores que especificase el salario, la privacidad (las plataformas solo podrían utilizar los datos que como usuarios hemos dado con explícito consentimiento) o el entorno laboral”. Aquí es donde entrarían en juego “los sindicatos, que negociarían las condiciones”. Primero, el usuario crearía un perfil “en algo como Facebook Labour, se registraría para el trabajo y decidiría con qué sindicato se querría afiliar”. Una vez que tanto plataforma como sindicato hubieran aceptado la solicitud, el usuario podría empezar a usarla.
En toda esta hipótesis, conviene no olvidar dos puntos, señala Tang. Uno, que “los datos que se generan en la plataforma pertenecen a dicha plataforma”, por lo que, en cuanto el usuario los vende, dejan de ser suyos. Y, dos: solo se pueden traspasar “datos de comportamiento, nunca personales; estos deben protegerse siempre”. Pero este es otro aspecto que los más críticos cuestionan. ¿Cómo garantizar que, efectivamente, los datos personales se dejan de lado?
El salvaje Oeste
Al margen de la viabilidad y puesta en marcha de la teoría de data dignity, una cosa queda clara: se necesita legislar el mundo online. “Tenemos que dar un paso más porque, como estamos viendo, el mero hecho de informar a los usuarios no es suficiente”, opina Guggenberger, de Yale. “Necesitamos regular el comportamiento como tal, vetando ciertas cosas que son perjudiciales para la privacidad y la dignidad digital”.
A veces, da la sensación de que internet es una especie de salvaje Oeste donde todo vale; una vasta llanura virtual donde los indios sucumben a las potentes armas digitales de los vaqueros, sin un sheriff que ponga límites y mantenga el orden. No siempre. En el mundo real, algunas jurisdicciones ya han empezado a desarrollar leyes para hacer frente a estos desafíos. Canadá, por ejemplo, cuenta con el Acta de Protección de Información Personal y Documentos Electrónicos, que establece las directrices bajo las cuales las organizaciones del sector privado recogen, usan y hacen público información personal durante transacciones comerciales. California promulgó en 2018 el Acta sobre Privacidad de los Consumidores, que entrará en vigor en julio de 2020, convirtiéndose así en el primer estado de EE UU en aprobar una ley de privacidad de datos que otorgará más control a los consumidores sobre su información personal y les permitirá ver cómo esta se está usando. En Taiwán, el Acta de Protección de Datos Personales establece requerimientos muy específicos respecto al uso, recogida y proceso de información de identificación personal, tanto por agencias gubernamentales como por entidades privadas, haciendo especial hincapié en aquellos “datos sensibles”(como sanitarios o genéticos e historial sexual o criminal).
Pero la más destacada, tal vez, sea el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, una normativa que entró en vigor en mayo de 2018 y que tiene como objetivo principal dar a los consumidores europeos más control sobre su información online, exigiendo a las compañías que obtengan el consentimiento expreso de los usuarios antes de utilizar cierto tipo de datos. De no hacerlo, se enfrentan a multas de hasta el 4% de sus ingresos anuales. “El RGPD es un principio razonable, pero presenta varios problemas”, opina Weyl, que señala que se centra demasiado en el individuo. “No tiene en cuenta el escenario económico o la necesidad de la organización colectiva alrededor del valor y el ejercicio de los datos”. Aun así, rebate el europarlamentario Tang, puede ser muy efectiva si establecemos “autoridades que funcionen correctamente” y velen por su cumplimiento. Porque si algo ha logrado esta normativa es estimular el mundo digital, “llevándole a adoptar toda una nueva visión sobre el valor de la información personal y la importancia de la privacidad”.
Para el profesor de derecho Orbach, “lo más importante es la presión que ejerce sobre Estados Unidos”, que, de momento, no ha conseguido frenar y remediar los problemas sobre privacidad y protección de datos. Esto se debe, principalmente, a que no cuenta con una mayoría en el Congreso que apruebe propuesta alguna al respecto. Como señala el director del think tank de Yale, es muy difícil derrocar “el partidismo y la influencia de la industria tecnológica” que impera en Washington. Pese a sus siempre buenas declaraciones de intenciones, los gigantes tecnológicos hacen lo posible para que la mayoría de sus actividades empresariales queden fueran del alcance normativo. Es la fórmula Andy Grove, que tan bien explicaba a un medio de comunicación estadounidense Eric Schmidt cuando todavía era CEO de Google. Cuenta que en una cena con el entonces director ejecutivo de Intel (Grove), este expuso que las compañías tecnológicas funcionan tres veces más rápido que los negocios normales y que el gobierno lo hace tres veces más lento que tales negocios, por lo que existe una diferencia de nueve veces. Lo que estas empresas quieren, remataba, es estar seguras de que el gobierno no va a inmiscuirse y ralentizar las cosas. Parece que tampoco van a dejar que las organizaciones hagan amagos de democratizar su funcionamiento, como corrobora el director de EPIC. “En 2009 ayudamos a Facebook a establecer una serie de reglas de gobernanza democrática. Obtuvimos el consentimiento de [Mark] Zuckerberg para permitir a los usuarios votar cambios en las prácticas de la compañía”, pero al final “[Zuckerberg] se retractó”.
¿Cuánto más habrá que esperar para que se produzca un cambio de mentalidad de gobiernos, individuos y organizaciones que, desencantados con la forma en la que funcionan las cosas, promuevan una transformación? ¿Qué tiene que pasar para poner de manifiesto que la imperante dinámica del mundo online no puede continuar? Tal vez, la pandemia que estamos viviendo en 2020 sirva para replantear el modelo de sociedad (no solo digital) en el que vivimos y devolver cierta dignidad a sus ciudadanos y usuarios.