Empresas

El algoritmo indiscreto llega para quedarse

Ilustración: Fatal Constrictor

Por privilegiados que sean los cerebros de los ingenieros y desarrolladores de Facebook, Amazon, Google y compañía, ni siquiera la suma de sus capacidades les permitiría deducir, estudiando toda una biblioteca virtual de datos, los gustos e intereses de millones de usuarios. Lo que sí tienen es la receta para cocinar herramientas tecnológicas que hagan por ellos esta labor, sin la que la red social no podría mostrarte publicaciones relevantes, la plataforma de ecommerce, recomendarte productos ni el buscador devolverte –ordenados– los resultados de tus pesquisas.

Si la matemática británica Ada Lovelace, creadora del primer algoritmo de la historia hace casi dos siglos, levantara la cabeza, sin duda quedaría perpleja al conocer la increíble evolución de su retoño y el grado de repercusión que ha alcanzado. Los algoritmos constituyen hoy la base de la automatización, la inteligencia artificial y el machine learning una rama de la primera que permite a las máquinas aprender a partir de grandes volúmenes de datos.

Su adopción, que promete un salto en productividad y eficiencia, se ha extendido a numerosos sectores de la mano de internet y el big data. De la tradicional publicidad en la red de redes –campañas de marketing y anuncios personalizados–, los algoritmos han pasado a irrumpir en ámbitos tan dispares como los recursos humanos, la justicia, el mercado bursátil, el diagnóstico médico o la seguridad nacional.

Según la firma de análisis de mercado International Data Corporation, el gasto en inteligencia artificial en todo el mundo alcanzará los 19.100 millones de dólares (casi 17.000 millones de euros) este año, lo que supone un aumento de más del 50% respecto al 2017. En el 2021, la cifra habrá crecido hasta rebasar los 50.000 millones de dólares, alrededor de 43.167 millones de euros.

Los beneficios que puede llegar a suponer el empleo de estas herramientas tecnológicas para las empresas, tanto en términos monetarios y de competitividad, no son baladíes. De acuerdo a las estimaciones de McKinsey, alrededor del 35% de las compras en Amazon  tienen su origen en las sugerencias personalizadas que su algoritmo brinda a los usuarios. El sistema de recomendaciones de Netflix ahorra a la compañía unos 1.000 millones de dólares (863.185 millones de euros) en marketing y el éxito de grandes nombres como Google y Facebook sería impensable sin sus mimados algoritmos.

Los datos como combustible

“Un algoritmo es algo más complejo que una fórmula matemática; esta tiene que traducirse a código [de programación] y el software resultante entrenarse con un determinado set de datos”, explica Lorena Jaume-Palasi, fundadora de la organización con sede en Berlín Algorithm Watch y miembro del equipo de expertos que asesora al Ejecutivo español sobre inteligencia artificial. Una vez completado este proceso, pueden utilizarse para identificar patrones, resolver problemas complejos y automatizar tareas.

En internet, estas herramientas son las encargadas de analizar, tratar y comerciar con los datos personales y de actividad de los usuarios para sacarle todo el jugo. Las grandes plataformas utilizan toda esta información como moneda de cambio para ofrecerles servicios aparentemente gratuitos.

Los algoritmos inteligentes permiten mostrar a los usuarios anuncios personalizados según sus preferencias, estimadas, a su vez, a partir de las huellas que dejan en el mundo virtual: los productos que suelen comprar, las publicaciones a las suelen dedicarle un me gusta o las últimas palabras que escribieron en la barra del explorador. Si influir en los posibles clientes ha sido desde siempre el principal objetivo de la publicidad, invertir miles de millones en el desarrollo de algoritmos ha permitido a gigantes como Google y Facebook tejer en internet una tupida red de persuasión.

Pero no son los únicos cuyo negocio depende de esta tecnología. Uber la utiliza para gestionar su flota de vehículos, LinkedIn para seleccionar a los mejores candidatos para un puesto y Tinder para encontrar a personas que puedan congeniar como pareja. Y la adopción de herramientas de automatización e inteligencia artificial figura en la hoja de ruta de digitalización de la mayoría de empresas –sobre todo, en aquellas que manejan grandes volúmenes de datos– y organizaciones como bancos o administraciones públicas.

Los algoritmos han llegado para quedarse. Sin embargo, más allá de sus múltiples beneficios, traen consigo riesgos asociados a su naturaleza y, en muchos casos, a una todavía incipiente comprensión de su funcionamiento y repercusión real. La complejidad que entrañan hace necesario contar, tanto para su desarrollo como para su ejecución, con diferentes perfiles profesionales –matemáticos, informáticos, científicos de datos…–. Una interdisciplinaridad que, según Jaume-Palasi, “de momento, no es común”.

Así es como la automatización “incrementa el margen de error y provoca una dispersión en la atribución de responsabilidades a la hora de tomar decisiones. Ahora hay más personas implicadas”, señala la experta. Un fallo en cualquiera de los niveles puede dar lugar a soluciones incorrectas o sesgadas, pérdidas económicas, de reputación y de confianza.

Una objetividad solo aparente

La conocida como discriminación algorítmica, un efecto producido por la perpetuación y amplificación de un prejuicio social por parte de los programas, sin que este haya sido previsto ni introducido por sus creadores, es una de las consecuencias más comunes. El problema tiene su raíz en los datos de los que aprenden las herramientas y que pueden esconder tendencias que luego el software reproduce.

Jaume-Palasi advierte que “no hay ningún algoritmo que no tenga sesgo”. El fenómeno está detrás de las diferencias de índole racista que la Universidad de Harvard detectó hace un par de años en la plataforma de alquiler turístico Airbnb, donde los usuarios negros recibían menos dinero por los alojamientos que anunciaban. Pero uno de los ejemplos más sonados es el de Compas (de Correctional Offender Management Profiling for Alternative Sanctions), un sistema empleado por la justicia estadounidense para estimar el riesgo de reincidencia de los criminales. En el 2016, la organización de periodismo de investigación ProPublica denunció que la herramienta tendía a asignar mayores tasas de peligrosidad a los prisioneros negros, equivocándose entre un 24 y un 45% más que con los caucásicos.

Los problemas de este tipo surgen también cuando los algoritmos aprenden a partir de datos correspondientes a una cultura, pero se aplican luego en un contexto diferente. Por eso, el sistema de identificación de imágenes de Google comenzó a categorizar a personas afroamericanas como gorilas o los programas de reconocimiento facial de Microsoft distinguen peor a las mujeres con piel oscura, según pudo comprobar un investigador del MIT a principios de año.

En el campo del procesamiento del lenguaje, un claro ejemplo de error de diseño es el del chatbot inteligente Tay, desarrollado por IBM para aprender del comportamiento humano en Twitter e interactuar con otros usuarios a través de su cuenta, como uno más. Después de solo 16 horas, la empresa tecnológica tuvo que cerrar su perfil por la gran cantidad de tuits sexistas y exaltadores del racismo que profería. Su algoritmo había asimilado muy bien los patrones a imitar, pero nadie le había enseñado a distinguir cuáles eran los correctos.

La falta de transparencia es otra de las sombras del empleo de algoritmos cada vez más complejos: para referirse a ella, se ha acuñado el término black box effect o efecto caja negra. El concepto sacado del mundo aeronáutico se refiere al empleo de algoritmos manteniendo en secreto su modus operandi, es decir, sus responsables desvelan el resultado o predicción que proporcionan –por ejemplo, la selección del mejor candidato para un puesto–, pero no cómo los algoritmos llevan a cabo exactamente el proceso que devuelve esa solución.

Apple, Google y Microsoft son las marcas más valiosas del mundo

Si bien la empresa Northpointe, responsable del algoritmo Compas, rebatió duramente las acusaciones de ProPublica, se negó a revelar los entresijos del programa, aludiendo a intereses comerciales. El entramado de las herramientas de Google o Facebook siguen siendo todo un misterio que ambas compañías, como la mayoría, prefieren mantener en secreto. En el campo de la inteligencia artificial y el deep learning, ni siquiera los ingenieros que crean el software son capaces de explicar con certeza cómo y por qué proporciona unos u otros resultados. Mucho menos las empresas y organizaciones que contratan el servicio a terceros, haciéndose con una de estas cajas negras, de cuyo funcionamiento interno poco o nada conocen.

Bases para un marco ético y legal

Los algoritmos ejecutan decisiones que determinan movimientos en bolsa, la contratación o despido de trabajadores en empresas, la asignación de seguros de salud, la concesión de créditos o la conducción de coches autónomos. Sus dictámenes influyen así en empresas y ciudadanos que no siempre saben los criterios que los han llevado a ser elegidos o excluidos en un proceso. Un resultado, cuya veracidad, sin embargo, no suele ponerse en duda, pues un software se entiende como un ente objetivo, carente de los sentimientos e ideas que podrían condicionar a los humanos en sus determinaciones.

Pero los errores están a la orden del día. Por eso, expertos como Jaume-Palasi trabajan para crear herramientas que permitan evaluar el funcionamiento y detectar posibles sesgos de los programas cuyas soluciones tienen un impacto social. Sin embargo, este tipo de análisis son todavía escasos. “Hasta ahora, solo se han hecho de forma mínima. Las auditorías deberían realizarse de manera continua y mucho más holística”, apunta la también integrante del grupo de trabajo sobre inteligencia artificial de la Unión Europea.

Tanto los gobiernos de los países miembro como la UE estudian cómo sentar unas bases tecnológicas, estrategias y los principios éticos sobre los que erigir medidas regulatorias que aplicar en escenarios presentes y futuros. El pasado año, los estados miembros firmaban una declaración de cooperación en materia de inteligencia artificial, mientras que un mes después era la Comisión quien publicaba un paquete de medidas que contempla, junto con estrategias para fomentar la inversión pública y privada en esta tecnología –1.500 millones de euros para el período 2018-2020 en el marco del programa Horizonte 2020–, los retos éticos y jurídicos que acarrea.

Según Jaume-Palasi, ya existen leyes que tratan la automatización, pero esta cuestión se incluirá en cada vez más áreas, a medida que las herramientas se extienden y aplican en nuevos campos. Para esta experta, la clave no está en poner límites a los algoritmos, sino en considerar “el conflicto social en el que se emplea la tecnología, el uso que se hace de ella en la sociedad”, indica. Por eso las directrices europeas se fundamentan en la Carta de los Derechos Fundamentales de la Unión e incluyen principios relativos a la transparencia y la salvaguarda de la información, que también abarca el Reglamento General de Protección de Datos, en vigor desde mayo.

En opinión de Richard Benjamins, embajador de Datos e Inteligencia Artificial de Telefónica, “son temas difíciles de regular, porque es difícil establecer dónde hay que poner la frontera”. Una cuestión controvertida, por ejemplo, es hasta qué punto deben las empresas dar a conocer los detalles de sus herramientas. “Si es para uso propio, para su negocio, entonces entra en juego el secreto industrial, pero si el interés público está en juego como, por ejemplo, en temas de salud, es importante entender por qué los algoritmos llegan a sus conclusiones”, explica el experto.

Aunque no es el primero, el de China es un ejemplo de cómo esta tecnología puede llevarse al extremo en materia de vigilancia y categorización de las personas. El Gobierno del país asiático está trazando un plan para que, en el 2020, un algoritmo asigne a los ciudadanos una especie de puntuación social que definirá su valor como empleados, clientes o inquilinos de un inmueble.

La iniciativa china se encuadra en la idea que el think tank británico Fundación para una Nueva Economía denomina scored society (algo así como sociedad puntuada o calificada) en su informe ‘What’s Your Score?’, que analiza el alcance de los sistemas de clasificación algorítmicos. Mientras tanto, los sistemas de reconocimiento de imagen amplían las posibilidades de la vigilancia masiva, también empleada por el Gobierno asiático como herramienta de control social. Un escenario propio de una novela de ciencia ficción que ya ha tomado forma en la vida real.