Opinión Paula Garralón

La mística del algoritmo

La mística de la feminidad fue una narrativa. La mística del algoritmo es una métrica. Ambas, en el fondo, hacen lo mismo: decidir quién cuenta y quién no.

La inteligencia artificial se cuela en lo cotidiano: una tecla que promete respuestas, pero también puede reforzar nuestras propias certezas.

En 1963, Betty Friedan puso nombre a algo que millones de mujeres sentían pero no podían articular. Lo llamó «el problema que no tiene nombre»: esa discrepancia entre la realidad de sus vidas y la imagen a la que estaban tratando de amoldarse, la que la sociedad dictaba para ellas. Una horma moral difundida por revistas, publicidad y libros de autoayuda que describían lo «esencialmente femenino» y esperaban que todas las mujeres cupieran dentro.

Las hijas y herederas de las sufragistas, aquellas que debían haber recogido el testigo de una generación que luchó por el voto y la presencia en la esfera pública, acabaron deprimidas por las reuniones para practicar el ensamblado de tuppers y la compra perfecta de cosméticos Avon. La libertad conquistada se había evaporado en una nueva trampa con mejor presentación.

Sesenta años después, la horma ya no viene impresa en papel satinado. Viene entrenada.

Cuando hablamos de inteligencia artificial, solemos hablar de futuro. Pero todo modelo de IA es, en su esencia, un espejo del pasado: aprende de datos históricos, y los datos históricos están impregnados de las desigualdades de quienes los produjeron, recopilaron y etiquetaron. Caroline Criado Pérez lo formuló con una precisión que debería estar grabada en la puerta de todos los laboratorios tecnológicos del mundo: «La desigualdad de género es, en gran medida, un problema de datos.» Y fue más lejos: «La falta de datos sobre mujeres no es casual; es el resultado de quién ha tenido el poder de decidir qué se mide.»

Esto no es una crítica filosófica. Es una descripción técnica con consecuencias prácticas e inmediatas. La IA que hoy ayuda a los médicos a diagnosticar, escanea currículums y realiza entrevistas a posibles candidatos se ha aprobado con grupos de datos que están plagados de brechas. Cuando automatizas el pasado, conviertes la desigualdad histórica en infraestructura.

La brecha de datos de género es, a la vez, causa y consecuencia del pensamiento que concibe a la humanidad como casi exclusivamente masculina. Incluso en este mundo supuestamente racional, dirigido por ordenadores supuestamente imparciales, las mujeres siguen siendo el segundo sexo. Y los peligros de que se las relegue, en el mejor de los casos, a un subtipo de hombres son tan reales como siempre lo han sido. Aquí está el giro incómodo: la promesa de objetividad del algoritmo puede ser la nueva «mística». Cuando te dicen «no es la sociedad, es el modelo», se intenta cerrar un debate político con un barniz matemático. La neutralidad como argumento de autoridad es, quizás, la horma más difícil de combatir: no tiene cara, no tiene nombre, y se presenta como inevitabilidad técnica.

Si hay un lugar donde todo esto converge con la mayor urgencia es en la infancia digital. Las niñas de hoy no crecen con las revistas que Friedan analizaba. Crecen con algoritmos de recomendación que aprenden, en tiempo real, qué contenido genera más tiempo de pantalla, más interacción, más dependencia emocional. Y lo que aprenden es que ciertos cuerpos, ciertos comportamientos y cierta imagen de lo femenino «funcionan mejor». La lógica es idéntica a la de las revistas de los años cincuenta. La escala y la personalización son incomparablemente mayores. La horma ya no es universal: es tuya, calibrada para ti, diseñada para que sientas que el problema eres tú y no el sistema. Las herederas de las sufragistas se deprimieron entre tuppers y cosméticos Avon. Las herederas de aquellas herederas pueden deprimirse ante un feed que ha aprendido exactamente qué inseguridades pulsar.

Friedan habló de «la libertad y las expectativas nuevas de las mujeres, la agenda actual de la democracia feminista». Esa agenda, en 2026, no puede ignorar el espacio donde se toman buena parte de las decisiones que moldean vidas: los sistemas automatizados de contratación, crédito, diagnóstico, visibilidad, contenido. La democracia feminista hoy se llama: derecho a saber cómo funciona el sistema que te evalúa, derecho a impugnar una decisión automatizada, derecho a que los datos que te representan sean correctos, completos y no estén plagados de ausencias, derecho a que las niñas no sean tratadas como materia prima de optimización.

No basta con que más mujeres usen IA. Necesitamos más mujeres —y más perspectiva de género— en los equipos que la diseñan, en los comités que la auditan, en las mesas donde se decide qué se mide y qué desaparece. Porque si no estamos en la mesa, estaremos en los datos que alimentan el modelo. Y si los datos están mal, el modelo nos hará invisibles. Y lo invisible, como ya sabemos, no desaparece: simplemente deja de contar.

Paula Garralón, abogada de Nuevas Tecnologías en Bird & Bird