Con los datos disponibles, olvídate, no hay inteligencia artificial (IA) que pueda apañárselas para dominar el mundo. El problema no son los algoritmos, o los modelos de lenguaje extenso (LLM), o Copilot, o las gafas de Mark Zuckerberg, sino la información con la que deben trabajar. Es ya difícil dominar una instalación compleja como una empresa o una red eléctrica, como para ponerse a mandar en una sociedad entera.
Cuando Repsol encargó un plan de mantenimiento predictivo para una de sus refinerías, con el objetivo de alargar de cuatro a seis años esas costosas paradas generales de puesta a punto, se encontró con que la IA le pedía un buen dataset con una recopilación de las variables disponibles de funcionamiento de las máquinas y lo que se conoce como “eventos”.
Al mirar lo que había dentro de la planta tuvo que admitir que, en algún caso, los datos sólo se venían generando y recopilando desde hacía dos años. Se trata de una situación muy habitual. El 51% de los proyectos de implantación de la IA deben su éxito a la exactitud de los conjuntos de datos que utilizan, según la consultora Appen, pero los propios directivos creen que sólo el 6% de esos datos tienen un nivel de fiabilidad superior al 90%.
La mayoría de las empresas tienen la información en los sistemas heredados on premise y en la nube. Desde que la IA generativa hizo saltar las costuras de la economía tradicional, las mejor gobernadas andan ocupadas en integrarlos, encontrar sentido al maremágnum de información y asegurarse de que puede confiar en ellos. El 42% de los tecnólogos tienen dificultades para obtener datos de calidad, debido a la cantidad de canales de los que provienen, añade Appen.
En el caso de la refinería, apareció una dificultad añadida: las áreas de información (IT) y mantenimiento no se ponían de acuerdo sobre cuáles debían ser los datos a entrenar. Repsol acabó configurando un equipo técnico multidisciplinar en el que metió, atención, a responsables de producción, ingenieros del fabricante de la maquinaria, analistas de vibraciones, especialistas en fiabilidad dinámica y de la instrumentación y control y expertos la metodología AMFE y FMEA, que es el análisis de los modos de fallo. Así están las cosas.
La clave es que la eficiencia no basta, porque hay que actuar con velocidad. En el último Big Data LDN de Londres, Abi Gilbertson, analista técnico de McLaren Racing, explicaba que su equipo de Fórmula 1 recopila datos de 300 sensores de telemetría, que generan 100.000 parámetros de información y 1,5 terabytes cada fin de semana de carrera. Luego se analizan utilizando el software de automatización.
Chris Roberts, director de TI de la Fórmula 1, nos decía también, en el Gartner Symposium de Barcelona, en conversación con Dougie Cooper-Kelly, de Tata Technologies, que la organización aprovisiona y desconecta la conectividad en cada circuito en nueve días. Extiende una red de fibra de hasta 60 kilómetros que envía entre 500 y 600 terabytes directamente al RTC (remote technical centre) ubicado en Reino Unido. A ver quién iguala eso.
Calidad de los datos y agilidad en su procesamiento, de acuerdo, pero hay una pregunta inicial que cabe responder: ¿de quién es la información que generan las máquinas y aun las personas en una empresa? Delicada cuestión esta. El Gobierno alemán encargó a Uwe Seidel, del IIT de Berlín, que se hiciera cargo del área de Legal Challenges, dentro del programa tecnológico Smart Service World I, para fijar criterio al respecto.
El punto de partida es obvio: los datos de producción de las máquinas de una empresa se recopilan en la nube de un proveedor externo. La empresa es la propietaria de ellos y el proveedor de servicios en la nube solo es responsable de su procesamiento. Pero ¿y si el fabricante de la máquina quiere acceder a los datos para mejorar su diseño? O se regula por ley o por contrato individual, y ahí suelen imponerse las compañías más grandes.
La Unión Europea acaba de publicar en enero la Ley de Datos para tratar de poner orden en este asunto. Establece que los organismos del sector público podrán disponer y utilizar los datos en poder del sector privado en caso de emergencias públicas o al implementar una ley. Pero, sobre todo, protege a las empresas de cláusulas contractuales abusivas en los contratos de intercambio de datos y permite cambiar, eventualmente de forma gratuita, de proveedor de nube.
El sector eléctrico es uno de los más acuciados en España por el cambio en el paisaje de los datos. El rectificador de tensión TPS 500 de Zigor que utiliza Iberdrola incorpora mucha más conectividad que antes, porque los vehículos eléctricos deben comunicarse con el entorno. Red eléctrica y de telecomunicaciones, electrones y datos, se están hibridando de forma espectacular.
Eso implica el desafío de la ciberseguridad. Tras analizar 24 ataques a la cadena de suministro, la Agencia de la UE para el Mapeo de la Ciberseguridad, concluyó que el 58% tenía como objetivo acceder a los datos.
¿Y qué pasa con la información que generan los empleados? ¿Se rigen por el RGPD, porque prima la privacidad de las personas; o por la relación que tenga el fabricante de maquinaria y la empresa, como cualquier otra información del proceso productivo, con la posibilidad de aplicar sanciones al trabajador por bajo rendimiento? Uwe Seidel es partidario de anonimizar al menos parte de la información.
Se estima que el mercado del enmascaramiento de datos alcanzará ya un valor de 435 millones de dólares en 2025, con una tasa de crecimiento anual compuesta del 15%. Incluso las pymes, las pequeñas tiendas online, tendrán que emplear soluciones para anonimizar datos, como la mezcla aleatoria de caracteres, el cifrado o la variación de valores.