Tech

Europa a la cabeza en la regulación de la Inteligencia Artificial

La principal contribución consiste en dividir la aplicación de la Inteligencia Artificial (IA) en cuatro pilares, desde inofensiva a muy perjudicial.
Salida de un sistema de Inteligencia Artificial de Google Vision, realizando Reconocimiento Facial en una fotografía de un hombre, con rasgos faciales identificados y cuadros delimitadores faciales presentes, San Ramón (California), 22 de noviembre de 2019. (Foto: Smith Collection/Gado/Getty Images)

Pasé el comienzo de la semana en el imponente edificio Stormont de Belfast. Ha sido el centro del poder en Irlanda del Norte durante casi cien años, y alberga la Asamblea de Irlanda del Norte, que notoriamente no se ha reunido desde hace más de un año, algo que a la gran mayoría de los habitantes de Irlanda del Norte les gustaría ver rectificado. A pesar de esto, la economía local es fuerte (el desempleo es del 2,7%) y este fin de semana habrá en la ciudad una conferencia de inversión liderada por Estados Unidos, que entre muchas otras cosas, demuestra el dividendo económico de la caída del riesgo geopolítico.

Por desgracia, Irlanda del Norte es un caso atípico, ya que el riesgo geopolítico está aumentando en todo el espectro internacional. Uno de los recordatorios más claros de que nos encontramos en un entorno de «guerra por otros medios» es la actual «guerra de los chips«, cuya última salva ha consistido en la prohibición del Gobierno chino del uso de iPhones por parte de los empleados públicos (presumiblemente como forma de influir en Estados Unidos al mismo tiempo que Huawei lanza un nuevo teléfono insignia).

Ley de Inteligencia Artificial de la UE

A pesar de ello, me ha llamado la atención la falta de interés de las empresas europeas (grandes y medianas) por la geopolítica.

En los mercados, el riesgo geopolítico rara vez ha sido un factor importante en los últimos cuarenta años, debido al viento de cola de la globalización (no ha habido guerras entre democracias y los mercados emergentes han seguido una senda de crecimiento). Los acontecimientos que señalaron las grietas de la globalización –el brexit y la guerra comercial de Trump– eran riesgos que los inversores necesitaban medir. Además, como la inflación ha aumentado, la ausencia de flexibilización cuantitativa ha hecho que los mercados sean más sensibles al riesgo geopolítico.

En el mundo multipolar actual, en el que la competencia estratégica es cada vez más la norma, los riesgos geopolíticos se ciernen sobre los mercados: desde el riesgo de que Donald Trump se acerque a la reelección hasta el impulso de la tecnología china en Europa (han llegado los coches BYD), pasando por el reajuste de las industrias europeas de defensa, aeroespacial y de tecnologías verdes debido a la guerra de Ucrania. Muchos de estos riesgos son acontecimientos que requieren una respuesta y un reajuste, otros son más existenciales.

Una importante fuente de riesgo es la forma en que los gobiernos reaccionan ante tecnologías de referencia como la Inteligencia Artificial (IA). La forma en que se enmarca y vigila el uso (y abuso) de estas tecnologías puede determinar la forma de las industrias del futuro.

Como pionera en materia de regulación, la respuesta de Europa a la IA es la Ley de IA de la UE, cuya principal contribución consiste en dividir la aplicación de la IA en cuatro pilares, desde inofensiva a muy perjudicial (similar al uso que hace China de la IA para la calificación social del crédito). El hecho de que Europa haya sido la primera en actuar sienta las bases para otras iniciativas reguladoras de la IA, como la que está llevando a cabo Chuck Schumer en Estados Unidos y el documento «Hiroshima» del G7 japonés sobre la IA.

Confusión

Un área de intenso debate y cierta confusión que se ha abierto es el trato que reciben las empresas –de software, medios de comunicación, datos– que no necesariamente «generan» contenidos de IA de manera formal, pero que están en el centro de muchos de sus procesos. No está claro hasta qué punto la Ley de Inteligencia Artificial las regulará, y la Unión Europea (UE) aún no ha dado detalles al respecto. De hecho, es muy posible que sean las empresas las que intenten tomar la iniciativa en sus propios sectores a la hora de establecer la forma en que tratarán y utilizarán la IA (telecomunicaciones, minoristas con grandes conjuntos de datos, por ejemplo).

Otra fuente de confusión radica en el uso de la IA por parte de empresas de nueva creación, especialmente fuera de Francia (irónicamente), que se esfuerza por convertirse en un centro de innovación en IA (cuenta aquí con un rico mercado laboral y el respaldo de empresarios clave). Su argumento es que la Ley podría limitar la innovación de las nuevas empresas. Una respuesta a esto puede ser un sistema de «zona de pruebas» en el que se permita a las empresas jóvenes innovar en una zona de pruebas regulatoria, hasta un cierto nivel de comercialización. Una cuestión relacionada que está surgiendo es el acceso de los investigadores a los modelos (y datos), y si podríamos empezar a ver una mayor coordinación de la UE al respecto.

También necesitamos más detalles sobre la gobernanza. Es posible que exista una Oficina de Inteligencia Artificial de alto nivel en la UE, con Oficinas de Inteligencia Artificial estatales, o que, para complicar más las cosas, algunos países aboguen por tener una Oficina de Inteligencia Artificial para subsectores (inteligencia artificial en telecomunicaciones, inteligencia artificial en banca, por ejemplo). Esto aún no está resuelto.

Una señal inequívoca de que la IA se está convirtiendo en terreno de competencia entre las grandes naciones es que el Reino Unido está tratando de convertirse en el «epicentro» de la regulación de la IA, en el sentido de que está señalando que quiere ser el coordinador de la actividad reguladora internacional, y del mismo modo que Ginebra acoge a la OMS, la OMC, quiere ser el centro neurálgico de las normas de IA.

La Cumbre sobre IA de Bletchley (1 y 2 de noviembre) será un hito importante en este sentido. Si el Reino Unido tuviera que acoger físicamente un organismo regulador internacional, ¿por qué no hacerlo en Irlanda del Norte?

Artículos relacionados