Tecnología

Marcos éticos para la IA: ¿Son lo suficientemente buenos?

¿Habrá más regulación? ¿De dónde vendrá? ¿Y cuál prevalecerá: el modelo de código abierto o el de código cerrado?

Foto: Getty

A trompicones, el mundo está empezando a tomar conciencia del impresionante poder de las redes neuronales para cambiar nuestras vidas. Eso significa encontrar respuestas adecuadas y determinar cómo tratarán los gobiernos algo que antes no existía en las sociedades.

Pensemos, por ejemplo, en lo que sucedería si todos los ciudadanos de un país tuvieran de repente visión de rayos X. ¿Cómo cambiaría eso la ley y la ética, y cómo respondería y se adaptaría la comunidad?

En este caso, contamos con normas en evolución destinadas a desarrollar soluciones globales para el uso de la inteligencia artificial (IA) en todo el mundo. Una de las fuentes es el Instituto Nacional de Estándares y Tecnologías de EE UU (NIST, por sus siglas en inglés), donde hace aproximadamente un año se puso en marcha un proyecto denominado ‘Plan para el compromiso global en materia de normas de IA’.

«Reconociendo la importancia de las normas técnicas en la configuración del desarrollo y el uso de la IA, la Orden Ejecutiva del Presidente de octubre de 2023 sobre el desarrollo y el uso seguro y fiable de la IA pide ‘un esfuerzo coordinado… para impulsar el desarrollo y la aplicación de normas consensuadas relacionadas con la IA, la cooperación y la coordinación, y el intercambio de información’ a nivel internacional», escriben los portavoces.

¿Qué hay más allá de nuestras fronteras?

Bueno, los países BRICS, un conjunto de países en desarrollo que forman un bloque económico, han creado su propio estándar. El Estándar BRICS sobre Gobernanza Global de la Inteligencia Artificial representa un esfuerzo político por parte de Brasil, Rusia, India, China, Sudáfrica, Arabia Saudita, Egipto, Emiratos Árabes Unidos, Etiopía, Indonesia e Irán. (La coalición BRIC original incluía a los cuatro primeros países mencionados).

Avanzando en la regulación de la IA

En una reciente mesa redonda de Imagination in Action en Stanford, los participantes debatieron sobre la realidad actual y por qué es importante seguir trabajando en una serie de iniciativas destinadas a establecer barreras de seguridad para el uso de la IA.

«Sin barreras de seguridad reguladoras, es como el salvaje oeste«, afirmó Sanmi Koyejo, profesor adjunto de Stanford. «La gente cree que le gustará más, pero en realidad, a menudo no sabe qué hacer en este salvaje oeste, porque no está claro dónde están los límites del comportamiento y la razonabilidad. Y creo que una regulación clara… sin duda facilitaría su adopción en muchos lugares, … (mostrando) cuáles deben ser las normas y el comportamiento, dónde recae la responsabilidad y algunas de estas cuestiones».

«Es muy preocupante», afirmó Russell Wald, director ejecutivo de Stanford HAI, sobre la consolidación de las partes interesadas, y pidió un entorno más amplio con múltiples partes interesadas. «Se necesita una comunidad de código abierto sólida y dinámica«.

Trabajando en soluciones

Al principio de la presentación, Wald habló sobre la colaboración entre las oficinas estatales y el trabajo que algunas naciones están realizando por su cuenta en materia de regulación de la IA, calificando la labor del Gobierno federal de EE UU como una especie de «retroceso», pero matizando esta afirmación en un par de aspectos importantes.

«Está claro que esta nueva administración (federal de EE UU) ha dado un paso atrás significativo con respecto a la administración Biden», dijo, «(pero) hubo un retroceso a nivel mundial. … hubo una gran divergencia con respecto a donde habíamos llegado, y… algunas personas pueden haber sentido que, en lo que respecta a la regulación, donde se estaba incorporando la seguridad, tal vez no se estaba aplicando en las áreas más adecuadas u óptimas. … Creo que se produjo una especie de cambio radical y un ligero cambio de tono».

En lugar de un esfuerzo federal concertado, Wald sugirió que los estados tomarán el relevo.

«Por parte del gobierno federal, existe la posibilidad de que no ocurra nada en este ámbito», afirmó. «Pero lo que vemos es que, en la UE, la Ley de IA ha avanzado y otros países están aplicando medidas. Y luego, en Estados Unidos, vemos que los estados están trabajando activamente en ello».

Otra colaboración proviene del sector empresarial.

«Sin duda, gran parte del ecosistema en torno a las mejores prácticas lo está creando la industria», respondió a una pregunta de la moderadora Krystal Hu sobre la falta de regulación. «Una vez que algunos estados cuenten con directrices reguladoras claras, creo que eso tendrá un efecto. Pero, por ahora, gran parte de ello está sucediendo a través de empresas que están dialogando entre sí y de expertos en seguridad que están reflexionando sobre cuáles deberían ser las prácticas de gobernanza adecuadas».

Puso como ejemplo un proyecto activo en este ámbito.

«Estoy ayudando a un pequeño grupo que está experimentando con los seguros basados en la IA, que es una nueva y divertida versión de esta cuestión, a reflexionar sobre los precios de los seguros… porque ahora se puede convertir en dinero que alguien va a pagar… para entender cómo podría ser la infraestructura de gobernanza adecuada, cómo podrían ser las pruebas, y otras cuestiones similares. Pero diría que sí, que en este momento se está dejando (en gran medida) en manos de la industria la tarea de resolverlo».

Las vulnerabilidades de los datos son perjudiciales para las empresas

«Las empresas están preocupadas por cómo se utilizan los datos para entrenar el modelo», dijo Rehan Jalil, de Securiti. «¿Qué pasaría si sus datos se utilizaran para entrenar el modelo y, digamos, otra empresa hiciera preguntas similares y obtuviera respuestas basadas en el modelo que se entrenó con datos de empresas anteriores? Es una preocupación lógica, ¿no? Nadie querría exponer sus datos privados a las respuestas de otra persona. Por eso se han incorporado muchas medidas de protección».

Ella describió algo llamado «protección empresarial» que, según ella, cuenta con el respaldo de Google:

«Usted obtiene su propia versión contenida de un modelo, lo que significa que todos los resultados serán sus resultados», afirmó.

El panelista Max Nadeau abordó la idea de las brechas de financiación y otras cuestiones relacionadas con el desarrollo de este tipo de sistemas empresariales.

«Hay muchos obstáculos para que estas evaluaciones sean tan realistas y difíciles como queremos, y el coste es uno de los más importantes», afirmó.

Sin bola de cristal

Todos estos planteamientos nos dan una idea de lo que nos depara la IA, pero hay muchas preguntas sin respuesta. ¿Habrá más regulación? ¿De dónde vendrá? ¿Y cuál prevalecerá: el modelo de código abierto o el de código cerrado?

Parte de ello tendrá que ver con la privacidad de los datos. Parte tendrá que ver con los incentivos económicos. Y parte tendrá que ver con la política. Todo ello se traduce en una gran caja negra, algo así como gran parte del comportamiento modelo que realmente no comprendemos del todo. Estén atentos.

Artículos relacionados