Después de que Italia se convirtiera el viernes en el primer país occidental en bloquear el chatbot avanzado ChatGPT por falta de transparencia en su uso de los datos, la pregunta en Europa es: ¿Quién le seguirá?

La decisión ya ha inspirado a varios países vecinos.

«En pocos días, especialistas de todo el mundo y de un país, Italia, intentan frenar la progresión meteórica de esta tecnología tan prodigiosa como inquietante», escribe el diario francés Le Parisien.

Varias ciudades francesas ya han iniciado sus propias investigaciones «para evaluar los cambios provocados por el ChatGPT y las consecuencias de su uso en el marco de la acción local», informa Ouest-France.

La ciudad de Montpellier quiere prohibir ChatGPT para el personal municipal, como medida de precaución», informa el periódico. «El software ChatGPT debería prohibirse en los equipos municipales, considerando que su uso podría ser perjudicial».

La comisión irlandesa de protección de datos, según la BBC, está haciendo un seguimiento con el regulador italiano para entender la base de su acción y «se coordinará con todas las autoridades de protección de datos de la Unión Europea (UE)» en relación con la prohibición.

También la Oficina del Comisario de Información, el regulador de datos independiente del Reino Unido, declaró a la BBC que «apoyaría» los avances en IA, pero que también estaba dispuesta a «cuestionar el incumplimiento» de las leyes de protección de datos.

ChatGPT ya está bloqueado en varios países como China, Irán, Corea del Norte y Rusia.

Ley de Inteligencia Artificial de la UE

La UE está preparando la Ley de Inteligencia Artificial, una legislación «para definir qué IA puede tener consecuencias sociales», explica Le Parisien. «Esta futura ley debería permitir, en particular, luchar contra los sesgos racistas o misóginos de los algoritmos y programas de inteligencia artificial generativa (como ChatGPT)».

La Ley de Inteligencia Artificial también contempla el nombramiento de un regulador por país encargado de la inteligencia artificial.

El caso italiano

La autoridad italiana de protección de datos explicó que prohibía e investigaba ChatGPT por problemas de privacidad relacionados con el modelo, creado por la startup estadounidense OpenAI, una empresa respaldada por miles de millones de dólares de inversión de Microsoft.

La decisión «con efecto inmediato» anunciada por la Autoridad Nacional Italiana para la Protección de Datos Personales se tomó porque «el robot ChatGPT no respeta la legislación sobre datos personales y no dispone de un sistema para verificar la edad de los usuarios menores de edad», informó Le Point.

«La medida de la agencia, que es independiente del Gobierno, convirtió a Italia en el primer país occidental en tomar medidas contra un chatbot impulsado por inteligencia artificial«, escribió Reuters .

El organismo de control italiano dijo que no sólo bloquearía el chatbot de OpenAI, sino que también investigaría si cumplía con el Reglamento General de Protección de Datos de la UE.

Protección de menores

Añade que la nueva tecnología «expone a los menores a respuestas absolutamente inadecuadas en comparación con su grado de desarrollo y conocimiento».

El comunicado de la Autoridad italiana explica además que el veinte de marzo ChatGPT «sufrió una pérdida de datos («violación de datos») relativa a las conversaciones de los usuarios y a la información relativa al pago de los abonados al servicio de pago».

También señala «la ausencia de una base jurídica que justifique la recogida y almacenamiento masivos de datos personales con el fin de «entrenar» los algoritmos subyacentes al funcionamiento de la plataforma».

ChatGPT se presentó al público en noviembre y rápidamente fue adoptado por millones de usuarios impresionados por su capacidad para responder con claridad a preguntas difíciles, imitar estilos de escritura, escribir sonetos y trabajos e incluso aprobar exámenes. ChatGPT también puede utilizarse para escribir código informático sin tener conocimientos técnicos.

La locura en torno a ChatGPT

«Desde su lanzamiento el año pasado, ChatGPT ha desatado una locura tecnológica, incitando a rivales a lanzar productos similares y a empresas a integrarlo o utilizar tecnologías parecidas en sus apps y productos», escribe Reuters.

«OpenAI, que desactivó ChatGPT para los usuarios en Italia tras la petición de la agencia, dijo el viernes que trabaja activamente para reducir el uso de datos personales en el entrenamiento de sus sistemas de IA como ChatGPT«.

El organismo de control italiano pide ahora a OpenAI que «comunique en un plazo de veinte días las medidas adoptadas» para remediar esta situación, o se arriesga a una multa de veinte millones de euros o de hasta el 4% de la facturación anual mundial, según Euronews.

El anuncio se produce mientras la agencia policial europea Europol advertía el lunes de que los delincuentes estaban dispuestos a aprovecharse de chatbots de inteligencia artificial como ChatGPT para cometer fraudes y otros ciberdelitos.

Desde el phishing a la desinformación y el malware, es probable que las capacidades en rápida evolución de los chatbots sean rápidamente explotadas por aquellos con intenciones maliciosas, advirtió la Europol en un informe.