Tecnología

Elon Musk y otros expertos en tecnología piden parar el entrenamiento de la Inteligencia Artificial

La carta pide específicamente una pausa de al menos seis meses en el entrenamiento de sistemas de IA más potentes que el GPT-4 de Open AI, con los gobiernos preparados para intervenir y aplicar una prohibición.

Un grupo de expertos en inteligencia artificial (IA) y ejecutivos tecnológicos, entre ellos Elon Musk, han firmado una carta abierta en la que piden una pausa en el desarrollo de los sistemas de IA.

El escrito, que ya cuenta con más de mil firmantes, ha sido publicada por el Future of Life Institute, una organización sin ánimo de lucro dedicada a «dirigir la tecnología transformadora hacia el beneficio de la vida y alejarla de riesgos extremos a gran escala».

Entre los firmantes figuran Steve Wozniak, cofundador de Apple, y Elon Musk, consejero delegado de Twitter, así como investigadores de DeepMind, propiedad de Alphabet, y expertos en aprendizaje automático, como Yoshua Bengio y Stuart Russell.

La carta pide específicamente una pausa de al menos seis meses en el entrenamiento de sistemas de IA más potentes que el GPT-4 de Open AI, con los gobiernos preparados para intervenir y aplicar una prohibición.

«Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada, rigurosamente auditados y supervisados por expertos externos independientes», reza el escrito.

«Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes y con capacidades emergentes».

Los expertos también reclaman sistemas de gobernanza más sólidos, que deberían incluir, como mínimo, nuevas autoridades reguladoras dedicadas a la supervisión y el seguimiento de la IA; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las filtraciones de modelos, y un sólido ecosistema de auditoría y certificación.

Los proveedores deben asumir la responsabilidad de los daños causados por la IA y debe haber una sólida financiación pública para la investigación técnica de la seguridad de la IA. Por último, deben crearse instituciones dotadas de los recursos necesarios para hacer frente a las «dramáticas» perturbaciones económicas y políticas que probablemente causará la IA.

Regulación heterogénea

En la actualidad, la regulación de la IA es muy heterogénea. En Estados Unidos, a principios de este mes, la Cámara de Comercio pidió más regulación para evitar que la IA obstaculice el crecimiento económico o se convierta en un riesgo para la seguridad nacional.

«La IA se utiliza cada vez más por todos los actores importantes en todos los aspectos de nuestra economía y sociedad, tanto a nivel nacional como mundial», dice el informe.

«Sin embargo, en muchos sentidos, en términos de tecnología, impacto económico y desarrollo de políticas de IA, estamos en las fases iniciales de una nueva era».

En el Reino Unido, mientras tanto, el Gobierno ha descartado la creación de un nuevo organismo dedicado a la gobernanza de la IA. En su lugar, está pidiendo a los reguladores existentes en diversos campos, como la Comisión de Igualdad y Derechos Humanos y la Autoridad de Competencia y Mercados, que desarrollen sus propios enfoques sectoriales.

Sin embargo, en la UE avanzan los planes para una nueva Ley de IA, así como una regulación más estricta de la calidad de los datos, la transparencia, la supervisión humana y la rendición de cuentas.

Aunque es muy poco probable que la carta abierta consiga sus objetivos, pone de manifiesto el malestar generalizado que suscitan las tecnologías de IA y aumenta la presión en favor de una mayor regulación.

«La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad», escriben los autores. «Podemos hacerlo aquí».

Artículos relacionados