Entra en ebullición la ola de la inteligencia artificial generativa. La puesta en circulación de la nueva versión del ingenio desarrollado por OpenAI, el GPT-4, está siendo el catalizador del estallido. En redes sociales aparecen relevantes figuras de la tecnología exponiendo conversaciones inquietantes con la máquina, como la del profesor de Stanford Michal Kosinski en la que ayuda al sistema de IA a escribir código Python en su ordenador… para poder escapar de su “encierro” a través de él.
Investigadores de OpenAI y la Universidad de Pennsylvania acaban de publicar un paper sobre el impacto de GPT-4 en el mercado de trabajo y sus conclusiones son, igualmente, turbadoras. En torno al 80% de la fuerza laboral de Estados Unidos podría ver afectadas al menos el 10% de sus tareas, y más aún: para alrededor del 19% de los trabajadores podría resultar impactada al menos el 50% de su actividad por el desarrollo de esa inteligencia artificial.
Aunque el estudio reconoce su carácter preliminar y la cantidad de condicionantes que inciden en sus conclusiones, se atreve a señalar a las ocupaciones con salarios más altos como las que tienen el mayor nivel de exposición. Especialmente si no requieren habilidades científicas y pensamiento crítico.
GPT-4 se cebaría, en fin, con el empleo de las industrias de procesamiento de información, mientras que la manufactura, la agricultura y la minería mostrarían una exposición más baja. La buena noticia es que las ganancias en productividad que promete todavía no justificarían el daño que podría causar, según el paper. Tiempo al tiempo.
A los especialistas les interesará saber por último que, tras apenas unos meses de contacto con el mundo, los investigadores de OpenAI sentencian que GPT es una tecnología de propósito general. Cumple con los tres criterios básicos para ello: mejora a lo largo del tiempo, está omnipresente en toda la economía y es capaz de generar innovaciones complementarias. Estaríamos hablando de una nueva era tecnológica para la humanidad.
Hablé con Nicholas Negroponte, fundador del MIT Media Lab y pionero de muchas de las tecnologías de la revolución digital, justo cuando acababa de estallar el escándalo del entonces director del prestigioso centro de innovación, Joi Ito. Había aceptado fondos del inversor, posteriormente condenado por abusos sexuales, Jeffrey Epstein, y a ese error sumó el de intentar ocultar el asunto a la sociedad norteamericana, que es capaz culturalmente de soportar cualquier pecado excepto la mentira (porque distorsiona la libre competencia).
Tras dimitir, y apenas regresado a Japón, Joi Ito fundó el Henkaku Center for Radical Transformation, en el Chiba Institute of Technology. Y ahí sigue, provocando la interacción de innovadores procedentes del arte, la ciencia y el emprendimiento, sumergido en la Web3 y reflexionando sobre las cuestiones de nuestro tiempo. Fuera del circuito estadounidense, por supuesto. Siempre he dicho que montar un Media Lab no es un problema de dinero.
Negroponte recordó en nuestra conversación sus paseos por el campus del MIT con Marvin Minsky uno de los padres de la inteligencia artificial moderna. No hablaban de coches autónomos, me dijo, sino del humor y de la capacidad de conmoción de la música. Era otra forma de pensar sobre el pensamiento.
Cuando llegó el tema de las consideraciones éticas acerca de aquello que estaban inventando en Boston, vistas ahora con perspectiva sus consecuencias, emergió su perfil de pragmático visionario: “Algunas veces en mi mundo, más que en otros en efecto, haces cosas porque puedes. Así es. Bingo. No porque deberías, no porque alguien lo pida, no porque estás resolviendo un problema, no porque hay mercado. No. Lo haces porque puedes”.
Son muchos los ejemplos en los que la investigación científica y tecnológica ha actuado sin preocuparse por las consecuencias, sin visión estratégica, sólo por superar un desafío, como hacían Negroponte y Minsky. El español José Hernández-Orallo es investigador del Centre for the Study of Existential Risk de la Universidad de Cambridge. Allí analizan escenarios como el de qué sucedería si la inteligencia artificial alcanza niveles de crecimiento exponencial, se convierte en algo mucho más inteligente que todos los seres humanos juntos y es capaz, si le estorbamos, de acabar con todos nosotros.
Comentaba recientemente Hernández-Orallo ante un grupo reducido de personas que, de momento, es más probable que impacte un asteroide en la Tierra (también estudian ese escenario) a que eso suceda. Pero en el caso de la inteligencia artificial, nos decía, ya se han empezado a levantar voces en la academia pidiendo que se ralentice su ritmo “porque además está en muy pocas manos y hay un riesgo muy claro”. Enlentecer una tecnología que avanza de forma autónoma, sin nosotros, más deprisa de lo que podemos controlar.
Es enorme la cantidad de innovación que se debe desplegar frecuentemente, en efecto, para paliar las consecuencias de una tecnología diseñada sin considerar las consecuencias. Quizás mayor que la que incentiva esa propia tecnología, lo cual da que pensar. El ejemplo más claro es el de la ciberseguridad. Internet se creó sin tenerla en consideración y aún estamos pagando ese error. Un problema que se extiende al mundo físico: se sigue diseñando componentes para el internet de las cosas, e incluso para el vehículo conectado, sin pensar desde el principio en la seguridad. Innovar es muchas veces una fiesta, pero hay que recoger las colillas.