Como a mucha gente, puede que recientemente te haya dejado boquiabierto la posibilidad de ChatGPT y otros grandes modelos lingüísticos como el nuevo Bing o el Bard de Google.
Para quien no se haya topado con ellos –lo cual es poco probable, ya que ChatGPT es la aplicación que más rápido ha crecido de todos los tiempos–, he aquí un breve resumen:
Los grandes modelos de lenguaje o LLM son algoritmos de software entrenados en enormes conjuntos de datos de texto, lo que les permite entender y responder al lenguaje humano de una forma muy realista.
El ejemplo más conocido es ChatGPT, una interfaz de chatbot basada en el LLM GPT-4, que ha causado sensación en todo el mundo. ChatGPT es capaz de conversar como un humano y generar desde entradas de blog, cartas y correos electrónicos hasta ficción, poesía e incluso código informático.
Por muy impresionantes que sean, hasta ahora los LLM estaban limitados en un aspecto importante: sólo suelen ser capaces de completar una tarea, como responder a una pregunta o generar un texto, antes de requerir más interacción humana (lo que se conoce como prompts).
Esto significa que no siempre son buenos para tareas más complicadas que requieren instrucciones en varios pasos o dependen de variables externas.
Auto-GPT es una tecnología que intenta superar este obstáculo con una solución sencilla. Algunos creen que puede ser el siguiente paso hacia el santo grial de la IA: la creación de una IA general o fuerte.
Las aplicaciones actuales de IA suelen estar diseñadas para realizar una sola tarea, en la que van mejorando a medida que reciben más datos. Algunos ejemplos son el análisis de imágenes, la traducción de idiomas o la conducción autónoma de vehículos. Por eso a veces se las denomina IA especializada, IA estrecha o IA débil.
Una IA generalizada es aquella que, en teoría, es capaz de realizar muchos tipos de tareas diferentes, incluso aquellas para las que no fue creada originalmente, del mismo modo que una entidad naturalmente inteligente (como un ser humano). A veces se denomina IA fuerte o inteligencia general artificial (AGI).
AGI es quizás lo que tradicionalmente pensábamos cuando imaginábamos cómo sería la IA en los días previos a que el aprendizaje automático y el aprendizaje profundo convirtieran la IA débil/estrecha en una realidad cotidiana a principios de la década anterior. Pensemos en la IA de ciencia ficción demostrada por robots como Data, el personaje de Star Trek, que puede hacer prácticamente cualquier cosa que pueda hacer un ser humano.
Entonces, ¿qué es la Auto-GPT?
La forma más sencilla de verlo es que Auto-GPT es capaz de llevar a cabo procedimientos más complejos y de varios pasos que las aplicaciones existentes basadas en LLM, creando sus propias instrucciones y devolviéndoselas a sí mismo, creando un bucle.
He aquí una forma de verlo: para obtener los mejores resultados de una aplicación como ChatGPT hay que pensar muy bien cómo formular las preguntas. Entonces, ¿por qué no dejar que sea la propia aplicación la que construya la pregunta? Y de paso, que pregunte cuál debe ser el siguiente paso y cómo debe hacerlo, y así sucesivamente, creando un bucle hasta completar la tarea.
Funciona dividiendo una tarea más grande en subtareas más pequeñas y creando instancias Auto-GPT independientes para trabajar en ellas. La instancia original actúa como una especie de gestor de proyectos, coordinando todo el trabajo realizado y compilándolo en un resultado final.
Además de utilizar GPT-4 para construir frases y prosa a partir del texto que ha estudiado, Auto-GPT es capaz de navegar por Internet e incluir la información que encuentra allí en sus cálculos y resultados. En este sentido, se parece más a la nueva versión con GPT-4 del motor de búsqueda Bing de Microsoft. También tiene mejor memoria que ChatGPT, por lo que puede construir y recordar cadenas de comandos más largas.
Auto-GPT es una aplicación de código abierto que utiliza GPT-4 y fue creada por Toran Bruce Richards. El autor dijo que se inspiró para desarrollarla porque los modelos tradicionales de IA, «aunque potentes, a menudo tienen dificultades para adaptarse a tareas que requieren planificación a largo plazo, o son incapaces de refinar de forma autónoma sus enfoques basándose en la retroalimentación en tiempo real».
Forma parte de una clase de aplicaciones que se están denominando agentes recursivos de IA porque tienen la capacidad de utilizar de forma autónoma los resultados que generan para crear nuevas indicaciones, encadenando estas operaciones para completar tareas complejas.
Otro agente de este tipo es BabyAGI, creado por un socio de una empresa de capital riesgo para ayudarle en tareas cotidianas demasiado complejas para algo como ChatGPT, como investigar nuevas tecnologías y empresas.
¿Cuáles son algunas aplicaciones de Auto-GPT y los agentes de IA?
Aunque aplicaciones como ChatGPT se han hecho famosas por su capacidad para generar código, tienden a limitarse a programaciones y diseños de software relativamente cortos y sencillos. Auto-GPT, y potencialmente otros agentes de IA que funcionen de forma similar, pueden utilizarse para desarrollar aplicaciones de software de principio a fin.
Auto-GPT también es capaz de ayudar a las empresas a aumentar su patrimonio de forma autónoma examinando sus procesos y haciendo recomendaciones inteligentes y reflexiones sobre cómo podrían mejorarse.
A diferencia de ChatGPT, también puede acceder a Internet, lo que significa que puedes pedirle que realice estudios de mercado o lleve a cabo otras tareas similares: por ejemplo, «encuéntrame el mejor juego de palos de golf por menos de 500 dólares».
Una tarea extremadamente disruptiva que se le ha encomendado es «destruir la humanidad», y la primera subtarea que se asignó para conseguirlo fue empezar a investigar las armas atómicas más potentes de todos los tiempos. Como su rendimiento se limita a la creación de texto, su creador nos asegura que no llegará muy lejos con esta tarea… esperemos.
Al parecer, Auto-GPT también puede utilizarse para mejorarse a sí mismo: su creador afirma que puede crear, evaluar, revisar y probar actualizaciones de su propio código que potencialmente pueden hacerlo más capaz y eficiente.
Incluso puede utilizarse para crear mejores LLM que podrían constituir la base de futuros agentes de IA, al acelerar el proceso de creación de modelos.
¿Qué puede significar esto para el futuro de la IA?
Desde que empezaron a surgir las aplicaciones de IA generativa, ha quedado claro que sólo estamos al principio de un viaje muy largo, en términos de cómo la IA evolucionará e impactará en nuestras vidas y en la sociedad.
¿Son Auto-GPT y otros agentes que siguen los mismos principios el siguiente paso de ese viaje? Parece probable. Como mínimo, podemos esperar que las herramientas de IA que nos permiten realizar tareas mucho más complejas que las cosas relativamente sencillas que puede hacer ChatGPT empiecen a ser habituales.
No tardaremos en ver productos de IA más creativos, sofisticados, diversos y útiles que los simples textos e imágenes a los que estamos acostumbrados. No cabe duda de que, con el tiempo, esto influirá aún más en nuestra forma de trabajar, jugar y comunicarnos.
Otros posibles efectos positivos son la reducción del coste y del impacto medioambiental de la creación de los LLM (y de otras actividades relacionadas con el aprendizaje automático) a medida que los agentes autónomos y recursivos de la IA encuentren formas de hacer más eficiente el proceso.
Sin embargo, también hay que tener en cuenta que por sí sola no resuelve realmente ninguno de los problemas asociados a la IA generativa. Entre ellos, la precisión variable (por decirlo amablemente) de los resultados que crea, el potencial de abuso de los derechos de propiedad intelectual y la posibilidad de que se utilice para difundir contenidos sesgados o perjudiciales. De hecho, al generar y ejecutar muchos más procesos de IA para realizar tareas de mayor envergadura, podrían magnificarse estos problemas.
Los problemas potenciales no acaban aquí: el eminente filósofo y experto en IA Nick Bostrom ha declarado recientemente que cree que la última generación de chatbots de IA (como GPT-4) está empezando a mostrar signos de sensibilidad. Lo que podría crear todo un nuevo dilema moral y ético si, como sociedad, nos planteamos empezar a crearlos y ponerlos en funcionamiento a gran escala.