En la columna de hoy, analizo un artículo publicado recientemente en el blog de Sam Altman, que ha generado bastante revuelo y controversia en la comunidad de la IA. Como director ejecutivo de OpenAI, Sam Altman es considerado una figura destacada en el campo de la IA, y su perspectiva sobre el futuro de esta tiene un peso enorme. Su último comentario en línea contiene algunas indicaciones sorprendentes sobre el estado actual y futuro de la IA, incluyendo aspectos parcialmente cubiertos por el lenguaje de la IA y otros términos de expertos que requieren una interpretación y traducción cuidadosas.
Hablemos de ello.
Este análisis de un avance innovador en IA es parte de mi cobertura en curso en la columna de Forbes sobre lo último en IA, incluida la identificación y explicación de varias complejidades impactantes de IA (ver el enlace aquí ).
Hacia la IAG y la IAA
En primer lugar, se requieren algunos fundamentos para sentar las bases de este debate.
Se está investigando mucho para seguir avanzando en la IA. El objetivo general es alcanzar la inteligencia artificial general (IAG) o incluso la remota posibilidad de alcanzar la superinteligencia artificial (ISA).
La IAG es una IA que se considera equivalente al intelecto humano y que aparentemente puede igualar nuestra inteligencia. La IAA es una IA que ha superado el intelecto humano y sería superior en muchos, si no en todos, los aspectos posibles. La idea es que la IAA podría superarnos a nosotros mismos al ser más ingeniosa que nosotros en todo momento. Para más detalles sobre la naturaleza de la IA convencional en comparación con la IAG y la IAA, consulte mi análisis en el enlace aquí .
Aún no hemos alcanzado el IAG.
De hecho, se desconoce si alcanzaremos la IAG, o si tal vez sea alcanzable en décadas o quizás siglos. Las fechas de consecución de la IAG que circulan varían enormemente y carecen de fundamento, en gran medida, con evidencia creíble o lógica irrefutable. La IAG está aún más lejos de alcanzar la situación actual con la IA convencional.
Sam Altman revuelve el avispero
En una nueva publicación del 10 de junio de 2025, titulada “La suave singularidad” de Sam Altman en su blog personal, el famoso pronosticador de IA hizo estas observaciones (extractos):
- Hemos superado el horizonte de sucesos; el despegue ha comenzado. La humanidad está cerca de construir una superinteligencia digital, y al menos hasta ahora es mucho menos extraña de lo que parece.
- La IA contribuirá al mundo de muchas maneras, pero los beneficios para la calidad de vida que obtendrá al impulsar un progreso científico más rápido y una mayor productividad serán enormes; el futuro puede ser mucho mejor que el presente.
- En términos generales, la capacidad de una persona para lograr mucho más en 2030 de lo que podía en 2020 será un cambio sorprendente, y muchas personas sabrán cómo beneficiarse de ello.
- “Así es como funciona la singularidad: las maravillas se convierten en rutina, y luego en lo básico”.
- “Es difícil siquiera imaginar hoy lo que habremos descubierto en 2035; tal vez pasemos de resolver física de alta energía un año a comenzar la colonización espacial el año siguiente; o de un gran avance en la ciencia de los materiales un año a verdaderas interfaces cerebro-computadora de alto ancho de banda el año siguiente”.
- “Necesitamos resolver los problemas de seguridad, tanto a nivel técnico como social, pero también es crucial distribuir ampliamente el acceso a la superinteligencia, dadas las implicaciones económicas”.
Hay muchísimo por desempacar ahí.
Su artículo de opinión, redactado de forma optimista, contiene comentarios sobre muchas consideraciones indecisas, como la referencia al horizonte de eventos de la IA mal definido e indeterminado, los impactos de la superinteligencia artificial, varias fechas promocionadas que sugieren cuándo podemos esperar que las cosas realmente despeguen, pensamientos confusos sobre la naturaleza de la singularidad de la IA y mucho más.
Exploremos brevemente los elementos principales.
El supuesto horizonte de eventos
Una gran pregunta para quienes se dedican a la IA es si vamos por buen camino para alcanzar la IAG y la IEA. Quizás sí, quizás no. La referencia de Sam Altman al horizonte de eventos de la IA alude al camino actual en el que nos encontramos, y afirma inequívocamente que, en su opinión, no solo hemos alcanzado dicho horizonte, sino que ya lo hemos superado con creces. Como se afirma, el despegue ha comenzado.
Solo para que quede claro, esa es una afirmación que implica una enorme audacia y descaro, y no todos en IA están de acuerdo con ese punto de vista.
Considere estas facetas vitales.
En primer lugar, a favor de esta perspectiva, algunos insisten en que la llegada de la IA generativa y los grandes modelos lingüísticos (LLM) demuestra claramente que estamos encaminados hacia la IAG/ASI. La increíble fluidez en lenguaje natural que muestran las capacidades computacionales de los LLM contemporáneos parece indicar claramente que el camino a seguir debe conducirnos hacia la IAG/ASI.
Sin embargo, no todos están convencidos de que los LLM sean la vía adecuada. Existe la preocupación de que ya estemos presenciando dificultades respecto a la extensión de la IA generativa (véase mi cobertura en el enlace aquí) . Quizás nos estemos encontrando con un obstáculo importante, y los esfuerzos continuos no nos proporcionarán más rentabilidad.
Peor aún, podríamos estar equivocados y dirigirnos completamente en la dirección equivocada.
Nadie puede afirmar con certeza si vamos por buen camino. Es una suposición. Pues bien, Sam Altman ha dejado claro que vamos indiscutiblemente por buen camino y que ya hemos recorrido un buen trecho. Los cínicos podrían considerar esta perspectiva egoísta, ya que refuerza y reafirma la dirección que OpenAI está tomando actualmente.
El tiempo lo dirá, como dicen.
La postulada singularidad de la IA
Otra consideración en el campo de la IA es que quizás exista una singularidad que sirva como punto clave en el que la IA general o la IA despuntarán con facilidad, demostrando claramente que hemos encontrado el camino correcto. Para mi explicación detallada de la singularidad postulada de la IA, consulte el enlace aquí .
Algunos creen que la singularidad de la IA será casi instantánea, en fracciones de segundo, más rápida de lo que el ojo humano puede observar. En un momento dado, estaremos trabajando arduamente para impulsar la IA, y de repente, ¡quizás!, se produce la singularidad. Se concibe como una especie de explosión de inteligencia, donde la inteligencia genera rápidamente más inteligencia. Tras la singularidad, la IA será muchísimo mejor de lo que era. De hecho, podría ser que tengamos una IAG o IEA completa gracias a la singularidad. Un segundo antes, teníamos IA simple, mientras que un instante después, sorprendentemente, tenemos IAG o IEA entre nosotros, como un conejo salido de una chistera.
Aunque quizá la singularidad sea una actividad larga y prolongada.
Hay quienes especulan que la singularidad podría comenzar y luego tardar minutos, horas o días en completarse. Se desconoce el factor tiempo. Quizás la singularidad de la IA tarde meses, años, décadas, siglos o incluso más en desplegarse gradualmente. Además, podría no existir nada parecido a una singularidad, y simplemente estemos inventando una teoría disparatada sin fundamento real.
La publicación de Sam Altman parece sugerir que la singularidad de la IA ya está en marcha (o tal vez ocurra en 2030 o 2035) y que será un fenómeno emergente gradual, en lugar de instantáneo.
Interesante conjetura.
Las fechas de AGI y ASI
Actualmente, los esfuerzos para predecir cuándo se alcanzarán la IAG y la ISA se basan generalmente en anticipar las tendencias predominantes de la IA y calcular a gran escala las posibles fechas. Tenga en cuenta que las fechas hipotéticas tienen muy poca base empírica.
Hay muchos expertos en IA que hacen predicciones descaradas sobre la fecha de la IAG/IEA. Estas profecías parecen estar convergiendo hacia el año 2030 como fecha objetivo para la IAG. Vea mi análisis de esas fechas en el enlace aquí .
Un enfoque algo más discreto para la estrategia de adivinar fechas es mediante encuestas o sondeos a expertos en IA. Este enfoque de la sabiduría popular es una forma de consenso científico. Como explico en el enlace aquí , las últimas encuestas parecen sugerir que los expertos en IA, en general, creen que alcanzaremos la IAG para el año 2040.
Dependiendo de cómo se interprete la última entrada del blog de Sam Altman, no está claro si la IAG se materializará en 2030 o 2035, o si se trata de IEA en lugar de IAG, ya que se refiere a superinteligencia, que podría ser su forma de expresar IEA o quizás IAG. Existe cierta confusión a la hora de diferenciar IAG de IEA. De hecho, ya he tratado sus cambiantes definiciones asociadas con IEA e IEA, es decir, el cambio de enfoque, en el enlace aquí .
Sabremos cómo resultaron las cosas en tan solo 5 o 10 años. Anoten la fecha en sus calendarios.
Todo son rosas y ninguna espina real
Un elemento de la publicación que ha irritado, especialmente a los éticos de la IA, es que la era de la IAG y la IAS parece presentarse como puramente inspiradora y alegre. Nos encontramos en una singularidad apacible. Sin duda, son buenas noticias para el mundo en general. Nos espera la utopía.
Pero esa moneda tiene una cara claramente distinta.
Los expertos en IA se dividen actualmente en dos bandos principales respecto al impacto de alcanzar la IAG o la IEA. Un bando está formado por los pesimistas de la IA. Estos predicen que la IAG o la IEA buscarán exterminar a la humanidad. Algunos se refieren a esto como «P(doom)», que significa la probabilidad de fatalidad, o que la IA nos aniquile por completo, también conocido como el riesgo existencial de la IA o riesgo x.
El otro grupo incluye a los llamados aceleracionistas de la IA.
Suelen afirmar que la IA avanzada, concretamente la IAG o la IAS, resolverá los problemas de la humanidad. Curará el cáncer, sí, por supuesto. Superará el hambre mundial, sin duda. Veremos enormes ganancias económicas, liberando a la gente de la monotonía de las tareas cotidianas. La IA trabajará en estrecha colaboración con los humanos. Esta IA benévola no usurpará a la humanidad. Este tipo de IA será el último invento de la humanidad, pero eso es bueno en el sentido de que la IA inventará cosas que jamás hubiéramos imaginado.
Nadie puede decir con certeza qué bando tiene razón y cuál no. Este es otro aspecto polarizante de nuestra época contemporánea. Para mi análisis a fondo de ambos bandos, consulte el enlace aquí .
Se puede discernir fácilmente de qué lado está la publicación, es decir, las rosas y el buen vino.
Un conjunto de opiniones y conjeturas
Es importante evaluar cuidadosamente la multitud de pronunciamientos y proclamaciones que se hacen sobre el futuro de la IA. A menudo, la redacción parece afirmar descaradamente que el futuro es completamente conocido y predecible. Con un toque de ingenio y confianza, muchos de estos pronósticos pueden malinterpretarse fácilmente como un montón de hechos y conocimientos, en lugar de un conjunto de opiniones y conjeturas.
Franklin D. Roosevelt afirmó sabiamente: «Hay tantas opiniones como expertos». Estén atentos y sean prudentes ante todas las profecías sobre el futuro de la IA.
Estarás inmensamente contento de haber sido cauteloso y estar alerta.
