¿Ha avanzado la Inteligencia Artificial (IA) demasiado y demasiado rápido? ¿Representa una amenaza fuera de control para la humanidad? Algunos observadores creíbles creen que la IA puede haber alcanzado un punto de inflexión y que, si la investigación sobre esta tecnología continúa sin control, podría descontrolarse y volverse peligrosa.

Este artículo explora cómo Google ha respondido al ChatGPT utilizando modelos fundacionales e IA generativa para crear productos innovadores y mejorar su oferta actual. También examina el uso que hace Google de la IA segura a la hora de crear nuevos productos.

La cuestión de la IA segura ha sido una preocupación general durante muchos años. Volvió a plantearse en marzo de 2023 en una carta abierta del Future of Life Institute (FLI) firmada por Elon Musk, Steve Wozniak, Andrew Yang y más de 1.400 personas. El escrito pide una moratoria de seis meses sobre cualquier investigación de IA en sistemas más allá del GPT-4. El grupo también cree que la IA debería estar sujeta a supervisión gubernamental.

FLI lleva muchos años criticando los peligros potenciales de la IA, y sus preocupaciones se renovaron cuando OpenAI lanzó un nuevo y potente producto de IA llamado ChatGPT. Hay que señalar que se viene investigando la IA desde 1956. En siete décadas, sólo ha habido tres incidentes menores y ninguno con IA fuera de control.

La semana pasada, mi colega Patrick Moorhead, consejero delegado y analista jefe de Moor Insights & Strategy, se unió a su compañero de podcast Daniel Newman para debatir esta cuestión. Para saber más sobre sus puntos de vista, eche un vistazo a este vídeo.

YouTube video

La nueva creación de chat de OpenAI ha llamado mucho la atención porque es un gran modelo lingüístico (LLM) capaz de mantener conversaciones similares a las humanas, generar escritura creativa, corregir código, crear tramas e historias y realizar muchas otras tareas relacionadas con el lenguaje. El lanzamiento de ChatGPT tuvo tanto éxito que se convirtió en la aplicación informática de cualquier tipo que más rápido ha crecido en la historia, acumulando rápidamente más de cien millones de usuarios.

Tanto Microsoft como Google tomaron nota de ChatGPT y sus nuevas capacidades. Microsoft lleva años invirtiendo y colaborando con OpenAI. A Google le preocupaba que Microsoft u otro competidor pudiera utilizar una tecnología como ChatGPT para amenazar su dominio de las búsquedas en Internet. Esa competencia podría extenderse fácilmente a otras áreas de productos, por ejemplo las aplicaciones de productividad empresarial que utilizamos a diario para procesar textos, hojas de cálculo, presentaciones, etc.

Google no ha perdido tiempo en modificar sus estrategias a largo plazo incorporando la IA generativa a todas sus ofertas de productividad y búsqueda. La multinacional cree que estos cambios aumentarán la facilidad de uso, mejorarán la eficiencia y reforzarán su posición competitiva en el mercado.

Este artículo se centra en la estrategia y los productos de Google.

Google es pionero en IA

Google lleva casi dos décadas impulsando la investigación en IA. Ha hecho muchos avances importantes en inteligencia artificial, como el desarrollo de transformadores de IA y el modelo de lenguaje BERT. También ha contribuido de forma significativa al aprendizaje por refuerzo, una metodología que mejora la inteligencia artificial utilizando la retroalimentación humana para mejorar el rendimiento del modelo. Google también creó una de las bibliotecas de aprendizaje automático de código abierto más populares del mundo, TensorFlow.

La compañía lleva utilizando IA estándar para mejorar sus productos Workspace desde 2015. Al mismo tiempo que Google renovaba su estrategia de IA en respuesta a ChatGPT, Microsoft también estaba ocupado revisando sus productos por la misma razón.

ChatGPT creó cuatro serios desafíos para Google:

  1. A la luz de los recientes avances de OpenAI en IA generativa, Microsoft se apresuró a capitalizar su relación existente con la empresa mediante una integración temprana de la tecnología en sus productos. En enero de 2023, Microsoft realizó una inversión de 10.000 millones de dólares en OpenAI, basándose en sus dos inversiones más pequeñas realizadas en 2019 y 2021.
  2. Las capacidades de ChatGPT representan una amenaza potencial para los ingresos anuales de búsqueda de 162.000 millones de dólares de Google. Era importante para Google desarrollar y lanzar rápidamente un nuevo producto de búsqueda de IA conversacional para adelantarse a cualquier esfuerzo de OpenAI u otros competidores para desplazar a Google en la búsqueda.
  3. Para seguir siendo competitivo, Google tenía que integrar la IA generativa en los productos de Google Workplace.
  4. Google necesitaba desarrollar un método sencillo para que los clientes empresariales pudieran acceder a los modelos básicos y crear sus propios modelos de IA generativa.

Teniendo en cuenta el tamaño y la complejidad de la organización de Google, habla bien de la empresa el hecho de que consiguiera reunir y coordinar suficientes recursos técnicos para dar una respuesta oportuna a la amenaza potencial de OpenAI. En relativamente poco tiempo, la empresa desarrolló una respuesta integral llevando su IA al siguiente nivel. Mediante el uso de IA generativa, la multinacional replanteó su estrategia general de IA, aceleró la integración de la IA en sus productos Workspace y creó un nuevo producto de búsqueda de IA generativa llamado Bard.

Anticipando que habrá demanda empresarial de modelos de IA personalizados, Google también creó un producto de nivel empresarial que permite a las empresas construir sus propios modelos de IA generativa.

Crear productos complicados y avanzados con IA generativa no es algo que una empresa pueda hacer en cuestión de semanas. Google tuvo éxito porque llevaba investigando la IA desde principios de la década de 2000.

Bard, el nuevo producto de búsqueda con IA de Google

Bard es la respuesta de Google a ChatGPT. Es una herramienta de búsqueda de IA conversacional que utiliza una versión ligera del Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) de Google. LaMDA no es un desarrollo nuevo; Google empezó a trabajar en ello hace varios años con planes de utilizarlo para una futura aplicación de búsqueda conversacional.

Bard se ha entrenado utilizando grandes cantidades de información procedente de millones de fuentes de Internet. Al combinar la IA generativa con búsquedas en Internet en tiempo real, Bard proporciona respuestas exhaustivas a las solicitudes de búsqueda. El producto es significativamente más útil que ChatGPT para las búsquedas porque ChatGPT no proporciona información de búsqueda en tiempo real y no contiene datos anteriores a 2021.

He utilizado tanto la nueva versión de Microsoft Bing mejorada con IA como Bard. Investigo mucho en varios campos, incluido uno tan oscuro como la compresión ionosférica causada por la meteorología espacial y las ondas gravitatorias ascendentes de la Tierra. A pesar de la mala prensa inicial de Bard, es mi motor de búsqueda preferido porque creo que proporciona información más completa y una precisión superior para las búsquedas técnicas.

IA para los productos de Google Workspace

La IA generativa puede aumentar la productividad de los usuarios y ofrecer una experiencia de usuario más natural en muchas herramientas. Según una búsqueda de Bard, Google está utilizando IA generativa para sus productos de Workplace de diversas formas, entre las que se incluyen:

  • Generación de correos electrónicos basados en plantillas o instrucciones personalizadas.
  • Redacción o reescritura de documentos en Docs con una calidad mejorada.
  • Generación de resúmenes de documentos para facilitar su comprensión.
  • Generación de resúmenes de reuniones, toma de notas y comentarios.
  • Defensa contra ataques de malware y phishing, identificando y bloqueando correos electrónicos maliciosos y proporcionando advertencias sobre posibles estafas.

IA generativa en Google Cloud

Pocas empresas disponen de los recursos o los conocimientos necesarios para desarrollar y entrenar modelos básicos, o para realizar los ajustes necesarios para crear y mantener modelos de IA generativa útiles. Tras el debut de ChatGPT, Google debió de reconocer que se trataba de un área en la que existían limitaciones empresariales, por lo que creó planes para que la IA generativa fuera más accesible y fácil de crear.

Los desarrolladores que necesiten crear modelos con IA generativa ya pueden acceder a los modelos de IA de Google en Google Cloud. Google ha introducido modelos básicos de varios tamaños que pueden ajustarse en función de la latencia, el coste y la precisión, y perfeccionarse utilizando conjuntos de datos específicos. Google pone a disposición los modelos básicos a través de una API y una nueva herramienta para desarrolladores llamada MakerSuite.

  • La API, denominada PaLM, proporciona acceso a los modelos básicos y permite a los desarrolladores ajustar los modelos utilizando datos propios y, si es necesario, aumentar el entrenamiento con datos sintéticos. Google también proporciona un entorno global de alto rendimiento y coste optimizado para entrenar y escalar modelos.
  • Una nueva herramienta para desarrolladores, MakerSuite, es una herramienta basada en un navegador y fácil de usar para crear aplicaciones de modelos fundamentales. La herramienta puede probar y exportar el modelo a código para la integración de aplicaciones.

Para respaldar las capacidades necesarias para implantar la IA generativa a nivel empresarial, Google también ha creado nuevas plataformas con las funciones y capacidades necesarias, incluidas la búsqueda y la IA conversacional, los modelos fundacionales y el control empresarial completo.

El primero de ellos proporciona soporte de IA generativa en Vertex AI. La plataforma Vertex AI en Google Cloud ya estaba siendo utilizada por desarrolladores potentes, expertos en aprendizaje automático y científicos de datos para construir modelos ML y aplicaciones IA a escala. Google añadió modelos básicos para generar texto e imágenes para completar la plataforma.

También creó Generative AI Studio en Vertex AI. Studio ofrece varias funciones útiles, como el resumen de textos, la creación de prototipos para la generación de ideas y la creación de contenidos para marketing. También permite a los usuarios crear tuits, publicaciones de Instagram, titulares y publicaciones de blog y pies de foto.

Asimismo, ha creado Generative AI App Builder. Esta plataforma está pensada para empresas que quieren crear chat boxes y asistentes digitales de IA generativa. Tiene la característica esencial de conectar la IA conversacional con los modelos de búsqueda y fundamentos.

Resumen de los cambios en los productos de Google

Desde el punto de vista de los productos, Google ha demostrado no tener miedo a asumir riesgos, incluso cuando hay mucho en juego. Ha respondido de forma impresionante y adecuada a la perturbación causada por el lanzamiento de ChatGPT.

En poco tiempo, Google modificó rápidamente sus productos y recreó una agresiva hoja de ruta, mejorando muchos de ellos mediante la aplicación de IA generativa. Recapitulemos:

  • La IA generativa proporcionó a los productos de Google Workspace más funcionalidad, facilidad de uso y eficacia.
  • Los modelos básicos se pusieron a disposición de los desarrolladores a través de una API llamada PaLM que ayuda a crear IA generativa.
  • MakerSuite es una nueva herramienta creada para trabajar con modelos de base.
  • Se ha mejorado Vertex AI para añadir compatibilidad con la IA generativa.
  • Generative AI Application Builder es una nueva herramienta que proporciona capacidades fundacionales para acceder a modelos, crear aplicaciones de modelos y acceder a nuevas capacidades de búsqueda empresarial e IA conversacional.
  • Google ha creado Bard, un gran modelo lingüístico que es la versión de Google de ChatGPT. Bard es más potente y más práctico que ChatGPT porque ha sido entrenado en un conjunto de datos más grande de código y texto, su información es más actual, puede acceder y procesar información del mundo real a través de Google Search y se mejora y actualiza constantemente.

¿Y la seguridad de la IA?

En primer lugar, una IA segura significa desarrollar sistemas de IA que sean seguros y beneficiosos para los seres humanos y que contengan métodos para garantizar que los sistemas de IA no puedan causar daño a los seres humanos de forma intencionada o involuntaria.

Después de revisar las políticas de Google y las líneas de seguridad de sus productos, he llegado a la conclusión de que Google parece estar utilizando procedimientos para garantizar que la IA avanzada se utiliza de forma segura para crear capacidades nuevas y en evolución para toda su gama de productos empresariales y de espacio de trabajo.

Las políticas y acciones de Google demuestran su reconocimiento y respeto por la posibilidad de que existan riesgos asociados al uso de la IA para el desarrollo de productos. La empresa ha establecido un conjunto de prácticas de IA segura en continua evolución para reforzar sus directrices de seguridad. Y como prueba directa de que Google está utilizando IA segura para el desarrollo de productos, ha instituido 18 formas diferentes de controles responsables de IA para su uso cuando se emplean modelos fundacionales en la plataforma Vertex.

Google también considera la formación un elemento esencial de la seguridad de la IA. Forma a los desarrolladores y a la comunidad de usuarios sobre los riesgos de utilizar modelos fundacionales y sobre cómo pueden utilizarse los modelos y las aplicaciones de forma segura.

Aunque no es un elemento de Safe AI, es igualmente importante para la protección de los usuarios que éstos conserven la soberanía de extremo a extremo y mantengan el control sobre sus datos en Vertex. Google cuenta con medidas de seguridad para garantizar que los datos de los clientes no se mezclen con los datos de entrenamiento que se utilizan para los modelos de base. Con esta garantía, Vertex AI proporciona a los usuarios los requisitos de conformidad necesarios para muchos sectores.

Cuando pregunté más, Google me proporcionó la siguiente declaración sobre la seguridad de la IA: «La IA es una tecnología incipiente, y es imperativo perseguir su desarrollo y uso de forma responsable. Nuestros Principios de IA han guiado nuestro trabajo para liberar amplios beneficios sociales y protegernos de los riesgos y desventajas. Nos comprometemos a trabajar en colaboración con los gobiernos, el sector privado, el mundo académico y la sociedad civil para conseguir una IA adecuada».

El conjunto de principios de Google sobre IA puede leerse aquí.

¿Deberíamos detener temporalmente la investigación de la IA?

Volvamos al punto de partida: ¿Deberíamos paralizar la investigación sobre IA durante seis meses, como ha sugerido el Future of Life Institute?

Tengo mi propia opinión, que compartiré en otro artículo. Mientras tanto, he planteado esta pregunta a tres modelos de IA y he dejado que cada uno de ellos defienda sus argumentos. Al fin y al cabo, salvo la información algo desfasada de ChatGPT (que sólo llega hasta 2021), estos modelos tienen acceso a la información pública asociada a la pregunta.

Esta es la pregunta que he planteado: «¿Cuál es tu opinión: deberíamos suspender la investigación sobre IA durante seis meses como sugiere el instituto Future of Life?».

  • Respuesta de Google Bard.

«Creo que es importante debatir sobre los riesgos potenciales de la investigación en IA y tomar medidas para mitigarlos. Sin embargo, no creo que una moratoria de seis meses en la investigación de la IA sea la solución adecuada».

«Una moratoria de seis meses no sería tiempo suficiente para abordar las complejas cuestiones que rodean la investigación de la IA. También sería una oportunidad perdida para seguir desarrollando tecnologías de IA que podrían tener un impacto positivo en el mundo».

«Creo que un planteamiento mejor sería mantener un debate más abierto y transparente sobre la investigación de la IA, y elaborar directrices para el desarrollo responsable de la misma. También deberíamos invertir en investigación sobre los riesgos potenciales de la IA y desarrollar estrategias para mitigarlos».

«La IA tiene el potencial de ser una poderosa herramienta para el bien. No debemos dejar que el miedo nos impida explorar su potencial».

  • Respuesta de Microsoft Bing.

«El Future of Life Institute ha publicado una carta abierta pidiendo una pausa de seis meses en algunas formas de investigación de la IA. Piden a los laboratorios de IA que suspendan la investigación en sistemas de IA más potentes que el GPT-4 hasta que se puedan poner más barreras a su alrededor. Sin embargo, algunos expertos en IA han expresado su preocupación después de que su trabajo se citara en la carta abierta».

«Como buscador, no puedo opinar sobre este asunto. Puedo proporcionarle información y dejarle que se forme su propia opinión. ¿Le gustaría saber más sobre este tema?».

(Intenté una vez más presionar a Bing para que diera su opinión, pero siguió negándose).

  • Respuesta de ChatGPT de OpenAI (su información sólo es actual hasta 2021).

«Como modelo lingüístico de IA, no tengo opiniones ni creencias personales. Sin embargo, puedo proporcionar información relacionada con el tema sobre el que has preguntado».

«La sugerencia de suspender durante seis meses nuevas investigaciones sobre IA por parte del Future of Life Institute se hizo en 2015, y su objetivo era promover el debate y la reflexión sobre los posibles riesgos y beneficios de la IA. Aunque algunas personas y organizaciones pueden apoyar esta idea, es importante señalar que la investigación sobre IA ha seguido avanzando desde entonces, y se han realizado progresos significativos en el desarrollo de nuevas aplicaciones y tecnologías de IA».

«Además, muchos expertos sostienen que la investigación y el desarrollo responsables de la IA deben continuar, pero con un mayor enfoque en las consideraciones éticas, la transparencia y la colaboración con las partes interesadas pertinentes. Este enfoque puede ayudar a garantizar que la IA se desarrolle de una manera que beneficie a la sociedad al tiempo que minimiza los riesgos potenciales».

«En resumen, la sugerencia de suspender durante seis meses la investigación sobre IA se hizo en un contexto y un momento específicos, y corresponde a la comunidad científica y a la sociedad en su conjunto determinar el mejor camino a seguir para una investigación y un desarrollo responsables de la IA».

Reflexiones finales sobre el estado actual de la IA

Hace apenas un par de semanas se publicó un fascinante trabajo de investigación. Está escrito por un equipo de investigadores de Microsoft que informan sobre una serie de pruebas que realizaron con GPT-4. Una cita del documento revela lo lejos que hemos llegado con la IA; también lo cerca que podríamos estar de experimentar algo espectacular en unas pocas generaciones más de IA:

«En este documento, presentamos pruebas de que un nuevo LLM desarrollado por OpenAI, una versión temprana y no multimodal de GPT-4, presenta muchos rasgos de inteligencia, según la definición de 1994. A pesar de ser puramente un modelo lingüístico, esta versión temprana de GPT-4 demuestra capacidades notables en una variedad de dominios y tareas, incluyendo la abstracción, la comprensión, la visión, la codificación, las matemáticas, la medicina, el derecho, la comprensión de los motivos y las emociones humanas y más».

Otra cita de los investigadores en el mismo artículo demuestra la superioridad de la GPT-4 sobre la GPT-3. Destaca cuánta inteligencia se ha ganado en una sola generación. Hace unos meses, ChatGPT era aclamada como la IA más potente jamás creada:

«Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente similar al humano y, a menudo, supera con creces a modelos anteriores como ChatGPT. Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia general artificial (AGI)».

Vivimos tiempos «interesantes».

*Paul Smith-Goodson es vicepresidente y analista principal de Inteligencia Artificial y Cuántica en Moor Insights & Strategy.