La revolución de la inteligencia artificial (IA) llegó a su máxima expresión con la aparición estelar de ChatGPT, un sistema de chat que funciona con el modelo de lenguaje GPT-3 desarrollado por la empresa OpenAI. Una herramienta configurada y entrenada con más de 175 millones de parámetros e infinidad de textos con los que realiza tareas relacionadas con el lenguaje: desde la traducción hasta la generación de un escrito.
Este chatbot sofisticado de IA generativa puede entender y hablar con los humanos de manera bastante precisa, simulando una especie de charla o diálogo en la vida real, respondiendo a preguntas y realizando tareas conversacionales gracias a su capacidad de comprensión y proyección del lenguaje natural.
Los peligros de la IA del momento
ChatGPT, como Santo Grial en la generación de textos, que podría sustituir servicios de búsqueda como Google, ha suscitado amor y miedo a partes iguales, eclipsando este último la romantización tecnológica a la que ha sido sometida. Pues esta herramienta conlleva una serie de peligros y riesgos dentro de su sistema digital, que han sido probados por varias empresas de ciberseguridad. Éstas descubrieron que esta inteligencia artificial es capaz de generar correos electrónicos con archivos fraudulentos que contengan virus y contaminen o roben datos.
Y es que, más allá de todas las especulaciones o teorías subyacentes sobre cómo impactará esta herramienta en el trabajo humano, en puestos como la redacción, la atención al cliente o la programación informática, el ChatGPT colisiona en el campo de la ciberseguridad a través de ciberataques dirigidos a empresas y particulares.
En este sentido, ¿hasta qué punto el uso de estos sistemas puede ser seguro para los usuarios o empresas, como espacios virtuales en los que queda registrado para siempre toda la información o los datos que proporcionamos? De ahí se derivan precisamente los riesgos de seguridad y de privacidad que podrían suponer tanto la divagación de toda esa información personal recopilada, como la exposición a los usuarios a contenido inapropiado y a amenazas de seguridad por parte del malware, del fraude o del robo de datos.
Dentro de ese espectro sombrío del ChatGPT, la creación de bots maliciosos podría engañar a personas para que compartiesen esa información personal o financiera, e incluso atacarles mediante el phishing o la ingeniería social, operando a través de perfiles falsos con los que persuadir o hacer que los usuarios compartan datos. Por no hablar de la posibilidad de usarlo como una vía con la que infringir la ley o ejercer actividades legales.
Finalmente, como sucede con todo producto tecnológico o herramienta social, los usuarios de ChatGPT podrían caer en la adicción de este chatbot revolucionario mediante esa especie de conexión crónica que acabe afectando a su vida social y laboral. Porque no es oro todo lo que reluce.