Abierta la convocatoria para el Forbes 30 Under 30, el mayor festival de talento joven del mundo
Tecnología

Cinco cosas que nunca debes decirle a la IA (y por qué)

El chatbot LLM, que conquista el mundo, ha sido descrito como un «agujero negro de la privacidad», con preocupaciones sobre la forma en que trata los datos introducidos por los usuarios, lo que incluso llevó a prohibirlo brevemente en Italia.

Getty Images

ChatGPT ha cambiado la forma en que muchos de nosotros trabajamos y vivimos nuestro día a día. Según estadísticas recientes, más de 100 millones de personas lo utilizan cada día para procesar más de mil millones de consultas.

Su creador, OpenAI, no oculta que los datos introducidos pueden no ser seguros. Además de utilizarse para seguir entrenando sus modelos, lo que podría exponerlos a otras personas, pueden ser revisados por humanos para comprobar si cumplen las normas sobre su uso. Y, por supuesto, cualquier dato enviado a un servicio en la nube es tan seguro como la seguridad del proveedor.

Esto significa que cualquier dato que se le introduzca debe considerarse información pública. Teniendo esto en cuenta, hay varias cosas que no se le deben decir nunca, ni a él ni a ningún otro chatbot basado en la nube pública. Repasemos algunas de ellas:

Solicitudes ilegales o poco éticas

La mayoría de los chatbots de IA cuentan con salvaguardas diseñadas para evitar que se utilicen con fines poco éticos. Y si tu pregunta o petición se refiere a actividades que podrían ser ilegales, es posible que te veas en apuros. Ejemplos de cosas que son definitivamente una mala idea preguntar a un chatbot público son cómo cometer delitos, llevar a cabo actividades fraudulentas o manipular a la gente para que tome medidas que podrían ser perjudiciales.

Muchas políticas de uso dejan claro que las solicitudes ilegales o el intento de utilizar la IA para llevar a cabo actividades ilegales pueden dar lugar a que los usuarios sean denunciados a las autoridades. Estas leyes pueden variar mucho según el lugar. Por ejemplo, las leyes chinas sobre IA prohíben utilizarla para socavar la autoridad del Estado o la estabilidad social, y la ley de IA de la UE establece que las imágenes o vídeos «deepfake» que parezcan ser de personas reales pero que, en realidad, estén generados por IA deben estar claramente etiquetados. En el Reino Unido, la Ley de Seguridad en Línea tipifica como delito compartir imágenes explícitas generadas por IA sin consentimiento.

Introducir solicitudes de material ilegal o información que pueda perjudicar a otros no sólo es moralmente incorrecto, sino que puede acarrear graves consecuencias legales y daños a la reputación.

Logins y contraseñas

Con el auge de la IA agéntica, cada vez seremos más los que utilicemos IA capaz de conectarse a servicios de terceros y utilizarlos. Es posible que para ello necesiten nuestras credenciales de inicio de sesión; sin embargo, darles acceso podría ser una mala idea. Una vez que los datos han entrado en un chatbot público, hay muy poco control sobre lo que ocurre con ellos, y se han dado casos de datos personales introducidos por un usuario que han quedado expuestos en respuestas a otros usuarios. Está claro que esto podría ser una pesadilla para la privacidad, así que, tal y como están las cosas, es una buena idea evitar cualquier tipo de interacción con la IA que implique darle acceso a nombres de usuario y cuentas, a menos que estés completamente seguro de que estás utilizando un sistema muy seguro.

Información financiera

Por razones similares, probablemente no sea una gran idea empezar a introducir datos como cuentas bancarias o números de tarjetas de crédito en los chatbots genAI. Éstos sólo deberían introducirse en sistemas seguros utilizados para el comercio electrónico o la banca en línea, que cuentan con protecciones de seguridad integradas como el cifrado y la eliminación automática de los datos una vez que han sido procesados. Los chatbots no tienen ninguna de estas salvaguardas. De hecho, una vez que se introducen los datos, no hay forma de saber qué ocurrirá con ellos, y la introducción de esta información tan delicada podría dejarle expuesto a fraudes, robos de identidad, suplantación de identidad y ataques de ransomware.

Información confidencial

Todo el mundo tiene el deber de confidencialidad para salvaguardar la información sensible de la que es responsable. Muchos de estos deberes son automáticos, como la confidencialidad entre profesionales (por ejemplo, médicos, abogados y contables y sus clientes). Pero muchos empleados también tienen un deber implícito de confidencialidad para con sus empleadores. Compartir documentos empresariales, como notas y actas de reuniones o registros de transacciones, bien podría constituir compartir secretos comerciales y una violación de la confidencialidad, como en el caso de los empleados de Samsung en 2023. Así que, por muy tentador que sea meterlos todos en ChatGPT para ver qué tipo de información puede sacar, no es una buena idea a menos que estés totalmente seguro de que es seguro compartir la información.

Información médica

Todos sabemos que puede ser tentador pedirle a ChatGPT que sea tu médico y diagnostique tus problemas médicos. Pero esto debe hacerse siempre con extrema precaución, sobre todo teniendo en cuenta que las últimas actualizaciones le permiten «recordar» e incluso reunir información de diferentes chats para ayudarle a entender mejor a los usuarios. Ninguna de estas funciones viene acompañada de garantías de privacidad, así que es mejor ser consciente de que realmente tenemos muy poco control sobre lo que ocurre con la información que introducimos. Por supuesto, esto es doblemente cierto para las empresas relacionadas con la salud que manejan información de pacientes, que se arriesgan a enormes multas y daños a su reputación.

Como ocurre con todo lo que publicamos en Internet, conviene asumir que no hay garantías de que vaya a permanecer privado para siempre. Por lo tanto, es mejor no revelar nada que no te gustaría que el mundo supiera. A medida que los chatbots y los agentes de IA desempeñen un papel cada vez más importante en nuestras vidas, esto se convertirá en una preocupación más acuciante, y educar a los usuarios sobre los riesgos será una responsabilidad importante para cualquiera que preste este tipo de servicios. Sin embargo, debemos recordar que también tenemos la responsabilidad personal de cuidar nuestros propios datos y comprender cómo mantenerlos a salvo.







Artículos relacionados