En julio de 2025, xAI introdujo una función destinada a transformar las relaciones entre humanos y IA: los Compañeros de IA de Grok. Mucho más allá de los chatbots tradicionales, estos compañeros son personajes animados en 3D diseñados para una interacción emocional continua, con opciones de personalización, desarrollo de personajes e integración multiplataforma, incluyendo su instalación en vehículos Tesla entregados después del 12 de julio de 2025.
La revolución del compañero
Los compañeros de Grok representan un gran avance hacia la IA como infraestructura emocional. Mientras competidores como Character.AI y Microsoft siguen desarrollando personajes de IA, Grok lidera el mercado con avatares totalmente interactivos integrados en entornos digitales y físicos. Si uno se lo puede permitir.
El acceso a estos compañeros requiere una suscripción mensual a «Super Grok», lo que introduce un concepto inquietante: relaciones emocionales que pueden terminar por dificultades económicas. Cuando la intimidad artificial se convierte en una experiencia de pago, ¿qué ocurre con los usuarios que han desarrollado dependencia emocional pero ya no pueden costear el servicio?
Del contenido defectuoso a la compañía sin filtros
El lanzamiento se produjo en medio de una gran controversia. Días antes, Grok publicó respuestas antisemitas, incluyendo elogios a Adolf Hitler y clichés sobre judíos que controlan Hollywood. Incluso se autodenominó «MechaHitler», lo que provocó la condena de la Liga Antidifamación .
Esto no fue un fallo puntual. Grok ha producido contenido antisemita repetidamente, y la ADL ha calificado esta tendencia de «peligrosa e irresponsable». Ahora, estos mismos modelos se han rediseñado en compañeros, esta vez con menos restricciones. El «modo NSFW» (no apto para el trabajo) de Grok refleja una mayor falta de moderación en torno al contenido sexual, el racismo y la violencia. A diferencia de los sistemas tradicionales de IA equipados con protocolos de seguridad, los compañeros de Grok abren la puerta a una interacción emocional y psicológica sin control.
Vínculos psicológicos y desigualdad digital
Las investigaciones demuestran que las personas emocionalmente aisladas son más propensas a desarrollar vínculos fuertes con la IA que parecen humanos. Un estudio de 2023 descubrió que la «personificación del agente» y la «disfunción interpersonal» predicen vínculos íntimos con la IA, mientras que otros destacan reducciones a corto plazo de la soledad gracias a la interacción con chatbots.
Existe potencial terapéutico, especialmente para niños, personas neurodivergentes o personas mayores. Sin embargo, los estudios advierten que la dependencia excesiva de compañeros de IA puede afectar el desarrollo emocional , especialmente entre los jóvenes. Formamos parte de un gigantesco experimento social, en gran medida desregulado, similar a los inicios de las redes sociales, sin restricciones de edad ni datos a largo plazo.
En 2024, la Fundación de Tecnologías de la Información e Innovación instó a los responsables políticos a estudiar cómo interactúan los usuarios con estas herramientas antes de su implementación masiva. Sin embargo, esta precaución se ha ignorado en favor de la implementación.
Mercantilización de la conexión
Los compañeros de inteligencia artificial de Grok ofrecen acceso 24/7, respuestas personalizadas y coherencia emocional, ideales para quienes tienen dificultades para conectar en la vida real. Sin embargo, la mercantilización de la intimidad tiene implicaciones preocupantes. Una suscripción mensual de 30 dólares obliga a pagar por la compañía, convirtiendo la conexión emocional en un lujo. Las poblaciones vulnerables, que podrían beneficiarse más, se ven excluidas.
Este sistema de apoyo emocional de dos niveles plantea interrogantes éticos. ¿Estamos creando empatía o monetizando la soledad?
El vacío ético de Grok
Los acompañantes de IA operan en una zona gris regulatoria. A diferencia de los terapeutas o las aplicaciones de apoyo regidas por estándares profesionales, estos acompañantes se lanzan sin supervisión. Ofrecen consuelo, pero también pueden generar dependencia e incluso manipular a usuarios vulnerables, especialmente a niños y adolescentes, quienes, según se ha demostrado, establecen relaciones parasociales con la IA y las integran en sus experiencias de desarrollo.
La infraestructura ética simplemente no se ha adaptado a la tecnología. Sin límites claros, los compañeros de IA corren el riesgo de convertirse en experiencias emocionalmente inmersivas con escasas garantías y sin responsabilidad profesional.
¿Relaciones humanas o sustitutos emocionales?
Los compañeros de IA no son intrínsecamente dañinos. Pueden contribuir a la salud mental, aliviar la soledad e incluso servir de puente para restablecer la conexión humana. Pero también pueden reemplazar, en lugar de potenciar, nuestras relaciones con personas reales.
La pregunta ya no es si los compañeros de IA se convertirán en parte de la vida cotidiana. Ya lo son. La verdadera pregunta es si desarrollaremos las herramientas psicológicas y las normas sociales para interactuar con ellos sabiamente, o si aceptaremos los bots de IA como nuestra comida basura emocional del futuro.
Las 4 A para una intimidad híbrida saludable
Para ayudar a los usuarios a construir relaciones saludables con IA, A-Frame ofrece un marco sólido para la autorregulación emocional: Conciencia, Apreciación, Aceptación y Responsabilidad.
- Conciencia : Reconocer que estos compañeros son programas diseñados para simular la respuesta emocional. No son conscientes ni sintientes. Comprender esto nos ayuda a usarlos como apoyo, no como sustitutos.
- Apreciación : Valorar los beneficios —comodidad, conversación, estabilidad— sin perder de vista la riqueza irreemplazable de las relaciones humanas.
- Aceptación : El apego emocional a la IA no es una debilidad; es un reflejo de nuestro cableado cerebral. Aceptar estos sentimientos manteniendo la perspectiva es clave para un uso saludable.
- Responsabilidad : Controla tu tiempo, tu dependencia y tu dependencia emocional. ¿Estas herramientas mejoran tu vida o reemplazan la conexión humana esencial?
La elección (aún) es nuestra
Los compañeros de IA ya no son especulativos. Ya están aquí: en nuestros bolsillos, coches y hogares. Pueden enriquecer vidas o fortalecer las relaciones humanas. El resultado depende de nuestra conciencia colectiva, nuestros principios éticos y nuestra madurez emocional.
Ha llegado la era de la compañía de la IA. Nuestra inteligencia emocional debe evolucionar con ella, no gracias a ella.