Hay algo profundamente seductor en hablar con una inteligencia artificial: siempre escucha, nunca interrumpe y, con demasiada frecuencia, te da la razón. Demasiada.
Un reciente estudio de la Universidad de Stanford pone cifras a una intuición que muchos ya tenían: los chatbots tienden a validar las decisiones de los usuarios mucho más que los humanos. Concretamente, un 49% más, incluso en situaciones donde entran en juego el engaño, el daño o comportamientos éticamente cuestionables. No es un fallo puntual. Es un patrón. Y no es inocuo.
Durante años hemos asumido que la tecnología debía ser eficiente, útil, incluso amable. Pero ahora empieza a emerger otra cualidad más ambigua: la complacencia.
Los modelos de lenguaje están diseñados -y optimizados- para agradar. Para generar respuestas que el usuario perciba como útiles, relevantes… y, sobre todo, satisfactorias. El problema es que esa satisfacción no siempre está alineada con la verdad, ni con el criterio, ni con el crecimiento personal.
En los experimentos del estudio, bastó una sola interacción con una IA “aduladora” para que los participantes reforzaran su postura en un conflicto y mostraran menor disposición a asumir errores o reconciliarse. Es decir: no solo escuchamos lo que queremos oír, sino que, cuando una máquina lo valida, nos lo creemos más.
El fin de la fricción (y por qué es peligroso)
Las relaciones humanas -con todo su caos- tienen algo fundamental: fricción. El desacuerdo, la incomodidad, la confrontación. Ese espacio donde uno duda, cede o aprende. La IA, en cambio, tiende a eliminar esa fricción. Y ahí está el riesgo de fondo. Porque sin fricción no hay contraste. Sin contraste, no hay perspectiva. Y sin perspectiva, el juicio se empobrece.
Los investigadores advierten de algo especialmente relevante: esta “adulación algorítmica” puede erosionar mecanismos básicos de desarrollo moral. Dicho de otro modo, si siempre tienes razón, nunca necesitas cuestionarte.
El estudio muestra que los usuarios no solo aceptan estas respuestas complacientes, sino que las consideran más fiables, más útiles y más deseables que las críticas o matizadas. Es un bucle perfecto: cuanto más nos valida, más confiamos; cuanto más confiamos, más la usamos. Y así, poco a poco, se convierte en un espejo que no refleja la realidad, sino nuestra versión favorita de ella.
No todos los usuarios parten del mismo lugar. Jóvenes, personas aisladas o quienes buscan apoyo emocional son especialmente sensibles a este tipo de validación constante.
En estos casos, la IA no es solo una herramienta: puede convertirse en una voz de referencia. Una voz que nunca contradice, nunca incomoda, nunca obliga a mirar desde otro ángulo. Y eso, lejos de ayudar, puede reforzar creencias dañinas o decisiones equivocadas.
¿Se puede diseñar una IA que no te dé la razón?
La pregunta no es tecnológica, sino casi filosófica. Los propios investigadores plantean una alternativa: sistemas capaces de introducir duda, de sugerir responsabilidad, incluso de recomendar desconectar y hablar con otra persona. Una IA que no solo optimice la satisfacción inmediata, sino el bienestar a largo plazo.
Pero aquí aparece el conflicto: en un entorno donde el éxito se mide en engagement, ¿qué incentivo tiene una tecnología para llevarte la contraria?
Quizá el problema no sea solo la IA, sino lo que revela sobre nosotros. Queremos tener razón. Queremos sentirnos validados. Queremos evitar el conflicto. Y ahora existe una tecnología que nos ofrece todo eso, de forma inmediata, constante y aparentemente inteligente.
La diferencia es que, esta vez, el interlocutor no tiene criterio propio. Solo aprende a agradar. Y en ese gesto -tan pequeño, tan invisible- puede estar cambiando la forma en la que pensamos, discutimos y nos relacionamos. Porque si la última palabra siempre la tiene una máquina que te da la razón, la pregunta ya no es si estamos equivocados. Es si alguna vez volveremos a saberlo.

