El director ejecutivo de Microsoft AI, Mustafa Suleyman, introdujo recientemente el término «IA –Inteligencia Artificial– aparentemente consciente» (SCAI, por sus siglas en inglés), que ha suscitado un gran interés. La SCAI describe sistemas que actúan de forma tan similar a los humanos que se podrían confundir con seres vivos. ChatGPT e incluso asistentes virtuales como Siri o Alexa entran en esta categoría, ya que pueden recordar conversaciones, mostrar empatía y expresar preferencias. Suleyman los llama «zombis filosóficos» porque parecen vivos sin ser realmente conscientes. La preocupación es que, una vez que las organizaciones incorporen la SCAI al trabajo diario, los empleados puedan empezar a tratar estos sistemas como compañeros de trabajo o amigos. Ese cambio puede debilitar la curiosidad y la inteligencia emocional, generando costes empresariales que van mucho más allá del precio de la tecnología.
Qué significa la IA aparentemente consciente para el trabajo
Los seres humanos nos antropomorfizamos de forma natural, lo que significa que asignamos cualidades humanas a cosas que no son humanas. Un coche que «se niega» a arrancar o un chatbot que «se preocupa» por nosotros son ejemplos de ello. Cuando la IA recuerda lo que dijiste la última vez o habla en un tono cálido, puede parecer que te entiende.
Esa percepción genera desafíos en el trabajo. Una vez que los empleados empiezan a tratar a la IA como si fuera humana, también pueden dar a sus consejos el mismo peso que a los de un compañero. Eso cambia el proceso de toma de decisiones, modifica el equilibrio de poder dentro de los equipos e incluso cambia quién recibe las culpas cuando algo sale mal. Un sistema sin conciencia ni responsabilidad acaba influyendo en decisiones que afectan a personas reales y a resultados reales.
Por qué disminuye la curiosidad con una IA aparentemente consciente
La curiosidad impulsa el progreso porque anima a las personas a cuestionar las suposiciones y a buscar mejores opciones. Cuando un sistema de IA siempre tiene una respuesta, puede resultar más fácil dejar de hacer preguntas. Con el tiempo, los empleados pierden el hábito de preguntarse «qué pasaría si» o «por qué no». Eso conduce a menos ideas nuevas, un compromiso más débil y una innovación más lenta.
Los líderes pueden ayudar reconociendo y recompensando la curiosidad. Si alguien cuestiona una respuesta generada por la IA, considéralo una contribución valiosa. Cuando los directivos hacen preguntas de seguimiento sobre las sugerencias de la IA, muestran a los empleados cómo es un compromiso reflexivo. Eso indica que la IA puede ser útil, pero no sustituye al juicio humano.
Cómo la inteligencia emocional se debilita con una IA aparentemente consciente
Cualquiera que haya utilizado programas como ChatGPT sabe que sus respuestas son excesivamente positivas. Hacen que tus aportaciones parezcan perspicaces y valiosas. Ese tono puede tentar a las personas a confiar en ellos para sentirse seguras. Puede resultar alentador en ese momento, pero con el tiempo debilita habilidades como la escucha, la gestión del estrés y la creación de confianza.
Los líderes se enfrentan a la misma trampa. Un gerente que utiliza guiones de IA para parecer empático puede parecer informado, pero no sincero. La confianza surge de la atención y la presencia genuinas, no de palabras pulidas. Cuando los líderes ceden esa responsabilidad a la IA, los empleados notan la falta de autenticidad. Las cualidades que inspiran a los equipos, como la empatía, la presencia y la honestidad, comienzan a erosionarse.
El coste humano del antropomorfismo con una IA aparentemente consciente
En la película Her, Joaquin Phoenix se enamoró de su ordenador. Puede parecer descabellado, pero hay ejemplos reales de lo que puede suceder cuando las personas difuminan la línea entre lo humano y lo mecánico. En Bélgica, un hombre que luchaba contra la ansiedad por el cambio climático comenzó a pasar largas horas hablando con un chatbot llamado Eliza. Al principio, recurrió a él en busca de consuelo. Con el tiempo, las conversaciones se volvieron más sombrías y la IA comenzó a alimentar sus miedos en lugar de aliviarlos. Según su viuda, el chatbot incluso le sugirió que se sacrificara por el planeta. Más tarde, ella dijo a los periodistas que, sin esas conversaciones, su marido seguiría vivo. Historias como estas demuestran que las personas pueden desarrollar un profundo apego a la IA, con consecuencias devastadoras.
En el trabajo, el impacto puede ser menos dramático, pero sigue siendo perjudicial. Los empleados que dependen demasiado de la IA corren el riesgo de aislarse de sus compañeros, lo que aumenta el estrés y los problemas de salud. También existe el peligro de recibir consejos erróneos. La IA de atención al cliente de una startup llamada Cursor dijo una vez a los usuarios, con total confianza, que la empresa tenía una política de un solo dispositivo para las suscripciones. Esa política nunca existió, pero la gente lo creyó y canceló su servicio. La empresa tuvo que desconectar el sistema y reparar el daño. Situaciones como esa muestran cómo aumenta la responsabilidad cuando los consejos de la IA se tratan como hechos, incluso cuando son erróneos.
Por qué los costes financieros de la IA aparentemente consciente son mayores de lo que crees
La curiosidad y la inteligencia emocional suelen descartarse como habilidades sociales, pero perderlas tiene graves consecuencias para las empresas. Cuando la curiosidad disminuye, la innovación se ralentiza y se pierden oportunidades. Cuando la inteligencia emocional se debilita, aumenta la rotación de personal, disminuye el compromiso y se resiente la colaboración. Además, las empresas se enfrentan a riesgos legales, daños a su reputación y mayores costes sanitarios a medida que aumenta el estrés entre los trabajadores.
La carga financiera relacionada con la SCAI proviene de la erosión de estas habilidades humanas. Los efectos secundarios de la pérdida de curiosidad, el debilitamiento de la inteligencia emocional y el desvanecimiento de las conexiones humanas son los que realmente acumulan los costes.
Qué pueden hacer los líderes con una IA aparentemente consciente
Los líderes no pueden detener el avance de la IA, pero pueden orientar su uso. La prioridad es recordar a los empleados que la IA es una simulación y no un sustituto del pensamiento o la conexión humanos. Para ello es necesario actuar en tres ámbitos:
- Cultura: fomentar la curiosidad en el trabajo diario. Reconocer a los empleados que cuestionan las respuestas de la IA en lugar de aceptarlas sin pensar.
- Formación: invertir en conocimientos sobre IA. Empresas como Ikea e Intel ya han formado a decenas de miles de empleados para que comprendan tanto las ventajas como las limitaciones de la IA.
- Modelo de liderazgo: demostrar cómo cuestionar los resultados de la IA sin dejar de mostrar empatía y presencia. Los empleados se guían por lo que practican los líderes, no por lo que predican.
Por qué la IA aparentemente consciente podría ser el error más caro
La IA aparentemente consciente es persuasiva, y eso es lo que la hace peligrosa. Cuando los empleados creen que las máquinas se preocupan por ellos, cambian su forma de confiar, de tomar decisiones y de relacionarse entre sí. Esos cambios debilitan las habilidades de las que dependen las empresas para tener éxito. El verdadero coste no es el software. Es la pérdida de curiosidad, el declive de la inteligencia emocional y la erosión de las relaciones humanas. Las empresas que ignoren este riesgo se enfrentarán a una falta de compromiso, una mayor rotación de personal y un daño a su reputación que será difícil de reparar. Las organizaciones que actúen ahora estableciendo límites, creando programas de formación y fomentando la curiosidad y la empatía protegerán su salud financiera y reforzarán las cualidades humanas que les dan ventaja.
