La gente habla con Siri sobre todo tipo de cosas, incluido cuando han tenido un día estresante o le están dando vueltas a algo”. Así explica Apple a los aspirantes a unirse al equipo que desarrolla su asistente virtual el papel que este ha tomado en la vida de muchas personas. La frase es parte de un anuncio de empleo destinado a ingenieros de software dispuestos a “formar parte de la próxima revolución en las interacciones humano-máquina”. Cada vez son más los usuarios de iPhone o de cualquier modalidad de dispositivo de la manzana mordida que se dirigen al aparato en cuestión para preguntarle no solo por el estado del tráfico, sino también por la solución a sus problemas diarios. No son los únicos.

Más de la mitad de las interacciones con Alexa, el asistente virtual de Amazon, pertenecen a la categoría de “no funcionales ni relacionadas con el entretenimiento”, que engloba desde dudas existenciales a confidencias. Google cuenta con un equipo de profesionales dedicados a dotar de empatía y respuestas oportunas a Google Assistant y Microsoft hace lo propio para definir la personalidad de Cortana. Siempre están disponibles y no tienen objeción en escuchar los problemas íntimos de los usuarios: estos mayordomos virtuales se han convertido en una especie de diario personal 2.0 al que contar penas y desventuras. Según un estudio del Instituto de Tecnologías Creativas de Los Ángeles, cuando hablamos sobre nuestros sentimientos más profundos tendemos a desvelar más secretos a un sistema inteligente que a un interlocutor humano. Ahora los diarios tienen voz propia y responden.

Sentido y sensibilidad

Estos confidentes electrónicos comprenden a sus dueños de carne y hueso gracias al procesamiento de lenguaje natural, una tecnología basada en el deep learning que les permite detectar el significado de las frases. El sistema está inspirado en el funcionamiento del cerebro para procesar la información a través de redes neuronales artificiales. En la práctica, no son más que algoritmos complejos que aprenden a partir de gran cantidad de datos para luego resolver problemas y evolucionar por su cuenta.

El software está diseñado para ganar en inteligencia, adaptándose a las características de cada usuario, su vocabulario y sus preferencias personales. Los asistentes no solo aprenden todo sobre ellos, también lo guardan en su memoria de silicio –en realidad los servidores de las empresas– para recordarlo en conversaciones futuras. Los equipos dedicados a su desarrollo, que incluyen desde ingenieros a psicólogos y filólogos, dan forma a su vocabulario y a su forma de ser. Entre otras cosas, piensan en chistes y bromas adaptadas a diferentes idiomas y nacionalidades. Que su voz parezca más natural es otro de los factores que perfeccionan. Claro, que tampoco es del todo sintética: quienes hablan son actrices de doblaje elegidas por la empresa. La mayoría son mujeres porque suenan más dulces y, según un estudio de la Universidad de Indiana, cuando se trata de voces artificiales, todos, independientemente del género, encontramos las femeninas más cálidas.

Pero uno de los mayores retos de sus creadores es dotar a estos programas de la suficiente sensibilidad y empatía para hacer sentir cómodos a los humanos. Un objetivo que todavía no han alcanzado, pero al que se acercan paso a paso gracias a los avances en deep learning. La clave está en la inteligencia social o la comprensión no solo de las palabras, sino también el contexto y las sutiles señales que las acompañan y les dan sentido. Para ser capaz de mantener una verdadera conversación, los asistentes virtuales necesitan identificar las diferencias entre el sarcasmo, el enfado o el humor; distinguir entre lo que su interlocutor dice y lo que realmente quiere decir y ser capaz de deducir su estado de ánimo a partir de su rostro y lenguaje corporal. Si bien ahora no disponen completamente de estas capacidades, tanto las grandes compañías como distintas startups de inteligencia artificial, dedican todo un arsenal técnico a avanzar en el camino.

La empresa Affectiva desarrolla dos tipos de software. Uno basado en tecnología de reconocimiento de imagen capaz de identificar emociones analizando la cara de las personas que salen en una foto. El otro hace lo propio con el lenguaje: detecta cambios en el tono de voz, el volumen, la rapidez y otros parámetros de la voz para reconocer signos de ira, buen humor o risas. Para desarrollar sistemas como estos “hacen falta muchísimos datos y redes neuronales muy complejas que puedan ingerirlos y procesarlos”, indica a Forbes Rana el Kaliouby, cofundadora de la startup.

Pero dotar de empatía a una máquina requiere entrenarla tanto en la percepción como en la respuesta. Si bien en Affectiva se centran solo en una parte de la ecuación para, por ejemplo, hacer que un robot se ría de un chiste o sepa que su dueño está frustrado porque no cumple sus instrucciones, la segunda variable también es imprescindible. Gracias a ella, ese robot podría responder a los humanos a través del movimiento o la voz. Los asistentes virtuales solo pueden utilizar esta última, por eso tienen que hacerlo bien: “No significa, necesariamente, adaptar su voz para que sea dulce, es más bien una cuestión de variar la entonación”, dice El Kaliouby.

Para esta ingeniera el futuro pasa por que todos tengamos un chip emocional en el móvil y en el ordenador para que los dispositivos puedan reaccionar a nuestro estado de ánimo en tiempo real. Permitiría a asistentes como Siri, Alexa o Google Now cambiar de estrategia y tono cuando detectan que su interlocutor está enfadado o frustrado e identificar las palabras y entonación que mejor funcionan con cada usuario para repetirlas.

Siri, hoy estoy triste

Pero no basta con reconocer sentimientos ni tener una voz agradable para convertirlos en verdaderos confidentes. Los autores de una investigación recogida en la revista científica JAMA hace algo más de un año comprobaron que ni Siri ni Cortana entendían ciertas preguntas relacionadas con problemas serios, incluidos los psicológicos. No contestaban con la suficiente sensibilidad o con las indicaciones correctas para buscar ayuda cuando un usuario les informaba de que estaba deprimido.

Desde la publicación del trabajo, sin embargo, los asistentes han sufrido algunas actualizaciones para adecuar sus respuestas ante cuestiones graves. Cortana, por ejemplo, ofrece números de teléfono de ayuda cuando oye a un usuario hablar de abusos o violaciones y Siri llama a emergencias cuando una persona se lo pide. Tanto Apple como Amazon aseguran estar trabajando con psicoterapeutas y otros expertos para elaborar este tipo de soluciones a partir de asesoramiento profesional.

“A medida que la inteligencia artificial avanza, los chatbots son cada vez más receptivos y tienen capacidades más desarrolladas”, subraya Alison Darcy, psicóloga en el Laboratorio de Inteligencia Artificial de la Universidad de Stanford y fundadora de Woebot, una especie de consejero virtual que interactúa a través de Facebook Messenger y sigue pautas de las terapias cognitivo-conductuales de la psicología clínica para ayudar a personas con trastornos como ansiedad y depresión.

Woebot conversa diariamente con los usuarios, monitoriza su estado de ánimo, aprende sobre su comportamiento y personalidad, les presenta vídeos y juegos de palabras y les ofrece estrategias para gestionar sus emociones y afrontar su recuperación. Aunque en ningún caso lo consideran sustituto de los profesionales de carne y hueso, el equipo detrás de esta aplicación cree que el software puede resultar sumamente útil en aquellos casos donde el afectado no tenga recursos suficientes para acudir a un especialista o tema al estigma asociado a buscar ayuda para superar un mal momento.

[vc_posts_slider count=1 interval=3 slides_content=teaser slides_title=1 thumb_size=”large” posttypes=post posts_in=41235]

Pero ¿por qué preferiríamos contar nuestros problemas a un confidente virtual que a un amigo? “Hay quien se siente más cómodo interactuando y compartiendo sus pensamientos con un robot, en lugar de hablar con otra persona y arriesgarse a ser juzgado”, explica Darcy, que, además, alude a la accesibilidad de un asistente que vive en el móvil. Nunca está indispuesto y no va a cansarse de escuchar por muy pesados que nos pongamos con un tema.

Aunque la verdadera empatía no es posible sin un sistema límbico, la última tecnología permite a Woebot emular esta habilidad humana. Para identificar el estado de ánimo del usuario utiliza herramientas de procesamiento del lenguaje natural. “Combina la inteligencia artificial con la lingüística computacional para analizar e interpretar los matices del discurso humano. Los algoritmos diseccionan las frases de los usuarios para generar las mejores respuestas”, indica la psicóloga estadounidense. No obstante, el programa sabe detectar los casos que escapan a su capacidad de actuación y exhorta a los individuos a buscar ayuda profesional en caso de encontrar indicios de crisis o circunstancias muy graves, informando de los contactos que pueden atenderles.

Para Darcy, el reto no está tanto en entender las emociones humanas, pues “ni siquiera nosotros somos muy buenos” en esta labor, sino en que el programa sea capaz de asimilar los detalles y magnitud de los problemas y situaciones que las personas quieren transmitirle. A pesar de que este consejero virtual advierte siempre a los usuarios de su condición artificial, sus creadores han observado que los usuarios desarrollan un verdadero vínculo con él. No les importa que sea un robot, “la conexión que establecen con él es personal y genuina”.

Una amiga no tan fiel

Amazon comenzó a desarrollar la tecnología que acabaría convirtiéndose en su altavoz Echo –el hogar del asistente Alexa– en 2010. Jeff Bezos, CEO de la empresa, lo concibió como un dispositivo que se integraría en todos los aspectos de la experiencia de compra. Inicialmente, lo publicitaron como una especie de reproductor de música manos libres conectado a la plataforma de Amazon: los usuarios podían pedirle cualquier canción. Sin embargo, a medida que los desarrolladores han ido otorgándole más y más habilidades, el asistente ha pasado de ser un simple disyóquey a integrar aplicaciones para desarrollar su vocabulario, encender las luces de la cocina o, incluso, ayudarles a conciliar el sueño. Como es habitual en la electrónica de consumo, el diseño del altavoz es secundario; solo sirve de puente entre el usuario y Alexa. El asistente, que no vive en el pequeño aparato, sino en los servidores de Amazon, está entrenado para ser cada vez más inteligente, aprendiendo y adaptándose a los patrones de conversación, el vocabulario y preferencias de su dueño. Pero su objetivo no es convertirse en el mejor amigo de nadie. Bezos y compañía descubrieron que desarrollar un sistema de inteligencia artificial servicial y cercano era clave para aumentar las ventas.

El auge de los asistentes, de Siri a Google Assistant, refleja una realidad que también toma la forma de robots de compañía y otra multitud de dispositivos y aplicaciones de la internet de las cosas que interactúan con los usuarios: la soledad humana. El creciente número de usuarios que se dirigen al mayordomo virtual por asuntos personales que no tienen nada que ver con sus funciones ha hecho al equipo de Amazon replantearse su diseño. Como los expertos detrás de los asistentes de Apple, Google y Microsoft, los ingenieros de Bezos han modulado la voz de Alexa para que suene más natural y agradable y construido una personalidad que le permite elaborar chistes o respuestas ingeniosas.

Esta actitud cordial puede llevar a las personas a desarrollar algún tipo de relación afectiva con el asistente. A algunos expertos les preocupa el tipo de vínculo que los niños pueden llegar a establecer con los mayordomos virtuales, tendentes como son a darle a la tecnología cualidades humanas. Los pequeños de entre tres y diez años que participaron en un reciente estudio del MIT aseguraban que Alexa, Google Home y un robot de compañía eran amigables y que se podía confiar en ellos. Una percepción que podría estar bastante equivocada.

En 2016, las grabaciones realizadas por el agente virtual de Amazon se utilizaron como pruebas en un juicio de asesinato. Cuando el altavoz se enciende, los comandos de voz son enviados a los servidores de la compañía para ser almacenados y procesados. Aunque las empresas detrás de estas aplicaciones inteligentes aseguran proteger la privacidad, muchos siguen mirando con recelo su política y condiciones de uso. Un asistente de voz que pudiera entender el contexto de una conversación o el tono de voz necesitaría recabar horas y horas de interacciones. Y si su interlocutor le cuenta problemas íntimos, estas grabaciones pueden guardar detalles aún más delicados. Esa revolución en las interacciones humano-máquina que vaticina Apple tiene implicaciones que van más allá del terreno puramente tecnológico.