Los ordenadores y los humanos nunca han hablado el mismo idioma. Más allá del reconocimiento de voz, también necesitamos computadoras para comprender la semántica del lenguaje humano escrito. Necesitamos esta capacidad porque estamos construyendo los chatbots potenciados por Inteligencia Artificial (IA) que ahora forman las capas de inteligencia en los sistemas de Automatización de Procesos de Robots (RPA) y más allá.

Conocido formalmente como Natural Language Understanding (NLU), los primeros intentos (tan recientemente como en la década de 1980) de dar a las computadoras la capacidad de interpretar texto humano fueron cómicamente terribles. Esto fue una gran frustración tanto para los desarrolladores que intentaban hacer que estos sistemas funcionen como para los usuarios expuestos a estos sistemas.

Los ordenadores son brillantes en las divisiones largas, pero malas para saber la diferencia entre si los humanos se refieren a divisiones de fútbol, ​​lobbies de divisiones parlamentarias o a divisiones largas para matemáticas. Esto se debe a que las matemáticas son fórmulas, universales e inmutables, pero el lenguaje humano es ambiguo, contextual y dinámico.

Como resultado, comprender una oración típica requiere la cualidad no programable del sentido común, o eso pensamos.

Resolviendo la semántica humana con matemáticas

En los últimos años, los desarrolladores de software en el campo de la comprensión del lenguaje natural (NLU) han avanzado para superar ese obstáculo, reduciendo la barrera del idioma entre las personas y la IA resolviendo la semántica con las matemáticas.

“Este progreso se ha derivado en gran parte de los grandes avances en los modelos de NLU, incluido el marco histórico BERT y ramas como DistilBERT, RoBERTa y ALBERT. Desarrollado por cientos de estos modelos, el software NLU moderno es capaz de deconstruir oraciones complejas para destilar su significado esencial”, dijo Vaibhav Nivargi, CTO y cofundador de Moveworks.

El software de Moveworks combina la inteligencia artificial con el procesamiento del lenguaje natural (NLP) para comprender e interpretar las solicitudes, los desafíos y los problemas de los usuarios antes de utilizar un grado adicional de inteligencia artificial para ayudar a realizar las acciones adecuadas para satisfacer las necesidades del usuario.

Nivargi explica que aquí, de manera crucial, ahora también podemos construir chatbots que usan Machine Learning (ML) para ir un paso más allá: abordar de manera autónoma las solicitudes de los usuarios y resolver preguntas escritas en lenguaje natural. Por lo tanto, la IA no solo ahora puede comunicarse con los empleados en sus términos, sino que incluso puede automatizar muchas de las tareas rutinarias que hacen que el trabajo se sienta como trabajo, gracias a esta nueva capacidad de comprensión lectora.

Lo que piensa un chatbot cuando le hablas

Nivargi proporciona un ejemplo ilustrativo de una solicitud de soporte de TI, que podemos desglosar y analizar. Bhavin es un nuevo empleado de la empresa y un usuario le pregunta al chatbot cómo se le puede agregar al grupo de marketing de la organización para acceder a su grupo de información y datos. La solicitud es la siguiente:

MOVEWORKS

En gran parte debido al error de escritura/ortografía al principio (en lugar de ‘cómo hacer’, el usuario ha escrito ‘cómo’) tenemos un problema inmediato. Hace tan solo dos años, no había una sola aplicación en el mundo capaz de comprender (y luego resolver) la infinita variedad de solicitudes similares a esta que los empleados plantean a sus equipos de TI.

“Por supuesto, podríamos programar una aplicación para activar el flujo de trabajo automatizado correcto cuando reciba esta solicitud exacta. Pero no hace falta decir que ese enfoque no escala en absoluto. Los problemas difíciles exigen soluciones difíciles. Entonces, aquí, cualquier solución que se precie debe abordar los desafíos fundamentales del lenguaje natural, que es ambiguo, contextual y dinámico ”, dijo Nivargi.

El primer desafío es siempre la ambigüedad

Una sola palabra puede tener muchos significados posibles; por ejemplo, la palabra “correr” tiene alrededor de 645 definiciones diferentes. Sumandp el inevitable error humano, como el error tipográfico en esta solicitud de la frase ‘cómo hacerlo’, y podemos ver que dividir una sola oración se vuelve bastante abrumador, con bastante rapidez. Nivargi de Movework explica que el paso inicial, por lo tanto, es utilizar el aprendizaje automático para identificar estructuras sintácticas que pueden ayudarnos a rectificar errores ortográficos o gramaticales.

Pero, dice, para eliminar la ambigüedad de lo que quiere el empleado, también debemos considerar el contexto que rodea su solicitud, incluido el departamento, la ubicación y la función de ese empleado, así como otras entidades relevantes. Una técnica clave para hacerlo es el ‘metaaprendizaje’, que implica analizar los llamados ‘metadatos’ (información sobre información).

“Al sopesar probabilísticamente el hecho de que Alex (otro empleado) y Bhavin están ubicados en América del Norte, los modelos de Machine Learning pueden ‘seleccionar borrosamente’ el grupo de correo electrónico marketingna@company.abc, sin que Alex tenga que haber especificado su nombre exacto. De esta manera, potencialmente podemos obtener la ayuda de Alex e involucrarlo en el flujo de trabajo en cuestión”, dijo Nivargi.

Como explica TechTarget, “la lógica difusa es un enfoque de la computación basado en ‘grados de verdad’ en lugar de la lógica booleana” verdadera o falsa “(1 o 0) habitual en la que se basa la computadora moderna”.

Los agentes de la mesa de servicio humano ya tienen en cuenta el contexto basándose en su experiencia, por lo que el secreto de un chatbot de IA es imitar esta intuición con modelos matemáticos.

Lenguaje dinámico, chatbots dinámicos

Finalmente, recordemos que el lenguaje es dinámico. Cada mes surgen nuevas palabras y expresiones, mientras que los sistemas de TI y las aplicaciones de una empresa determinada cambian con mayor frecuencia. Para hacer frente a tantos cambios, un chatbot eficaz debe basarse en el aprendizaje automático avanzado, ya que necesita capacitarse constantemente basándose en información en tiempo real.

Sin embargo, a pesar de la complejidad, el criterio número uno para un chatbot exitoso es una experiencia de usuario perfecta. Nivargi dice que lo que su empresa ha aprendido al desarrollar tecnologías NLU es que todos los empleados se preocupan por resolver sus solicitudes, instantáneamente, a través de conversaciones naturales en una herramienta de mensajería.

Ahora que estamos en el cambio de década, podría decirse que los humanos todavía no estamos 100% cómodos con las interacciones de los chatbots. Todavía son demasiado automatizados, con demasiada frecuencia no intuitivos y (quizás como era de esperar) demasiado parecidos a una máquina. Tecnologías como estas muestran que hemos comenzado a construir chatbots con inteligencia intuitiva semántica, pero aún queda trabajo por hacer. Cuando llegamos a un punto en el que la tecnología puede navegar por las peculiaridades e idiosincrasias del lenguaje humano … entonces, en ese momento, podemos empezar a disfrutar hablando con robots.

*Artículo publicado inicialmente en Forbes América por Adrian Bridgwater.