Forbes Talks

Women bEYond with Forbes | Inteligencia artificial, revolucionando la función juridica

Fotografía: Luis Camacho. De izquierda a derecha: Laila Jiménez, periodista; María Pedrosa, Helena Gómez-Acebo; Llanos Manzanares; Marta Báez; Marta Martínez

La inteligencia artificial (IA) ha cambiado las reglas del juego del mundo laboral. No en vano, su incursión no solo ha contribuido a mejorar algunos procesos, sino que también ha afectado a los cimientos de la estrategia de negocio de las empresas, para convertirlas en más competitivas. Dentro de esta revolución, el ámbito legal no podía quedarse fuera. En poco tiempo, esta herramienta se ha convertido en fundamental para la gestión de contratos y la optimización de tareas, como el análisis de grandes volúmenes de documentos, el cumplimiento normativo, la gestión de riesgos y la toma de decisiones.

Para hablar de todas estas cuestiones, Forbes reunía el pasado mes de noviembre a un grupo de expertas en Casa América, entre las que estaban: María Pedrosa, Head of Legal Tech & Knowledge Management en Repsol; Llanos Manzanares, directora de Asesoría Jurídica en Astara; Marta Martínez, directora de Asesoría Jurídica de EXTE; Marta Báez Zuasti, Senior Manager Global Incentives and Innovation de EY; y Helena Gómez-Acebo, Public Pharma Market and Tender Manager Iberia en Sanofi.

Después de realizar una visita guiada por los diferentes salones de Casa América y conocer su historia, las participantes en esta charla se enfrentaban a la primera pregunta planteada por la moderadora de la velada, la periodista Layla Jiménez: ¿cómo puede la inteligencia artificial transformar la función legal en las corporaciones? Marta Báez exponía que la IA permite focalizar las tareas de todo el equipo y generar mejores servicios al cliente. A estas características, Pedrosa añadía la de ofrecer una respuesta mucho más rápida a los negocios y la capacidad formativa a todos los miembros del equipo jurídico que ofrece esta tecnología. 

No en vano, la directiva de Astara ponía de relieve la gran cantidad de información que se maneja, tanto en una asesoría jurídica como en un despacho de abogados, y apuntaba que la inteligencia artificial ayuda a revisarla en menos tiempo, e incluso a redactar nuevos documentos. “El trabajo que realiza la IA es un primer filtro, pero siempre tiene que estar supervisada por un profesional”. Una afirmación con la que se mostraba en línea Martínez, y a la que sumaba una reflexión: la importancia de cómo se plantean las consultas a la inteligencia artificial para obtener los mejores resultados posibles, y lo más certeros. 

Asimismo, Helena Gómez-Acebo destacaba el hecho de que la implantación de la inteligencia artificial, como estrategia global de compañía, en todos los sistemas de una compañía permite tener información en tiempo real de los procesos, lo que ofrece una visión más cercana a negocio y permite tomar de decisiones más estratégicas. “Esa es la verdadera revolución a la que estamos encaminándonos. Todos estamos aprendiendo, formándonos y verificando”, subrayaba la responsable de Sanofi. 

Riesgos y desafíos

La moderadora tomaba esta última afirmación para poner sobre la mesa una nueva cuestión: ¿qué responsabilidad personal tenemos sobre esta herramienta?; ¿qué desafíos éticos presenta el uso? Goméz-Acebo citaba el texto recogido por la Estrategia Europea de Inteligencia Artificial que pone de manifiesto su apuesta por la innovación, pero también hace hincapié en el hecho de que la inteligencia artificial debe estar centrada en el ser humano y que sea digna de confianza: “En Sanofi tenemos un código interno de autorregulación, que establece un sistema de governance y una política de uso responsable para todos los usuarios. Además, contamos con un comité interno que valora y estudia todos los proyectos sobre IA para comprobar el cumplimiento de los principios éticos”. Asimismo, la directiva subrayaba la importancia que tiene la formación de todos los empleados para evitar riesgos, sesgos y aprender a identificar las “alucinaciones” que pueden presentar los resultados de la IA.

“No vale cualquier uso, igual que no vale cualquier herramienta”, aseguraba Martínez. Y para ello, recalcaba, que es fundamental seleccionar o diseñar la herramienta más adecuada para los objetivos a conseguir y establecer los límites que no se quieren traspasar. A partir de esta puntualización, la directiva de EXTE señalaba la necesidad de desarrollar una política de uso: “En el sector jurídico trabajamos con información sensible, por este motivo es crucial prestar atención a la confidencialidad a la hora de realizar nuestras consultas”.

Por su parte, Manzanares indicaba la importancia de contar con un partner que ayude a desarrollar el proyecto de IA, así como en el hecho de que siempre tiene que haber un profesional cualificado que revise los datos obtenidos a través de esta herramienta: “Nunca podemos perder de perspectiva que es crucial que siempre haya un experto dando el último check”. En cuanto a los desafíos, la directiva de Astara destacaba como principal el de la falta de verificación del material que entrena a la IA, por ello: “Lo primero que tenemos que hacer es preguntar a la IA cosas que ya sabemos, para comprobar el grado de fiabilidad de sus respuestas”. A este agregaba el de la posibilidad de que sus resultados presenten un sesgo y la necesidad de saber cómo se llega a estos. 

Esto llevaba a María Pedrosa a hacer una distinción entre las herramientas de IA que se desarrollan en un entorno controlado y cerrado con las de uso público, como ChatGPT: “Con estas últimas debemos ser mucho más cuidadosos porque existen riesgos a la hora de salvaguardar la confidencialidad y los datos personales, y además, sin poder incluir información de esta naturaleza su capacidad es más limitada y es mucho más difícil obtener resultados 100% fiables”. Marta Baéz se sumaba a lo expuesto por la responsable de Repsol, y apuntaba que en EY solo se trabaja con herramientas propias justamente para proteger al máximo la confidencialidad de los datos. También señalaba la relevancia de contar con un equipo mixto de diferentes áreas de servicios para evitar riesgos, como el posible sesgo en las respuestas obtenidas de la IA, y, sobre todo, “para compartir conocimiento” entre ellas.

Anticipación y gestión

En este punto, la moderadora preguntaba a sus compañeras de mesa sobre cómo la inteligencia puede ayudar a anticiparse a posibles peligros. La primera en contestar era Gómez-Acebo que sostenía que el riesgo existe desde el momento que se decide utilizar esta tecnología, de ahí la importancia de contar con políticas internas claras para un uso responsable y la formación, pero destacaba que su uso presenta muchas más ventajas que inconvenientes: “Su capacidad de análisis y la rapidez con la que realiza este proceso nos permite anticiparnos a cualquier riesgo y tomar decisiones más estratégicas de forma más temprana”. 

“La clave para prevenir riesgos es tener una base de datos completa, con una memoria histórica muy bien organizada de la que te puedas fiar, y hacer las preguntas correctas” –afirmaba Martínez–. Esto ofrece la posibilidad al equipo de jurídico anticiparse y dedicar su tiempo a tareas que realmente aporten un valor añadido”. Llanos Manzanares, por su parte, señalaba la importancia del uso de la IA en áreas como el compliance: “Dado que permite conocer todos los escenarios posibles que se pueden dar y actuar en consecuencia mediante la implantación de las medidas y controles más adecuados en la organización. En esto, la IA nos está ayudando a ahorrar mucho tiempo y muchos recursos”.

Equipos multidisciplinares

Después de esta disertación, Layla Jiménez ponía sobre la mesa el último punto a tratar en esta charla: ¿qué habilidades deben tener los equipos para trabajar con inteligencia artificial y no sentirse amenazados por su implantación? Para Báez la inteligencia artificial, al contrario de las anteriores revoluciones, tiene un punto a favor, y es su facilidad de uso. Esto es debido, tal y como destacaba la directiva de EY, a que este tipo de herramientas, en muchos casos, se están desarrollando por equipos multidisciplinares que aportan valor de diferentes áreas.

Por su parte, la responsable de Repsol y la de Astara ponían el acento en la formación de los equipos para enseñarles cómo interactuar con esta herramienta y sacarle el mayor rendimiento posible. Pero también destacaban la importancia de ayudar a las personas a desarrollar el pensamiento crítico para cuestionar las respuestas que ofrezca la inteligencia artificial.

En esta línea, Marta Martínez indicaba que es crucial tener criterio para interpretar la adecuación de la respuesta, y buscar más allá si no se está de acuerdo con la primera respuesta. Y es que, tal y como concluía Gómez-Acebo, la IA aprende de la interacción con el ser humano y esto supone una responsabilidad también: “No hemos de olvidar que nosotros tenemos un conocimiento que la máquina a priori no tiene. La creatividad es nuestra característica principal, aquello que nos hace humanos”.