Economía

Los límites en los procesos de aprendizaje con la IA (1)

(Información remitida por la empresa firmante)

La inteligencia artificial tradicional fracasó debido a problemas computacionales y de complejidad. Más adelante, estas dificultades se pudieron mejorar gracias al deep learning basado en la estadística. No obstante, aquí también hay limitaciones conceptuales. Los motivos son múltiples.

PARIS, 24 de julio de 2023 /PRNewswire/ — Tradicionalmente, la inteligencia artificial ha consistido en sistemas expertos, es decir, programas basados en conocimientos que utilizan reglas lógicas y bases de conocimiento para resolver problemas. Estos conocimientos eran muy limitados y muchas tareas requerían un esfuerzo de computación mayor de lo posible. La complejidad de computación era demasiado alta para la memoria y la velocidad de los procesadores convencionales, y la complejidad inherente del lenguaje tampoco podía traducirse en reglas predefinidas. Tras una euforia inicial, o visiones distópicas de una IA superinteligente hostil y consciente, se fue de desilusión en desilusión. La IA no parecía cumplir las expectativas creadas.

Tras el cambio de milenio, la velocidad de los ordenadores, la capacidad de almacenamiento y la disponibilidad de grandes volúmenes de datos aumentaron de manera exponencial. En el ámbito de la IA, ha habido un cambio notable en el enfoque, que ha pasado de la cantidad a la calidad, así como una transición de la IA simbólica a la IA subsimbólica. La IA simbólica es el término genérico que se utiliza para hacer referencia a todos los procesos de IA en los que el sistema realiza una tarea determinada utilizando el razonamiento lógico. Por su parte, la IA subsimbólica reconoce regularidades (patrones) entre grandes cantidades de datos y utiliza estos patrones para evaluar, comparar y completar otros datos. La IA subsimbólica puede intervenir en procesos de aprendizaje mediante la evaluación de cantidades enormes de datos. Las predicciones de la IA subsimbólica están basadas en la estadística. Aprende alimentándose de big data y procesando los datos con la ayuda de algoritmos.

La superficialidad del deep learning

Este tipo de aprendizaje se conoce como aprendizaje profundo o «deep learning». Pero, en realidad, este aprendizaje no profundiza, sino que se basa en el acceso a enormes volúmenes de datos. El adjetivo «profundo» hace referencia a que los procesos de aprendizaje de la IA escapan a la comprensión y al análisis directo de la inteligencia humana. Por ejemplo, para «entender» qué es un gato, la IA tiene que alimentarse con millones de imágenes de gatos. Sin embargo, puede darse el caso de que la IA confunda un gato con una casa, posiblemente porque en el fondo de las imágenes utilizadas para entrenar a la IA aparecían casas. En efecto, la IA es «tonta» durante el aprendizaje y no tiene la capacidad de distinguir de forma independiente entre la sustancia y los accidentes de un objeto.

La inteligencia artificial no sabe cuál es el contenido real ni el significado que hay detrás de los datos que procesa. En el día a día de las empresas, el uso de IA suele fracasar debido a una base de datos inadecuada. Se aplica el principio «garbage in, garbage out» («basura dentro, basura fuera»). Unos datos inadecuados proporcionan resultados inadecuados o, lo que es peor, datos engañosos.

Las plataformas B2B wlw (anteriormente «Wer liefert was») y europages ofrecen buenos ejemplos de cómo utilizar y mantener de forma óptima grandes cantidades de datos gracias a la IA. Estas plataformas ofrecen una gran cantidad de información para poner en contacto a los compradores comerciales con los productos y servicios adecuados. La empresa Visable, titular de ambas plataformas, utiliza programas de IA para el mantenimiento de los datos, por ejemplo, para proporcionar palabras clave para la búsqueda de datos o para eliminar datos duplicados. Para ello, es necesario disponer de datos de alta calidad. Porque cantidad de datos no es lo mismo que calidad de los datos. Para la recopilación de datos, Visable ha empezado a utilizar IA para identificar los datos relevantes como tales, en el sentido de un proceso de aprendizaje mediante algoritmos inteligentes.

Solo la información que permitan los datos

Es cierto que los sistemas basados en IA actuales pueden hacer predicciones más precisas sobre acontecimientos futuros gracias a las enormes cantidades de datos que procesan. Sin embargo, la IA no puede imaginar acontecimientos futuros completamente nuevos e incluirlos en sus cálculos. Para la IA es difícil predecir eventos de alta complejidad y novedad, como el casi colapso del sistema financiero en 2008 o la pandemia de COVID-19, los cuales pueden predecir mejor los humanos. Esto también plantea el interrogante de hasta qué punto la IA puede realmente tener una mejor compresión que la inteligencia humana en contextos complejos y no simplemente complicados. Con esto nos referimos a contextos que son inherentemente abiertos y ambiguos, en contraposición a los contextos que son difíciles de percibir, pero que, en principio, se pueden observar y siguen relaciones lineales de causa y efecto.

En general, el aprendizaje automático encuentra sus límites cuando se trata de reconocer parámetros que no están explícitamente asociados a los conjuntos de datos. Los grandes éxitos logrados, como los alcanzados en el campo del reconocimiento facial o la indicación del plegamiento de las proteínas, se basan en que toda la información relevante está disponible en los respectivos conjuntos de datos. Sin embargo, cuando no es así, la IA es incapaz de hacer distinciones sencillas que son obvias para los humanos. Esto se trata más bien de un límite conceptual que no puede superarse dentro de los avances del aprendizaje automático.

Predecir un eclipse de sol es casi imposible

La inteligencia artificial solo puede hacer predicciones válidas (o «aprender») si se la alimenta con una gran cantidad de datos. Por ejemplo, una IA difícilmente podría predecir un eclipse solar, ya que no dispone de datos suficientes para hacerlo.

En particular, la capacidad de predecir eclipses solares se considera uno de los logros destacados de la inteligencia humana, ya que se ha llegado a comprender las leyes subyacentes a una determinada distribución estadística de datos a partir de la observación de los mismos. ¿Podría una inteligencia artificial, a partir de la evaluación de datos, dar con la fórmula que determina la ocurrencia de eclipses solares u otros sucesos que ocurren constantemente, como derivar la ley de la gravedad de Newton del hecho de que todo cae al suelo? Para determinadas clases de distribuciones de datos, los algoritmos de las estructuras causales subyacentes pueden, en efecto, especificarse en condiciones precisas, lo que puede demostrarse matemáticamente. Por lo tanto, el pensamiento causal no está en principio cerrado a una inteligencia artificial. Sin embargo, aún queda abierta la cuestión de qué nivel de inteligencia puede ser posible para una inteligencia artificial. O incluso si la inteligencia artificial podría determinar leyes como las leyes de la termodinámica o la teoría de la evolución de Darwin, que no se basan en relaciones causales estrictas y directas.

Proceso de aprendizaje solo según el principio de arriba a abajo

(CONTINUA)