domingo, 28 de enero de 2024

Las limitaciones del aprendizaje profundo

 

Una de las técnicas que más alegrías ha dado a la inteligencia artificial en los últimos tiempos es el aprendizaje profundo basado en redes neuronales artificiales que imitan el funcionamiento del cerebro humano. Estas redes están formadas por múltiples capas que procesan información y detectan patrones, corrigiéndose y «aprendiendo» sin supervisión.


Diagrama de red neuronal. Flavio Suárez-Muñoz, CC BY-SA 4.0. Fuente



En 2018, Gary Marcus publicó el artículo Deep Learning: A Critical Appraisal en el que repasaba varias limitaciones de este aprendizaje profundo. No fue el único en exponer estas críticas; otras voces se sumaron al aviso sobre la burbuja que se estaba generando en torno al aprendizaje profundo y predijeron incluso un nuevo invierno de la IA. Y, sin embargo, en noviembre de 2022, asistimos al nacimiento de ChatGPT, con la revolución mediática y social que supuso. ¿Se equivocaban quienes apuntaron esas posibles deficiencias? Tal vez no.

Una de las limitaciones que señaló Marcus fue la ingente cantidad de datos que necesita el aprendizaje profundo para dar resultados y, en paralelo, la capacidad computacional que requiere. A lo que podríamos añadir también su consumo energético y su huella de carbono. De hecho, las bases teóricas para el aprendizaje profundo no son nuevas y, si su despegue se ha producido ahora, es por la disponibilidad masiva de datos —parte de ellos sujetos a derechos de autor— y la mejora de la capacidad computacional que han permitido generar y procesar modelos de lenguaje de un tamaño colosal, que gestionan billones o incluso trillones de parámetros y corpus que se miden en petabytes.

Fuente



Marcus también apuntaba la falta de transparencia del aprendizaje profundo, que funciona como una especie de caja negra, lo que impide interpretar sus procesos y saber cómo llega a los resultados, lo que genera desconfianza y le resta credibilidad. Tanto es así que ha surgido una nueva disciplina centrada en este ámbito: la inteligencia artificial explicable.

En noviembre de 2023, el AIHUB, el ICMAT y el CNB organizaron unas jornadas sobre el futuro de la IA. La veintena de investigadoras e investigadores que se reunieron abordaron otras cuestiones recogidas en el artículo de Marcus, como la incapacidad de las aplicaciones de aprendizaje profundo de distinguir entre correlación y causalidad, de hacer inferencias y abstracciones o de integrar el conocimiento previo. Según Julio Gonzalo, emulan nuestro pensamiento intuitivo, no nuestro pensamiento racional, lo que los convierte en «cuñados estocásticos» que «hablan de oídas» o, directamente, se inventan datos (es lo que se conoce como «alucinaciones»). A pesar de los espectaculares resultados del aprendizaje profundo, parece que sigue teniendo sus sombras.

No hay comentarios:

Publicar un comentario

Del neuroderecho y otras neurohierbas

  «Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en u...