Una de las técnicas que más
alegrías ha dado a la inteligencia artificial en los últimos tiempos es el aprendizaje profundo basado en redes neuronales artificiales que imitan el
funcionamiento del cerebro humano. Estas redes están formadas por múltiples
capas que procesan información y detectan patrones, corrigiéndose y
«aprendiendo» sin supervisión.
Diagrama de red neuronal. Flavio Suárez-Muñoz, CC BY-SA 4.0. Fuente |
En 2018, Gary Marcus publicó el
artículo Deep Learning: A Critical Appraisal en el que repasaba varias limitaciones de este
aprendizaje profundo. No fue el único en exponer estas críticas; otras voces se sumaron al aviso sobre
la burbuja que se estaba generando en torno al aprendizaje profundo y predijeron
incluso un nuevo invierno de la IA. Y, sin embargo, en noviembre de 2022, asistimos al
nacimiento de ChatGPT, con la revolución mediática y social que supuso. ¿Se
equivocaban quienes apuntaron esas posibles deficiencias? Tal vez no.
Una de las limitaciones que
señaló Marcus fue la ingente cantidad de datos que necesita el aprendizaje
profundo para dar resultados y, en paralelo, la capacidad computacional que requiere. A lo que podríamos añadir también su consumo energético y su huella de carbono. De hecho, las bases teóricas para el
aprendizaje profundo no son nuevas y, si su despegue se ha producido ahora, es
por la disponibilidad masiva de datos —parte de ellos sujetos a derechos de
autor— y la mejora de la capacidad computacional que han permitido generar y
procesar modelos de lenguaje de un tamaño colosal, que gestionan billones o incluso trillones de parámetros y corpus que se miden en petabytes.
Marcus también apuntaba la falta
de transparencia del aprendizaje profundo, que funciona como una especie de
caja negra, lo que impide interpretar sus procesos y saber cómo llega a los
resultados, lo que genera desconfianza y le resta credibilidad. Tanto es así
que ha surgido una nueva disciplina centrada en este ámbito: la inteligencia artificial explicable.
En noviembre de 2023, el AIHUB, el ICMAT y el CNB organizaron
unas jornadas sobre el futuro de la IA. La veintena de investigadoras e
investigadores que se reunieron abordaron otras cuestiones recogidas en el artículo de Marcus, como la incapacidad de
las aplicaciones de aprendizaje profundo de distinguir entre correlación y
causalidad, de hacer inferencias y abstracciones o de integrar el conocimiento
previo. Según Julio Gonzalo, emulan nuestro pensamiento intuitivo, no nuestro pensamiento
racional, lo que los convierte en «cuñados estocásticos» que «hablan de oídas» o,
directamente, se inventan datos (es lo que se
conoce como «alucinaciones»). A pesar de los espectaculares resultados del aprendizaje
profundo, parece que sigue teniendo sus sombras.
No hay comentarios:
Publicar un comentario