domingo, 28 de enero de 2024

De máquinas y traducciones

 

El 23 de marzo de 2023, el Future of Life Institute publicó una carta abierta en la que solicitaba una moratoria en el desarrollo de sistemas de IA como GPT-4 a la que se adhirieron figuras muy destacadas del sector tecnológico. La carta suscitó apasionadas reacciones a favor y en contra, aunque también hubo voces que, reconociendo el valor de la iniciativa como llamada de atención sobre un tema que la merece, se quedaron en una reflexión más pausada. Innerarity, por ejemplo, afirmó esto en una columna publicada en El País: «[La carta] Sugiere capacidades completamente exageradas de los sistemas y los presenta como herramientas más poderosas de lo que realmente son. De este modo, contribuye a distraer la atención de los problemas realmente existentes, sobre los que tenemos que reflexionar ahora y no en un hipotético futuro». Diéguez señalaba en JotDown que «No hay por qué aceptar que vamos a tener pronto máquinas superinteligentes que van a tomar el control de todo y, por maldad o desidia, van a acabar con nuestra especie. Ni siquiera es necesario creer que los sistemas de IA que tenemos tienen auténtica inteligencia. Sean inteligentes o no, están teniendo ya consecuencias preocupantes sobre las que conviene pensar».

Lo cierto es que la IA plantea riesgos y que no son pocos los trabajos y figuras académicas que han estudiado sus limitaciones o implicaciones éticas y socioeconómicas (por poner solo algunos ejemplos: Coeckelbergh, Crawford, Degli-Espoti,  Eubanks). También están proliferando los intentos de poner coto a esas derivadas, ya sea mediante legislación formal o con códigos de autorregulación, más o menos bienintencionados y voluntarios, de la industria: el Alignment Research Center, la Declaración de Bletchley, las Directrices éticas para una IA fiable de la CE, la Recomendación sobre la ética de la IA de la UNESCO o el proyecto de Reglamento de inteligencia artificial de la UE son algunos de ellos. Todas las reflexiones coinciden en señalar los mismos problemas, que tienen tanto que ver con las propias deficiencias de la IA, como con las falsas expectativas generadas y sus usos para fines contrarios al bienestar de la ciudadanía.

Presuponemos que la IA es imparcial. Fuente: Freepik


Una de las cuestiones clave, que ya habían señalado Marcus y otros especialistas en IA, es que el aprendizaje profundo requiere cantidades colosales de datos (y consume cantidades colosales de recursos para su tratamiento), lo que se traduce en el deseo de adquirirlos a toda costa, a veces por medios que vulneran el derecho a la intimidad, los reglamentos sobre protección de datos o la propiedad intelectual. También supone incorporar información sin filtros, sin que importen su veracidad, su calidad o sus sesgos, algo que, sumado a nuestra tendencia a pensar que la tecnología es neutra y las máquinas son objetivas e imparciales, puede tener consecuencias nefastas: usar sistemas de IA basados en el aprendizaje profundo sin ser conscientes de sus deficiencias contribuye a perpetuar discriminaciones y exacerbar el problema de la desinformación. Como apunta Fernández Panadero en El viaje del conocimiento, «¿Qué ocurre cuando me dan una respuesta elaborada y sin fuentes? Todo es mucho más sencillo, pero ya no tengo control. Volvemos al estadio infantil de «Papá dice que» o de preguntar a un oráculo. Precisamente queríamos los métodos de la ciencia para emanciparnos de esas servidumbres». Esta falta de control entronca con otra de las limitaciones del aprendizaje profundo: su funcionamiento como caja negra, su falta de explicabilidad y predicibilidad.

Las inquietudes en el plano de la desinformación no se derivan exclusivamente de la naturaleza de la IA y del aprendizaje profundo, sino también de sus usos espurios: gracias a la IA generativa ahora resulta muy fácil generar deepfakes, desde imágenes pornográficas falsas a bulos y noticias manipuladas que erosionan la democracia y la confianza de la ciudadanía en las instituciones. Todo ello conlleva, además, una serie de interrogantes jurídicos: ¿Es lícito prohibir una tecnología amparada por la libertad de expresión y creación únicamente por su potencial uso delictivo? ¿Y si esa tecnología es producto del incumplimiento de las leyes de propiedad intelectual, las mismas que algunas empresas invocan para no desvelar la programación de sus algoritmos? ¿Quién asume la responsabilidad de las decisiones tomadas por una inteligencia artificial?

La IA puede tener profundas implicaciones en el mercado de trabajo y en el plano de los derechos laborales. La retórica imperante en el mundo empresarial es que el big data no va a remplazar a nadie, que la IA no es más que una herramienta útil para ahorrarnos las tareas repetitivas y dedicar el tiempo a actividades más creativas con auténtico valor añadido y, si acaso desaparece alguna profesión, surgirán otras nuevas mucho más especializadas y mejor remuneradas. Sin embargo, asistimos a la destrucción de puestos de trabajo en sectores como el periodismo (¿Hay algún oficio que requiere más autonomía y espíritu crítico? ¿No es el periodismo ese cuarto poder tan necesario para la democracia?), mientras, en paralelo, las grandes tecnológicas recurren a mano de obra de países del Sur Global para tareas tan tediosas —y, en ciertos casos, nocivas para la salud mental— como el etiquetado de imágenes para entrenar inteligencias artificiales. La amenaza de la reconversión que en anteriores revoluciones industriales se había centrado en los trabajos manuales ahora se cierne sobre profesiones intelectuales de los sectores más diversos: el cine, la educación, el derecho, el arte o la traducción.

Vehículo autónomo para usos industriales. Fuente


Voy a permitirme tomar como ejemplo el sector de la traducción, que es el mío desde hace casi dos décadas, para plantear una hipótesis: quizás esta degradación de condiciones laborales no se debe a la habilidad de la IA para sustituir a los profesionales, sino al resultado de combinar las falsas expectativas sobre sus capacidades con los intereses empresariales que las usan como pretexto para aumentar sus beneficios. La IA, efectivamente, nos ha proporcionado algunas herramientas valiosas que nos sirven de ayuda, como el reconocimiento de voz que nos permite dictar traducciones, pero los sistemas de traducción automática distan mucho de ofrecer resultados profesionales, por lo que sigue siendo imprescindible la presencia humana para revisar y corregir el texto final.  Según un informe de la OCDE publicado en 2023, esa transformación de las traductoras en revisoras de un texto que se supone aceptable, pero apenas alcanza un nivel mínimo —y, en ocasiones, es totalmente inútil, como sucede en la traducción literaria, la audiovisual o la especializada—, ha conllevado un notable empeoramiento de las condiciones económicas y laborales que está llevando a algunas profesionales a abandonar el sector. No se trata de mejorar la calidad de nada, sino de reducir costes.

Por último, cabe mencionar, aunque solo sea brevemente, la influencia de las herramientas tecnológicas y de la IA en nuestra forma de trabajar o, incluso, de pensar. Por ejemplo, el hecho de que la información preliminar que ofrece la IA para facilitar los procesos de toma de decisiones condiciona, para bien y para mal, la decisión final que toma el profesional, como explica Helena Matute en esta charla de Naukas. O su repercusión en el aprendizaje: dominar el oficio de la traducción es indispensable para revisar un texto traducido, pero, si delegamos en la IA la tarea de traducir, ¿cómo adquiriremos la pericia necesaria para corregir los resultados? ¿Cómo distinguiremos un buen texto si nos alimentamos únicamente de las frases estándar que el motor estadístico de traducción selecciona por ser las más habituales? Como se plantea Fernández Panadero en esta charla, ¿podemos llegar a la excelencia si no dejamos sitio para la mediocridad? 

No hay duda de que la IA puede aportarnos múltiples beneficios y hacer avanzar el conocimiento en todos los campos, pero no deberíamos renunciar a regularla y adecuarla a nuestras necesidades, porque, como afirma Edwards, «el uso de la tecnología ha de ser una decisión deliberada, no un proceso incuestionable». A veces puede parecer lo contrario por la velocidad de los cambios, pero la tecnología es una herramienta al servicio de la sociedad, no al revés.

Las limitaciones del aprendizaje profundo

 

Una de las técnicas que más alegrías ha dado a la inteligencia artificial en los últimos tiempos es el aprendizaje profundo basado en redes neuronales artificiales que imitan el funcionamiento del cerebro humano. Estas redes están formadas por múltiples capas que procesan información y detectan patrones, corrigiéndose y «aprendiendo» sin supervisión.


Diagrama de red neuronal. Flavio Suárez-Muñoz, CC BY-SA 4.0. Fuente



En 2018, Gary Marcus publicó el artículo Deep Learning: A Critical Appraisal en el que repasaba varias limitaciones de este aprendizaje profundo. No fue el único en exponer estas críticas; otras voces se sumaron al aviso sobre la burbuja que se estaba generando en torno al aprendizaje profundo y predijeron incluso un nuevo invierno de la IA. Y, sin embargo, en noviembre de 2022, asistimos al nacimiento de ChatGPT, con la revolución mediática y social que supuso. ¿Se equivocaban quienes apuntaron esas posibles deficiencias? Tal vez no.

Una de las limitaciones que señaló Marcus fue la ingente cantidad de datos que necesita el aprendizaje profundo para dar resultados y, en paralelo, la capacidad computacional que requiere. A lo que podríamos añadir también su consumo energético y su huella de carbono. De hecho, las bases teóricas para el aprendizaje profundo no son nuevas y, si su despegue se ha producido ahora, es por la disponibilidad masiva de datos —parte de ellos sujetos a derechos de autor— y la mejora de la capacidad computacional que han permitido generar y procesar modelos de lenguaje de un tamaño colosal, que gestionan billones o incluso trillones de parámetros y corpus que se miden en petabytes.

Fuente



Marcus también apuntaba la falta de transparencia del aprendizaje profundo, que funciona como una especie de caja negra, lo que impide interpretar sus procesos y saber cómo llega a los resultados, lo que genera desconfianza y le resta credibilidad. Tanto es así que ha surgido una nueva disciplina centrada en este ámbito: la inteligencia artificial explicable.

En noviembre de 2023, el AIHUB, el ICMAT y el CNB organizaron unas jornadas sobre el futuro de la IA. La veintena de investigadoras e investigadores que se reunieron abordaron otras cuestiones recogidas en el artículo de Marcus, como la incapacidad de las aplicaciones de aprendizaje profundo de distinguir entre correlación y causalidad, de hacer inferencias y abstracciones o de integrar el conocimiento previo. Según Julio Gonzalo, emulan nuestro pensamiento intuitivo, no nuestro pensamiento racional, lo que los convierte en «cuñados estocásticos» que «hablan de oídas» o, directamente, se inventan datos (es lo que se conoce como «alucinaciones»). A pesar de los espectaculares resultados del aprendizaje profundo, parece que sigue teniendo sus sombras.

Toma de decisiones

 

Ya hemos visto que la IA se utiliza para resolver problemas que entrañan gran complejidad por su imprecisión o su envergadura.  Las técnicas de IA asumen que esa imprecisión forma parte del problema y la abordan mediante métodos de razonamiento aproximado, lógica difusa, algoritmos bioinspirados o redes neuronales. La cuestión del volumen de datos también se ha solventado en parte gracias a la mejora de la capacidad computacional. Sin embargo, hay un aspecto que aún dista mucho de tener solución: la toma de decisiones. ¿Cómo tomamos decisiones los seres humanos y cómo conseguir que las máquinas usen todos los datos que son capaces de recabar para tomar decisiones adecuadas?

En el caso de los problemas sencillos en los que es posible atribuir valores numéricos a los factores que influyen en la decisión, sí es fácil indicar a una máquina cómo proceder. Veamos, por ejemplo, este problema.



Cada uno de los médicos indica sus preferencias para los fármacos mencionados —betabloqueantes, calcioantagonistas, diuréticos, IECA, ARA II y alfabloqueantes— y el resultado se recoge en estas matrices de preferencias normalizadas.


A partir de estos datos, podemos indicar a la máquina cuál es el procedimiento que debe seguir para tomar la decisión. En primer lugar, se ejecuta la fase de integración de todas las matrices, obteniendo la media aritmética para cada posición.


A continuación, pasamos a la fase de explotación con el método del voto: obtenemos la media aritmética y determinamos cuál es la opción más valorada. 

En este caso, la opinión de los especialistas se decanta por los IECA, seguidos de los ARA II, los betabloqueantes, los diuréticos y los calcioantagonistas. Por último, los alfabloqueantes son la opción menos valorada.

Sin embargo, la situación se complica cuando estamos ante decisiones más complejas en la que entran en juego derechos fundamentales de la ciudadanía, como en el caso de los algoritmos que ya se están usando para calcular el riesgo de reincidencia delictiva, para conceder créditos o para seleccionar candidatos a ofertas de trabajo. Su falta de transparencia y la presencia de sesgos racistas o de género, entre otros, plantean un grave problema ético y pueden exacerbar distintas formas de discriminación, incurriendo en lo que Virginia Eubanks denomina, «automatización de la desigualdad».

El camino más corto

 


Riesgos, dilemas éticos, máquinas que se hacen pasar por humanos… en entradas anteriores hemos abordado varios aspectos de la inteligencia artificial, pero todavía no nos hemos planteado qué es, cómo funciona ni para qué se usa.

Podemos partir de una definición genérica, como la que nos da el DRAE: «Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». A esta definición cabe añadirle una distinción, la que se establece entre inteligencia artificial fuerte y débil, es decir, entre la IA que pretende reproducir emociones humanas y que quizás identificamos en nuestro imaginario con escenarios futuristas como el de los replicantes de Blade Runner, y la IA con la que trabajamos en el presente en aplicaciones como la síntesis de voz o el reconocimiento de imágenes, es decir, para resolver problemas concretos.

¿Y para qué tipo de problemas usamos la IA? Para aquellos en los que no existe conocimiento sistemático que permita plantear una solución analítica, bien porque hay que manejar una cantidad ingente de información con datos cambiantes o imprecisos, bien porque el coste del método analítico sería prohibitivo. Y para gestionar esta complejidad, podemos usar técnicas de búsqueda en un espacio de estados para intentar encontrar las rutas óptimas.

Uno de los grandes hitos mediáticos de la inteligencia artificial, la victoria de Deep Blue sobre Kasparov, se basa precisamente en un algoritmo de búsqueda, el A*, que es un algoritmo heurístico o informado. Los algoritmos informados usan una función de evaluación o función heurística para evaluar cada uno de los pasos de la búsqueda y determinar qué coste tiene cada movimiento con el fin de lograr una solución que puede no ser la mejor, pero sí lo suficientemente buena, además de eficiente. El algoritmo A* tiene múltiples aplicaciones en el día a día, como la planificación de rutas para sistemas de transporte o la optimización de la toma de decisiones en sistema de inteligencia artificial.

Método de búsqueda de un algoritmo A*. Fuente



Sin embargo, el algoritmo A* también tiene limitaciones. Una de las más importantes es que en escenarios de búsqueda muy amplios con muchas rutas posibles el coste de computación se multiplica, lo que se traduce en un altísimo consumo de recursos y memoria. Tampoco funciona bien cuando en el espacio aparecen estructuras irregulares, impredecibles o dinámicas, si no se conoce el diseño completo del espacio, ni cuando la función heurística presenta fallos de diseño.

Los sistemas actuales de IA no usan únicamente algoritmos de búsqueda informados; también se utilizan, por ejemplo, algoritmos bioinspirados como el de la colonia de hormigas.

¿Humano o máquina?

 

 

Selecciona todos los cuadros que contengan semáforos. Escribe el texto de la imagen. Demuestra que no eres un robot. ¿Cuántos captchas hemos resuelto en estos años? Tantos que hemos interiorizado y lexicalizado esas siglas que corresponden a Completely Automated Public Turing test to tell Computers and Humans Apart. El test de Turing, la prueba del ocho para diferenciar entre humanos y máquinas.

Alan Turing presentó esta herramienta de evaluación en el artículo Computing Machinery and Intelligence (1950) como un juego de imitación, una forma de determinar si las máquinas podían pensar, entendiendo «pensar» como «imitar las respuestas humanas». La dinámica es sencilla: un humano y una máquina, situados en salas separadas, responden a las preguntas de una persona que ejerce el papel de interrogador desde una tercera sala. La conversación se desarrolla por medio de un teclado y una pantalla y dura 5 minutos. El interrogador, que sabe que uno de sus interlocutores es una máquina, tiene que determinar cuál es. Si el interrogador es incapaz de distinguir, la máquina pasa la prueba.

A pesar de su trascendencia en la filosofía de la inteligencia artificial y de su impacto mediático, el test de Turing también ha cosechado críticas como la inexistencia de una definición objetiva de inteligencia, el hecho de que se refiera a una inteligencia simulada y no real, la posibilidad de que los seres humanos no se comporten de forma inteligente o cometan errores de juicio, la falacia antropomórfica o, incluso, su irrelevancia. Como afirma Santini en este artículo de 2012, podría ser que el test de Turing plantee dos posibilidades para crear máquinas inteligentes: que los programas sean cada vez más sofisticados o que las personas lo sean cada vez menos. De hecho, esa es una pregunta que nos hemos hecho muchas veces en el gremio de la traducción, que parece condenado a desaparecer por los avances de la IA: ¿realmente las redes neuronales son capaces ofrecer traducciones con el mismo nivel de calidad que un profesional humano o es que el uso intensivo de sistemas automáticos ha reducido las expectativas de calidad?

Sea como fuere, la irrupción de los sistemas de IA generativa y de bots como ChatGPT que dejan obsoleto el test de Turing imponen la necesidad de encontrar sistemas para detectar deepfakes y paliar los problemas éticos que plantean.

sábado, 27 de enero de 2024

Las estaciones de la inteligencia artificial

 

Un telar mecánico: seguramente eso debería ser la inteligencia artificial para una traductora. Sin embargo, me parece más acertado decir que es un imaginario, una construcción simbólica, como argumentan Sánchez y Torrijos en La primavera de la inteligencia artificial. Un relato cuya historia ha vivido varios inviernos y ahora parece encontrarse en un verano de récord gracias a productos estrella supuestamente infalibles impulsados, en muchos casos, por empresas privadas.

Es en ese carácter privado en el que podría radicar la principal diferencia entre la IA y el resto de las ciencias: la ciencia, para serlo, debe estar sujeta al examen de toda la comunidad científica; en cambio, las aplicaciones de IA tienen mucho de caja negra. La investigación médica, la ingeniería nuclear o la civil, todas deben cumplir unas normas, pero hasta ahora no existe ninguna regulación que limite la investigación de las tecnológicas, que han admitido, por ejemplo, que, sin usar materiales sujetos a derechos de autor, no habrían podido desarrollar herramientas como ChatGPT.

Comprar acríticamente ese relato de infalibilidad e inevitabilidad de la IA, alimentado por intereses privados, nos impide entender qué puede hacer realmente la IA, para qué queremos usarla, sus implicaciones éticas, ecológicas y socioeconómicas o sus riesgos.

Del neuroderecho y otras neurohierbas

  «Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en u...