domingo, 28 de enero de 2024

De máquinas y traducciones

 

El 23 de marzo de 2023, el Future of Life Institute publicó una carta abierta en la que solicitaba una moratoria en el desarrollo de sistemas de IA como GPT-4 a la que se adhirieron figuras muy destacadas del sector tecnológico. La carta suscitó apasionadas reacciones a favor y en contra, aunque también hubo voces que, reconociendo el valor de la iniciativa como llamada de atención sobre un tema que la merece, se quedaron en una reflexión más pausada. Innerarity, por ejemplo, afirmó esto en una columna publicada en El País: «[La carta] Sugiere capacidades completamente exageradas de los sistemas y los presenta como herramientas más poderosas de lo que realmente son. De este modo, contribuye a distraer la atención de los problemas realmente existentes, sobre los que tenemos que reflexionar ahora y no en un hipotético futuro». Diéguez señalaba en JotDown que «No hay por qué aceptar que vamos a tener pronto máquinas superinteligentes que van a tomar el control de todo y, por maldad o desidia, van a acabar con nuestra especie. Ni siquiera es necesario creer que los sistemas de IA que tenemos tienen auténtica inteligencia. Sean inteligentes o no, están teniendo ya consecuencias preocupantes sobre las que conviene pensar».

Lo cierto es que la IA plantea riesgos y que no son pocos los trabajos y figuras académicas que han estudiado sus limitaciones o implicaciones éticas y socioeconómicas (por poner solo algunos ejemplos: Coeckelbergh, Crawford, Degli-Espoti,  Eubanks). También están proliferando los intentos de poner coto a esas derivadas, ya sea mediante legislación formal o con códigos de autorregulación, más o menos bienintencionados y voluntarios, de la industria: el Alignment Research Center, la Declaración de Bletchley, las Directrices éticas para una IA fiable de la CE, la Recomendación sobre la ética de la IA de la UNESCO o el proyecto de Reglamento de inteligencia artificial de la UE son algunos de ellos. Todas las reflexiones coinciden en señalar los mismos problemas, que tienen tanto que ver con las propias deficiencias de la IA, como con las falsas expectativas generadas y sus usos para fines contrarios al bienestar de la ciudadanía.

Presuponemos que la IA es imparcial. Fuente: Freepik


Una de las cuestiones clave, que ya habían señalado Marcus y otros especialistas en IA, es que el aprendizaje profundo requiere cantidades colosales de datos (y consume cantidades colosales de recursos para su tratamiento), lo que se traduce en el deseo de adquirirlos a toda costa, a veces por medios que vulneran el derecho a la intimidad, los reglamentos sobre protección de datos o la propiedad intelectual. También supone incorporar información sin filtros, sin que importen su veracidad, su calidad o sus sesgos, algo que, sumado a nuestra tendencia a pensar que la tecnología es neutra y las máquinas son objetivas e imparciales, puede tener consecuencias nefastas: usar sistemas de IA basados en el aprendizaje profundo sin ser conscientes de sus deficiencias contribuye a perpetuar discriminaciones y exacerbar el problema de la desinformación. Como apunta Fernández Panadero en El viaje del conocimiento, «¿Qué ocurre cuando me dan una respuesta elaborada y sin fuentes? Todo es mucho más sencillo, pero ya no tengo control. Volvemos al estadio infantil de «Papá dice que» o de preguntar a un oráculo. Precisamente queríamos los métodos de la ciencia para emanciparnos de esas servidumbres». Esta falta de control entronca con otra de las limitaciones del aprendizaje profundo: su funcionamiento como caja negra, su falta de explicabilidad y predicibilidad.

Las inquietudes en el plano de la desinformación no se derivan exclusivamente de la naturaleza de la IA y del aprendizaje profundo, sino también de sus usos espurios: gracias a la IA generativa ahora resulta muy fácil generar deepfakes, desde imágenes pornográficas falsas a bulos y noticias manipuladas que erosionan la democracia y la confianza de la ciudadanía en las instituciones. Todo ello conlleva, además, una serie de interrogantes jurídicos: ¿Es lícito prohibir una tecnología amparada por la libertad de expresión y creación únicamente por su potencial uso delictivo? ¿Y si esa tecnología es producto del incumplimiento de las leyes de propiedad intelectual, las mismas que algunas empresas invocan para no desvelar la programación de sus algoritmos? ¿Quién asume la responsabilidad de las decisiones tomadas por una inteligencia artificial?

La IA puede tener profundas implicaciones en el mercado de trabajo y en el plano de los derechos laborales. La retórica imperante en el mundo empresarial es que el big data no va a remplazar a nadie, que la IA no es más que una herramienta útil para ahorrarnos las tareas repetitivas y dedicar el tiempo a actividades más creativas con auténtico valor añadido y, si acaso desaparece alguna profesión, surgirán otras nuevas mucho más especializadas y mejor remuneradas. Sin embargo, asistimos a la destrucción de puestos de trabajo en sectores como el periodismo (¿Hay algún oficio que requiere más autonomía y espíritu crítico? ¿No es el periodismo ese cuarto poder tan necesario para la democracia?), mientras, en paralelo, las grandes tecnológicas recurren a mano de obra de países del Sur Global para tareas tan tediosas —y, en ciertos casos, nocivas para la salud mental— como el etiquetado de imágenes para entrenar inteligencias artificiales. La amenaza de la reconversión que en anteriores revoluciones industriales se había centrado en los trabajos manuales ahora se cierne sobre profesiones intelectuales de los sectores más diversos: el cine, la educación, el derecho, el arte o la traducción.

Vehículo autónomo para usos industriales. Fuente


Voy a permitirme tomar como ejemplo el sector de la traducción, que es el mío desde hace casi dos décadas, para plantear una hipótesis: quizás esta degradación de condiciones laborales no se debe a la habilidad de la IA para sustituir a los profesionales, sino al resultado de combinar las falsas expectativas sobre sus capacidades con los intereses empresariales que las usan como pretexto para aumentar sus beneficios. La IA, efectivamente, nos ha proporcionado algunas herramientas valiosas que nos sirven de ayuda, como el reconocimiento de voz que nos permite dictar traducciones, pero los sistemas de traducción automática distan mucho de ofrecer resultados profesionales, por lo que sigue siendo imprescindible la presencia humana para revisar y corregir el texto final.  Según un informe de la OCDE publicado en 2023, esa transformación de las traductoras en revisoras de un texto que se supone aceptable, pero apenas alcanza un nivel mínimo —y, en ocasiones, es totalmente inútil, como sucede en la traducción literaria, la audiovisual o la especializada—, ha conllevado un notable empeoramiento de las condiciones económicas y laborales que está llevando a algunas profesionales a abandonar el sector. No se trata de mejorar la calidad de nada, sino de reducir costes.

Por último, cabe mencionar, aunque solo sea brevemente, la influencia de las herramientas tecnológicas y de la IA en nuestra forma de trabajar o, incluso, de pensar. Por ejemplo, el hecho de que la información preliminar que ofrece la IA para facilitar los procesos de toma de decisiones condiciona, para bien y para mal, la decisión final que toma el profesional, como explica Helena Matute en esta charla de Naukas. O su repercusión en el aprendizaje: dominar el oficio de la traducción es indispensable para revisar un texto traducido, pero, si delegamos en la IA la tarea de traducir, ¿cómo adquiriremos la pericia necesaria para corregir los resultados? ¿Cómo distinguiremos un buen texto si nos alimentamos únicamente de las frases estándar que el motor estadístico de traducción selecciona por ser las más habituales? Como se plantea Fernández Panadero en esta charla, ¿podemos llegar a la excelencia si no dejamos sitio para la mediocridad? 

No hay duda de que la IA puede aportarnos múltiples beneficios y hacer avanzar el conocimiento en todos los campos, pero no deberíamos renunciar a regularla y adecuarla a nuestras necesidades, porque, como afirma Edwards, «el uso de la tecnología ha de ser una decisión deliberada, no un proceso incuestionable». A veces puede parecer lo contrario por la velocidad de los cambios, pero la tecnología es una herramienta al servicio de la sociedad, no al revés.

No hay comentarios:

Publicar un comentario

Del neuroderecho y otras neurohierbas

  «Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en u...