El 23 de marzo de 2023, el Future
of Life Institute publicó una carta
abierta en la que solicitaba una moratoria en el desarrollo de
sistemas de IA como GPT-4 a la que se adhirieron figuras muy destacadas del
sector tecnológico. La carta suscitó apasionadas reacciones a favor y en
contra, aunque también hubo voces que, reconociendo el valor de la iniciativa
como llamada de atención sobre un tema que la merece, se quedaron en una
reflexión más pausada. Innerarity, por ejemplo, afirmó esto en una columna
publicada en El País: «[La carta] Sugiere capacidades completamente
exageradas de los sistemas y los presenta como herramientas más poderosas de lo
que realmente son. De este modo, contribuye a distraer la atención de los
problemas realmente existentes, sobre los que tenemos que reflexionar ahora y
no en un hipotético futuro». Diéguez señalaba
en JotDown que «No hay por qué aceptar que vamos a tener pronto máquinas
superinteligentes que van a tomar el control de todo y, por maldad o desidia,
van a acabar con nuestra especie. Ni siquiera es necesario creer que los
sistemas de IA que tenemos tienen auténtica inteligencia. Sean inteligentes o
no, están teniendo ya consecuencias preocupantes sobre las que conviene pensar».
Lo cierto es que la IA plantea riesgos y que no son pocos los trabajos y figuras académicas que han estudiado sus limitaciones o implicaciones éticas y socioeconómicas (por poner solo algunos ejemplos: Coeckelbergh, Crawford, Degli-Espoti, Eubanks). También están proliferando los intentos de poner coto a esas derivadas, ya sea mediante legislación formal o con códigos de autorregulación, más o menos bienintencionados y voluntarios, de la industria: el Alignment Research Center, la Declaración de Bletchley, las Directrices éticas para una IA fiable de la CE, la Recomendación sobre la ética de la IA de la UNESCO o el proyecto de Reglamento de inteligencia artificial de la UE son algunos de ellos. Todas las reflexiones coinciden en señalar los mismos problemas, que tienen tanto que ver con las propias deficiencias de la IA, como con las falsas expectativas generadas y sus usos para fines contrarios al bienestar de la ciudadanía.
Presuponemos que la IA es imparcial. Fuente: Freepik |
Una de las cuestiones clave, que ya habían señalado Marcus y otros especialistas en IA, es que el aprendizaje profundo requiere cantidades colosales de datos (y consume cantidades colosales de recursos para su tratamiento), lo que se traduce en el deseo de adquirirlos a toda costa, a veces por medios que vulneran el derecho a la intimidad, los reglamentos sobre protección de datos o la propiedad intelectual. También supone incorporar información sin filtros, sin que importen su veracidad, su calidad o sus sesgos, algo que, sumado a nuestra tendencia a pensar que la tecnología es neutra y las máquinas son objetivas e imparciales, puede tener consecuencias nefastas: usar sistemas de IA basados en el aprendizaje profundo sin ser conscientes de sus deficiencias contribuye a perpetuar discriminaciones y exacerbar el problema de la desinformación. Como apunta Fernández Panadero en El viaje del conocimiento, «¿Qué ocurre cuando me dan una respuesta elaborada y sin fuentes? Todo es mucho más sencillo, pero ya no tengo control. Volvemos al estadio infantil de «Papá dice que» o de preguntar a un oráculo. Precisamente queríamos los métodos de la ciencia para emanciparnos de esas servidumbres». Esta falta de control entronca con otra de las limitaciones del aprendizaje profundo: su funcionamiento como caja negra, su falta de explicabilidad y predicibilidad.
Las inquietudes en el plano de la
desinformación no se derivan exclusivamente de la naturaleza de la IA y del
aprendizaje profundo, sino también de sus usos espurios: gracias a la IA
generativa ahora resulta muy fácil generar deepfakes, desde imágenes pornográficas
falsas a bulos y noticias manipuladas que erosionan la
democracia y la confianza de la ciudadanía en las instituciones. Todo ello
conlleva, además, una serie de interrogantes
jurídicos: ¿Es lícito prohibir una tecnología amparada por la libertad
de expresión y creación únicamente por su potencial uso delictivo? ¿Y si esa tecnología es producto del incumplimiento de las leyes de propiedad intelectual, las mismas que algunas empresas invocan para no desvelar la programación de sus algoritmos? ¿Quién asume
la responsabilidad de las decisiones tomadas por una inteligencia artificial?
La IA puede tener profundas
implicaciones en el mercado de trabajo y en el plano de los derechos laborales.
La retórica
imperante en el mundo empresarial es que el big data no va a
remplazar a nadie, que la IA no es más que una herramienta útil para ahorrarnos
las tareas repetitivas y dedicar el tiempo a actividades más creativas con
auténtico valor añadido y, si acaso desaparece alguna profesión, surgirán otras
nuevas mucho más especializadas y mejor remuneradas. Sin embargo, asistimos a
la destrucción de puestos de trabajo en sectores como el periodismo (¿Hay
algún oficio que requiere más autonomía y espíritu crítico? ¿No es el
periodismo ese cuarto poder tan necesario para la democracia?), mientras, en
paralelo, las grandes tecnológicas
recurren a mano de obra de países del Sur Global para
tareas tan tediosas —y, en ciertos casos, nocivas para la salud mental— como el
etiquetado de imágenes para entrenar inteligencias artificiales. La amenaza de
la reconversión que en anteriores revoluciones industriales se había centrado
en los trabajos manuales ahora se cierne sobre profesiones intelectuales de los
sectores más diversos: el cine, la educación, el derecho, el arte o la
traducción.
Vehículo autónomo para usos industriales. Fuente |
Voy a permitirme tomar como ejemplo el sector de la traducción, que es el mío desde hace casi dos décadas, para plantear una hipótesis: quizás esta degradación de condiciones laborales no se debe a la habilidad de la IA para sustituir a los profesionales, sino al resultado de combinar las falsas expectativas sobre sus capacidades con los intereses empresariales que las usan como pretexto para aumentar sus beneficios. La IA, efectivamente, nos ha proporcionado algunas herramientas valiosas que nos sirven de ayuda, como el reconocimiento de voz que nos permite dictar traducciones, pero los sistemas de traducción automática distan mucho de ofrecer resultados profesionales, por lo que sigue siendo imprescindible la presencia humana para revisar y corregir el texto final. Según un informe de la OCDE publicado en 2023, esa transformación de las traductoras en revisoras de un texto que se supone aceptable, pero apenas alcanza un nivel mínimo —y, en ocasiones, es totalmente inútil, como sucede en la traducción literaria, la audiovisual o la especializada—, ha conllevado un notable empeoramiento de las condiciones económicas y laborales que está llevando a algunas profesionales a abandonar el sector. No se trata de mejorar la calidad de nada, sino de reducir costes.
Por último, cabe mencionar,
aunque solo sea brevemente, la influencia de las herramientas tecnológicas y de
la IA en nuestra forma de trabajar o, incluso, de pensar. Por ejemplo, el hecho
de que la información preliminar que ofrece la IA para facilitar los procesos
de toma de decisiones condiciona, para bien y para mal, la decisión final que
toma el profesional, como explica Helena Matute en esta charla de Naukas. O su repercusión en el aprendizaje: dominar el oficio de la traducción es indispensable para revisar un texto traducido, pero, si delegamos en la IA la tarea de traducir, ¿cómo adquiriremos la pericia necesaria para corregir los resultados? ¿Cómo distinguiremos un buen texto si nos alimentamos únicamente de las frases estándar que el motor estadístico de traducción selecciona por ser las más habituales? Como se plantea Fernández Panadero en esta charla, ¿podemos llegar a la excelencia si no dejamos sitio para la mediocridad?
No hay duda de que la IA puede
aportarnos múltiples beneficios y hacer avanzar el conocimiento en todos los campos, pero no
deberíamos renunciar a regularla y adecuarla a nuestras necesidades, porque, como
afirma Edwards,
«el uso de la tecnología ha de ser una decisión deliberada, no un proceso
incuestionable». A veces puede parecer lo contrario por la velocidad de los
cambios, pero la tecnología es una herramienta al servicio de la sociedad, no
al revés.