domingo, 17 de marzo de 2024

Del neuroderecho y otras neurohierbas

 

«Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en un artículo sobre la proliferación del prefijo ‘neuro’ y los riesgos que conlleva unirlo al nombre de cualquier disciplina, como la posibilidad de que entre los estudios rigurosos se cuelen todo tipo de pseudociencias valiéndose del prestigio que la sociedad le otorga a la ciencia.

Un buen ejemplo de este fenómeno podría ser el de la neurolingüística, cuyo objeto de estudio, el de los mecanismos neurológicos del lenguaje, coincide en buena medida con el de otro campo clásico, la psicología del lenguaje. La coincidencia es tal que se han publicado numerosos artículos sobre los límites y conexiones entre ambos, como este de Paredes y Varo (2006), y podría incluso plantearse la pregunta de si realmente era necesario acuñar un nuevo término.  El hecho de que los avances en el conocimiento vayan imponiendo la necesidad o el deseo de crear nuevas denominaciones para áreas del saber genera cierta incertidumbre que aprovechan las pseudociencias, como la ‘programación neurolingüística’. Si la neurolingüística es una nueva disciplina científica legítima y distinta de la psicología del lenguaje, ¿la programación neurolingüística es otro campo novedoso dentro de esta? No, es una de las diez intervenciones psicoterapéuticas más desacreditadas por la investigación.

Y, sin embargo, a pesar de los riesgos que pueda presentar este abordaje de distintas ciencias desde la óptica de la neurociencia, puede que resulte imprescindible. Rodríguez Palenzuela (2022) defiende que «se requiere un replanteamiento global de las distintas disciplinas para incorporar la perspectiva evolucionista» porque las conductas humanas no son el resultado de la naturaleza o la crianza, sino de la naturaleza y la crianza. Según este autor, el rechazo a incorporar lo biológico en las ciencias sociales se debe a una mezcla de miedos: el miedo a la desigualdad y a que la posible existencia de diferencias innatas justifique la discriminación (como ya ocurrió con distintas corrientes del darwinismo social de infausto recuerdo); el miedo al determinismo y a que las tendencias innatas negativas sean inevitables; y el miedo al nihilismo, a que la vida carezca de sentido.

Estos temores se reflejan a la perfección en la literatura académica sobre esa nueva disciplina que se ha dado en llamar ‘neuroderecho’, que, además, comparte también vacilaciones terminológicas con la neurolingüística. Según Cáceres y López (2022), el término ‘neuroderecho’ hace referencia tanto al ‘derecho de las neurociencias’, es decir, la regulación de la investigación y el uso de las neurociencias, como a la ‘neurociencia del derecho’, entendida como la aplicación de las neurociencias a la compresión de las conductas delictivas y jurídicas. Es esta segunda acepción la que más dudas plantea. Ruiz Martínez-Cañavete (2015) asegura que las aportaciones de la neurociencia son imprescindibles para entender el funcionamiento del derecho penal. Y, en efecto, ese nuevo conocimiento empírico puede arrojar luz sobre las conductas punibles permitiendo entender sus mecanismos o motivaciones, ayudarnos a determinar si una persona se encuentra en pleno uso de sus facultades mentales, si la actuación de los agentes del sistema judicial es adecuada o está sujeta a sesgos o, incluso, aportarnos herramientas neurocientíficas para determinar la verdad de los hechos, como resonancias magnéticas funcionales que posibilitarían la detección de declaraciones falsas. También podría resultar de utilidad en tratamientos neurológicos rehabilitadores para personas que hayan cometido un delito.

Pero todos estos posibles usos tienen otra cara que llevan a la aparición de nuevos conceptos, como el de ‘neurodeterminismo’. Si las conductas son resultado de procesos neurológicos preestablecidos, ¿existe el libre albedrío? ¿Esas bases neurológicas servirían de justificación en un juicio? ¿Hay personas que están abocadas irremediablemente a delinquir y, por lo tanto, es lícito actuar contra ellas con antelación para evitarlo? ¿Serían lícitos los tratamientos neurológicos que anularan las pulsiones delictivas? ¿El uso de herramientas que detecten la mentira no atenta contra los derechos humanos y, en concreto, el derecho de una persona acusada a no autoinculparse?

Y así, de ‘neuro’ en ‘neuro’, llegamos a los neuroderechos que,  según la NeuroRights Initiative, deberían incluir al menos cinco: el derecho a la libertad personal, al libre albedrío, a la privacidad mental, al acceso equitativo a las tecnologías y a la protección contra los sesgos y la discriminación.

Si repasamos el camino que nos ha traído hasta aquí, nos damos cuenta de que todas estas inquietudes no son sino preguntas clásicas que llevamos intentando responder desde siempre. Ahora disponemos de conocimientos neurológicos que podemos sumar a los saberes acumulados para entender mejor la realidad, del mismo modo que contamos con otros avances matemáticos, físicos o tecnológicos. Pongamos nombre a nuevas disciplinas si nos resulta útil, pero no dejemos que esas etiquetas que, en teoría, responden a un deseo de integración, nos conduzca a una mayor segmentación del saber.

 

  

 

Referencias

 

 

Cáceres Nieto, E.; López Olvera, C. P. (2022) «El neuroderecho como un nuevo ámbito de protección de los derechos humanos». Revista Mexicana de Derecho Constitucional, n.º 46. DOI: 10.22201/iij.24484881e.2022.46.17048

Cardenas, F. P.; Corredor, K. (2017) «Neuro-«lo que sea»: inicio y auge de una pseudociencia para el siglo XXI». Revista Latinoamericana de Psicología 49. DOI: 10.1016/j.rlp.2017.04.001

Greenfield, J. (2013) «NLP : Research on Effectiveness of Neuro Linguistic Programming». scientliteracy

Paredes Duarte, M.J.; Varo Varo, C. (2006) «Lenguaje y cerebro: conexiones entre neurolingüística y psicolingüística». I Congreso Nacional de Lingüística Clínica. Valencia: Universidad de Valéncia. Disponible en: https://www.uv.es/perla/1%5b09%5d%20Paredes%20y%20Varo.pdf

Rodríguez Palenzuela, P. (2022) ¿Cómo entender a los humanos? Pamplona: Next Door Publishers

Ruiz Martínez-Cañavete, M. (2015) «Neurociencia, derecho y derechos humanos». Revista de Derecho de la UNED (17), 1249–1277. DOI: 10.5944/rduned.17.2015.16288

Salas, J. (2020) «Por qué hay que prohibir que nos manipulen el cerebro antes de que sea posible» El País

martes, 12 de marzo de 2024

Programa de radio

 

—Después de este repaso informativo, es la hora de nuestra cita semanal con los libros y la divulgación científica. Buenos días, Ángela, ¿qué nos traes hoy?

—Buenos días, Carmen.  Para hoy he escogido dos libros que estoy segura de que te van a encantar. El primero es Neuronas para la emoción, de un neurobiólogo y divulgador del ya habíamos hablado antes en esta sección, Xurxo Mariño. Y el segundo es El cerebro del artista, de la neurobióloga y divulgadora Mara Dierssen.

—¡Qué interesante! Entonces hoy nos toca el lado más emotivo y artístico del cerebro, ¿no?

—Sí, pero antes tengo que hacer una precisión. Ya sabes que soy traductora y eso de buscar siempre la palabra justa me puede, así que… Aunque vamos a usar el término ‘cerebro’ porque es el utilizamos en el día a día, en realidad eso que tenemos dentro de la cabeza se llama ‘encéfalo’ no ‘cerebro’. El cerebro es solo una parte del encéfalo.

—Bueno, pues ya me has dejado intrigada y tengo que preguntarlo, ¿cuáles son esas otras partes del encéfalo?

—Básicamente el tronco encefálico y el cerebelo. El tronco encefálico es la parte que conecta la médula espinal con el encéfalo, es la más antigua evolutivamente hablando y controla funciones básicas como el ritmo cardíaco. Y el cerebelo, que está más o menos debajo de la nuca, coordina el movimiento y el equilibrio. Encima de estas dos estructuras es donde está el cerebro, que también tiene un montón de piezas más pequeñas, pero seguramente todos lo identificamos con la zona más externa, la corteza cerebral, que es esa masa gelatinosa llena de pliegues que parece una nuez. La corteza es también la parte más moderna del encéfalo desde el punto de vista evolutivo y es donde se localizan las funciones superiores como el pensamiento y el lenguaje.

—Vale, entonces podríamos decir que de abajo arriba y de más antiguo a más moderno, tenemos el tronco encefálico, el cerebelo y el cerebro, con su envoltura, que es la corteza. Y estoy empezando a sospechar que esto de la localización tiene mucho que ver con lo que nos vas a contar sobre los libros que nos has traído hoy…

—Efectivamente. Xurxo Mariño nos explica al principio de Neuronas para la emoción que las emociones en las que se va a centrar son las llamadas ‘básicas’, que, según la visión más aceptada en el mundo científico, son emociones innatas y universales que se originan en las regiones subcorticales del encéfalo, es decir, en las que están por debajo de la corteza, que son más antiguas. Y cuando digo que son más antiguas quiero decir que surgieron antes en el proceso de la evolución, así que las compartimos con otros animales.

—¿Y cuáles son?

—Hay bastante consenso en cuatro de ellas, el miedo, la ira, la tristeza y la alegría, aunque también es bastante posible que a esa nómina se sumen el asco, la emoción de búsqueda y anticipación, el cuidado maternal y la atracción sexual.

—Espera, espera… ¿el asco? ¿El asco es una emoción universal?

—Si lo piensas, es una emoción muy útil y una ventaja evolutiva. Un individuo que siente instintivamente asco por un alimento en mal estado tiene más probabilidades de sobrevivir. En realidad, las emociones son respuestas del organismo antes situaciones que requieren actuar de algún modo y contar con esa respuesta «preprogramada» facilita decidir con rapidez. Por ejemplo, cuando sentimos miedo, el corazón se acelera, se libera cortisol y entramos en un estado de alerta, listos para enfrentarnos al peligro o huir de él.

—Vale, ya entiendo. Pero si estas emociones son innatas y universales, ¿no deberíamos sentirlas todos ante los mismos estímulos? A mí, por ejemplo, me dan pavor las alturas, pero tengo una amiga a la que le encanta escalar y está siempre buscando picos a los que subirse, como si fuera una cabra.

—Es que la experiencia personal va modulando esas predisposiciones que traemos de serie al nacer. Parece que tenemos cierta tendencia a temer cosas que supusieron una amenaza para la supervivencia en nuestro pasado evolutivo, como las serpientes, pero esa predisposición no tiene por qué concretarse. Y también es posible que alguna vivencia te haya condicionado y tengas miedo, no sé, a los payasos. En cualquier caso, todas las emociones tienen su función y son necesarias, incluso las que pueden percibirse como negativas. Además, también son fundamentales para otros procesos que pueden parecernos de lo más racional.

—¿Cómo cuál?

—Xurxo relata en el libro el caso de un hombre adulto, casado, con hijos, inteligente y con éxito en su trabajo al que le detectaron un tumor en la corteza prefrontal, esa parte modernísima del encéfalo en la que se localizan las funciones intelectuales. Le extirparon el tumor y parecía que todo había salido bien y que seguía manteniendo todas sus capacidades intactas. Pero al buen hombre empezaron a irle muy mal las cosas, se divorció, lo echaron del trabajo y se arruinó. Resulta que durante la operación le habían extirpado también una zona de la corteza que es la que recibe las señales emocionales de las regiones subcorticales, con toda su antigüedad evolutiva, y sin esa información emocional no era capaz de tomar buenas decisiones.

—La verdad es que la mente humana es fascinante, al final todo está conectado. ¿Nos vas a contar algo más de esas otras emociones? ¿De la alegría? ¿De la atracción sexual, que igual es lo que están esperando nuestras y nuestros oyentes?

—Creo que os voy a dejar con las ganas para que os animéis a leer el libro de Xurxo, que además de ser muy didáctico, es muy divertido y está lleno de anécdotas. Y como sabes que siempre me gusta recomendar algún libro alternativo, os sugiero uno que se llama ¿Cómo entender a los humanos? del bioquímico y biólogo molecular Pablo Rodríguez Palenzuela, que expone esa doble faceta de todas las conductas, con su cara biológica y genética y su vertiente cultural o social.

—Perfecto, tomamos nota. Y ahora le toca el turno a El cerebro del artista de Mara Dierseen. Te dejo que nos lo presentes, pero te adelanto que estoy impaciente por hacerte una pregunta que me ronda desde que mencionaste el título.

—Puede que sea la que nos estamos haciendo todas… De momento puedo decirte que Mara Dierseen nos ha regalado un libro francamente interesante y muy ameno. Empieza reflexionando sobre el sentido biológico del arte, es decir, ¿por qué existe el arte? ¿Qué ventaja evolutiva nos aporta para llevar con nuestra especie desde las pinturas rupestres? Ya os digo que no hay una respuesta clara, pero podría tener algo que ver con su función para facilitar la cohesión social de la tribu o para mantener el estatus dentro de ella. Y después de esa introducción, Mara se embarca en una explicación muy clara sobre los procesos neurológicos relacionados con las artes visuales y con la música, desde la recepción de las señales visuales y acústicas en los órganos sensoriales a su descodificación en la corteza cerebral pasando por la transmisión de los impulsos eléctricos y químicos. Los dos últimos capítulos se los dedica a la relación entre el arte y la locura y a la creatividad humana.

—Ahí quería yo llegar… ¿La genialidad artística es innata?

—Uf, son preguntas difíciles. Mara comenta en el capítulo dedicado a la música el caso del oído absoluto, que es la capacidad para reconocer el tono de un sonido sin tener otro como referencia. Esa capacidad sí que sería innata y hereditaria, pero ni todas las personas que la poseen son genios de la música, ni todas las grandes figuras de este campo tienen oído absoluto. Lo que sí se ha comprobado es que quienes se dedican a la música poseen ciertas peculiaridades en sus estructuras cerebrales y en las funciones neuronales. Ahora bien, es probable que esto se deba a la plasticidad del cerebro y que sea más una consecuencia que una causa. Como decía Cajal, «el ser humano es, en cierta medida, escultor de su propio cerebro».

—Es decir, que la práctica hace al maestro.

—No sé si hace al maestro, pero lo que está claro es que modifica las conexiones neuronales.

—¿Y qué me dices de la creatividad y la inspiración? ¿Hay algo distinto en el cerebro de los artistas que les permite encontrarlas con más facilidad?

—Bueno, lo primero sería recordar que la creatividad no se limita ni mucho menos al arte y está presente en cualquier actividad, desde las científicas a cualquier tarea cotidiana. Se trata de encontrar formas nuevas de hacer las cosas. Los mecanismos subyacentes tampoco están muy claros, pero puede que el acto creativo se derive de la capacidad de no fijar demasiado la atención y abrirse a más representaciones mentales para encontrar nuevas asociaciones. Es lo que se llama desinhibición cognitiva.

—Se nos acaba el tiempo, así que tendremos que leer el libro para saber más, pero antes de despedirnos te dejo que nos recomiendes ese título alternativo que seguramente tendrás preparado.

—No se me ocurre mejor recomendación para acabar hoy que la autobiografía de la neurobióloga Rita Levi-Montalcini, Elogio a la imperfección. El nombre del libro ya da una idea de su filosofía de no descartar nada porque todo ayuda a comprender mejor, a despertar la creatividad. Pero, además, la de Levi-Montalcini es la historia de una mujer, judía y científica, que nació en 1909 y tuvo que hacer frente a todo tipo de obstáculos, desde la discriminación de género en la comunidad científica al antisemitismo de la Italia fascista. Y consiguió ganar el Premio Nobel de Medicina en 1986. Si puedes, no dejes de leerla.

—¡Hoy la pila de libros pendientes no ha hecho más que crecer! Gracias por todas esas recomendaciones y hasta la semana que viene.

domingo, 28 de enero de 2024

De máquinas y traducciones

 

El 23 de marzo de 2023, el Future of Life Institute publicó una carta abierta en la que solicitaba una moratoria en el desarrollo de sistemas de IA como GPT-4 a la que se adhirieron figuras muy destacadas del sector tecnológico. La carta suscitó apasionadas reacciones a favor y en contra, aunque también hubo voces que, reconociendo el valor de la iniciativa como llamada de atención sobre un tema que la merece, se quedaron en una reflexión más pausada. Innerarity, por ejemplo, afirmó esto en una columna publicada en El País: «[La carta] Sugiere capacidades completamente exageradas de los sistemas y los presenta como herramientas más poderosas de lo que realmente son. De este modo, contribuye a distraer la atención de los problemas realmente existentes, sobre los que tenemos que reflexionar ahora y no en un hipotético futuro». Diéguez señalaba en JotDown que «No hay por qué aceptar que vamos a tener pronto máquinas superinteligentes que van a tomar el control de todo y, por maldad o desidia, van a acabar con nuestra especie. Ni siquiera es necesario creer que los sistemas de IA que tenemos tienen auténtica inteligencia. Sean inteligentes o no, están teniendo ya consecuencias preocupantes sobre las que conviene pensar».

Lo cierto es que la IA plantea riesgos y que no son pocos los trabajos y figuras académicas que han estudiado sus limitaciones o implicaciones éticas y socioeconómicas (por poner solo algunos ejemplos: Coeckelbergh, Crawford, Degli-Espoti,  Eubanks). También están proliferando los intentos de poner coto a esas derivadas, ya sea mediante legislación formal o con códigos de autorregulación, más o menos bienintencionados y voluntarios, de la industria: el Alignment Research Center, la Declaración de Bletchley, las Directrices éticas para una IA fiable de la CE, la Recomendación sobre la ética de la IA de la UNESCO o el proyecto de Reglamento de inteligencia artificial de la UE son algunos de ellos. Todas las reflexiones coinciden en señalar los mismos problemas, que tienen tanto que ver con las propias deficiencias de la IA, como con las falsas expectativas generadas y sus usos para fines contrarios al bienestar de la ciudadanía.

Presuponemos que la IA es imparcial. Fuente: Freepik


Una de las cuestiones clave, que ya habían señalado Marcus y otros especialistas en IA, es que el aprendizaje profundo requiere cantidades colosales de datos (y consume cantidades colosales de recursos para su tratamiento), lo que se traduce en el deseo de adquirirlos a toda costa, a veces por medios que vulneran el derecho a la intimidad, los reglamentos sobre protección de datos o la propiedad intelectual. También supone incorporar información sin filtros, sin que importen su veracidad, su calidad o sus sesgos, algo que, sumado a nuestra tendencia a pensar que la tecnología es neutra y las máquinas son objetivas e imparciales, puede tener consecuencias nefastas: usar sistemas de IA basados en el aprendizaje profundo sin ser conscientes de sus deficiencias contribuye a perpetuar discriminaciones y exacerbar el problema de la desinformación. Como apunta Fernández Panadero en El viaje del conocimiento, «¿Qué ocurre cuando me dan una respuesta elaborada y sin fuentes? Todo es mucho más sencillo, pero ya no tengo control. Volvemos al estadio infantil de «Papá dice que» o de preguntar a un oráculo. Precisamente queríamos los métodos de la ciencia para emanciparnos de esas servidumbres». Esta falta de control entronca con otra de las limitaciones del aprendizaje profundo: su funcionamiento como caja negra, su falta de explicabilidad y predicibilidad.

Las inquietudes en el plano de la desinformación no se derivan exclusivamente de la naturaleza de la IA y del aprendizaje profundo, sino también de sus usos espurios: gracias a la IA generativa ahora resulta muy fácil generar deepfakes, desde imágenes pornográficas falsas a bulos y noticias manipuladas que erosionan la democracia y la confianza de la ciudadanía en las instituciones. Todo ello conlleva, además, una serie de interrogantes jurídicos: ¿Es lícito prohibir una tecnología amparada por la libertad de expresión y creación únicamente por su potencial uso delictivo? ¿Y si esa tecnología es producto del incumplimiento de las leyes de propiedad intelectual, las mismas que algunas empresas invocan para no desvelar la programación de sus algoritmos? ¿Quién asume la responsabilidad de las decisiones tomadas por una inteligencia artificial?

La IA puede tener profundas implicaciones en el mercado de trabajo y en el plano de los derechos laborales. La retórica imperante en el mundo empresarial es que el big data no va a remplazar a nadie, que la IA no es más que una herramienta útil para ahorrarnos las tareas repetitivas y dedicar el tiempo a actividades más creativas con auténtico valor añadido y, si acaso desaparece alguna profesión, surgirán otras nuevas mucho más especializadas y mejor remuneradas. Sin embargo, asistimos a la destrucción de puestos de trabajo en sectores como el periodismo (¿Hay algún oficio que requiere más autonomía y espíritu crítico? ¿No es el periodismo ese cuarto poder tan necesario para la democracia?), mientras, en paralelo, las grandes tecnológicas recurren a mano de obra de países del Sur Global para tareas tan tediosas —y, en ciertos casos, nocivas para la salud mental— como el etiquetado de imágenes para entrenar inteligencias artificiales. La amenaza de la reconversión que en anteriores revoluciones industriales se había centrado en los trabajos manuales ahora se cierne sobre profesiones intelectuales de los sectores más diversos: el cine, la educación, el derecho, el arte o la traducción.

Vehículo autónomo para usos industriales. Fuente


Voy a permitirme tomar como ejemplo el sector de la traducción, que es el mío desde hace casi dos décadas, para plantear una hipótesis: quizás esta degradación de condiciones laborales no se debe a la habilidad de la IA para sustituir a los profesionales, sino al resultado de combinar las falsas expectativas sobre sus capacidades con los intereses empresariales que las usan como pretexto para aumentar sus beneficios. La IA, efectivamente, nos ha proporcionado algunas herramientas valiosas que nos sirven de ayuda, como el reconocimiento de voz que nos permite dictar traducciones, pero los sistemas de traducción automática distan mucho de ofrecer resultados profesionales, por lo que sigue siendo imprescindible la presencia humana para revisar y corregir el texto final.  Según un informe de la OCDE publicado en 2023, esa transformación de las traductoras en revisoras de un texto que se supone aceptable, pero apenas alcanza un nivel mínimo —y, en ocasiones, es totalmente inútil, como sucede en la traducción literaria, la audiovisual o la especializada—, ha conllevado un notable empeoramiento de las condiciones económicas y laborales que está llevando a algunas profesionales a abandonar el sector. No se trata de mejorar la calidad de nada, sino de reducir costes.

Por último, cabe mencionar, aunque solo sea brevemente, la influencia de las herramientas tecnológicas y de la IA en nuestra forma de trabajar o, incluso, de pensar. Por ejemplo, el hecho de que la información preliminar que ofrece la IA para facilitar los procesos de toma de decisiones condiciona, para bien y para mal, la decisión final que toma el profesional, como explica Helena Matute en esta charla de Naukas. O su repercusión en el aprendizaje: dominar el oficio de la traducción es indispensable para revisar un texto traducido, pero, si delegamos en la IA la tarea de traducir, ¿cómo adquiriremos la pericia necesaria para corregir los resultados? ¿Cómo distinguiremos un buen texto si nos alimentamos únicamente de las frases estándar que el motor estadístico de traducción selecciona por ser las más habituales? Como se plantea Fernández Panadero en esta charla, ¿podemos llegar a la excelencia si no dejamos sitio para la mediocridad? 

No hay duda de que la IA puede aportarnos múltiples beneficios y hacer avanzar el conocimiento en todos los campos, pero no deberíamos renunciar a regularla y adecuarla a nuestras necesidades, porque, como afirma Edwards, «el uso de la tecnología ha de ser una decisión deliberada, no un proceso incuestionable». A veces puede parecer lo contrario por la velocidad de los cambios, pero la tecnología es una herramienta al servicio de la sociedad, no al revés.

Las limitaciones del aprendizaje profundo

 

Una de las técnicas que más alegrías ha dado a la inteligencia artificial en los últimos tiempos es el aprendizaje profundo basado en redes neuronales artificiales que imitan el funcionamiento del cerebro humano. Estas redes están formadas por múltiples capas que procesan información y detectan patrones, corrigiéndose y «aprendiendo» sin supervisión.


Diagrama de red neuronal. Flavio Suárez-Muñoz, CC BY-SA 4.0. Fuente



En 2018, Gary Marcus publicó el artículo Deep Learning: A Critical Appraisal en el que repasaba varias limitaciones de este aprendizaje profundo. No fue el único en exponer estas críticas; otras voces se sumaron al aviso sobre la burbuja que se estaba generando en torno al aprendizaje profundo y predijeron incluso un nuevo invierno de la IA. Y, sin embargo, en noviembre de 2022, asistimos al nacimiento de ChatGPT, con la revolución mediática y social que supuso. ¿Se equivocaban quienes apuntaron esas posibles deficiencias? Tal vez no.

Una de las limitaciones que señaló Marcus fue la ingente cantidad de datos que necesita el aprendizaje profundo para dar resultados y, en paralelo, la capacidad computacional que requiere. A lo que podríamos añadir también su consumo energético y su huella de carbono. De hecho, las bases teóricas para el aprendizaje profundo no son nuevas y, si su despegue se ha producido ahora, es por la disponibilidad masiva de datos —parte de ellos sujetos a derechos de autor— y la mejora de la capacidad computacional que han permitido generar y procesar modelos de lenguaje de un tamaño colosal, que gestionan billones o incluso trillones de parámetros y corpus que se miden en petabytes.

Fuente



Marcus también apuntaba la falta de transparencia del aprendizaje profundo, que funciona como una especie de caja negra, lo que impide interpretar sus procesos y saber cómo llega a los resultados, lo que genera desconfianza y le resta credibilidad. Tanto es así que ha surgido una nueva disciplina centrada en este ámbito: la inteligencia artificial explicable.

En noviembre de 2023, el AIHUB, el ICMAT y el CNB organizaron unas jornadas sobre el futuro de la IA. La veintena de investigadoras e investigadores que se reunieron abordaron otras cuestiones recogidas en el artículo de Marcus, como la incapacidad de las aplicaciones de aprendizaje profundo de distinguir entre correlación y causalidad, de hacer inferencias y abstracciones o de integrar el conocimiento previo. Según Julio Gonzalo, emulan nuestro pensamiento intuitivo, no nuestro pensamiento racional, lo que los convierte en «cuñados estocásticos» que «hablan de oídas» o, directamente, se inventan datos (es lo que se conoce como «alucinaciones»). A pesar de los espectaculares resultados del aprendizaje profundo, parece que sigue teniendo sus sombras.

Toma de decisiones

 

Ya hemos visto que la IA se utiliza para resolver problemas que entrañan gran complejidad por su imprecisión o su envergadura.  Las técnicas de IA asumen que esa imprecisión forma parte del problema y la abordan mediante métodos de razonamiento aproximado, lógica difusa, algoritmos bioinspirados o redes neuronales. La cuestión del volumen de datos también se ha solventado en parte gracias a la mejora de la capacidad computacional. Sin embargo, hay un aspecto que aún dista mucho de tener solución: la toma de decisiones. ¿Cómo tomamos decisiones los seres humanos y cómo conseguir que las máquinas usen todos los datos que son capaces de recabar para tomar decisiones adecuadas?

En el caso de los problemas sencillos en los que es posible atribuir valores numéricos a los factores que influyen en la decisión, sí es fácil indicar a una máquina cómo proceder. Veamos, por ejemplo, este problema.



Cada uno de los médicos indica sus preferencias para los fármacos mencionados —betabloqueantes, calcioantagonistas, diuréticos, IECA, ARA II y alfabloqueantes— y el resultado se recoge en estas matrices de preferencias normalizadas.


A partir de estos datos, podemos indicar a la máquina cuál es el procedimiento que debe seguir para tomar la decisión. En primer lugar, se ejecuta la fase de integración de todas las matrices, obteniendo la media aritmética para cada posición.


A continuación, pasamos a la fase de explotación con el método del voto: obtenemos la media aritmética y determinamos cuál es la opción más valorada. 

En este caso, la opinión de los especialistas se decanta por los IECA, seguidos de los ARA II, los betabloqueantes, los diuréticos y los calcioantagonistas. Por último, los alfabloqueantes son la opción menos valorada.

Sin embargo, la situación se complica cuando estamos ante decisiones más complejas en la que entran en juego derechos fundamentales de la ciudadanía, como en el caso de los algoritmos que ya se están usando para calcular el riesgo de reincidencia delictiva, para conceder créditos o para seleccionar candidatos a ofertas de trabajo. Su falta de transparencia y la presencia de sesgos racistas o de género, entre otros, plantean un grave problema ético y pueden exacerbar distintas formas de discriminación, incurriendo en lo que Virginia Eubanks denomina, «automatización de la desigualdad».

El camino más corto

 


Riesgos, dilemas éticos, máquinas que se hacen pasar por humanos… en entradas anteriores hemos abordado varios aspectos de la inteligencia artificial, pero todavía no nos hemos planteado qué es, cómo funciona ni para qué se usa.

Podemos partir de una definición genérica, como la que nos da el DRAE: «Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». A esta definición cabe añadirle una distinción, la que se establece entre inteligencia artificial fuerte y débil, es decir, entre la IA que pretende reproducir emociones humanas y que quizás identificamos en nuestro imaginario con escenarios futuristas como el de los replicantes de Blade Runner, y la IA con la que trabajamos en el presente en aplicaciones como la síntesis de voz o el reconocimiento de imágenes, es decir, para resolver problemas concretos.

¿Y para qué tipo de problemas usamos la IA? Para aquellos en los que no existe conocimiento sistemático que permita plantear una solución analítica, bien porque hay que manejar una cantidad ingente de información con datos cambiantes o imprecisos, bien porque el coste del método analítico sería prohibitivo. Y para gestionar esta complejidad, podemos usar técnicas de búsqueda en un espacio de estados para intentar encontrar las rutas óptimas.

Uno de los grandes hitos mediáticos de la inteligencia artificial, la victoria de Deep Blue sobre Kasparov, se basa precisamente en un algoritmo de búsqueda, el A*, que es un algoritmo heurístico o informado. Los algoritmos informados usan una función de evaluación o función heurística para evaluar cada uno de los pasos de la búsqueda y determinar qué coste tiene cada movimiento con el fin de lograr una solución que puede no ser la mejor, pero sí lo suficientemente buena, además de eficiente. El algoritmo A* tiene múltiples aplicaciones en el día a día, como la planificación de rutas para sistemas de transporte o la optimización de la toma de decisiones en sistema de inteligencia artificial.

Método de búsqueda de un algoritmo A*. Fuente



Sin embargo, el algoritmo A* también tiene limitaciones. Una de las más importantes es que en escenarios de búsqueda muy amplios con muchas rutas posibles el coste de computación se multiplica, lo que se traduce en un altísimo consumo de recursos y memoria. Tampoco funciona bien cuando en el espacio aparecen estructuras irregulares, impredecibles o dinámicas, si no se conoce el diseño completo del espacio, ni cuando la función heurística presenta fallos de diseño.

Los sistemas actuales de IA no usan únicamente algoritmos de búsqueda informados; también se utilizan, por ejemplo, algoritmos bioinspirados como el de la colonia de hormigas.

¿Humano o máquina?

 

 

Selecciona todos los cuadros que contengan semáforos. Escribe el texto de la imagen. Demuestra que no eres un robot. ¿Cuántos captchas hemos resuelto en estos años? Tantos que hemos interiorizado y lexicalizado esas siglas que corresponden a Completely Automated Public Turing test to tell Computers and Humans Apart. El test de Turing, la prueba del ocho para diferenciar entre humanos y máquinas.

Alan Turing presentó esta herramienta de evaluación en el artículo Computing Machinery and Intelligence (1950) como un juego de imitación, una forma de determinar si las máquinas podían pensar, entendiendo «pensar» como «imitar las respuestas humanas». La dinámica es sencilla: un humano y una máquina, situados en salas separadas, responden a las preguntas de una persona que ejerce el papel de interrogador desde una tercera sala. La conversación se desarrolla por medio de un teclado y una pantalla y dura 5 minutos. El interrogador, que sabe que uno de sus interlocutores es una máquina, tiene que determinar cuál es. Si el interrogador es incapaz de distinguir, la máquina pasa la prueba.

A pesar de su trascendencia en la filosofía de la inteligencia artificial y de su impacto mediático, el test de Turing también ha cosechado críticas como la inexistencia de una definición objetiva de inteligencia, el hecho de que se refiera a una inteligencia simulada y no real, la posibilidad de que los seres humanos no se comporten de forma inteligente o cometan errores de juicio, la falacia antropomórfica o, incluso, su irrelevancia. Como afirma Santini en este artículo de 2012, podría ser que el test de Turing plantee dos posibilidades para crear máquinas inteligentes: que los programas sean cada vez más sofisticados o que las personas lo sean cada vez menos. De hecho, esa es una pregunta que nos hemos hecho muchas veces en el gremio de la traducción, que parece condenado a desaparecer por los avances de la IA: ¿realmente las redes neuronales son capaces ofrecer traducciones con el mismo nivel de calidad que un profesional humano o es que el uso intensivo de sistemas automáticos ha reducido las expectativas de calidad?

Sea como fuere, la irrupción de los sistemas de IA generativa y de bots como ChatGPT que dejan obsoleto el test de Turing imponen la necesidad de encontrar sistemas para detectar deepfakes y paliar los problemas éticos que plantean.

Del neuroderecho y otras neurohierbas

  «Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en u...