domingo, 28 de enero de 2024

Toma de decisiones

 

Ya hemos visto que la IA se utiliza para resolver problemas que entrañan gran complejidad por su imprecisión o su envergadura.  Las técnicas de IA asumen que esa imprecisión forma parte del problema y la abordan mediante métodos de razonamiento aproximado, lógica difusa, algoritmos bioinspirados o redes neuronales. La cuestión del volumen de datos también se ha solventado en parte gracias a la mejora de la capacidad computacional. Sin embargo, hay un aspecto que aún dista mucho de tener solución: la toma de decisiones. ¿Cómo tomamos decisiones los seres humanos y cómo conseguir que las máquinas usen todos los datos que son capaces de recabar para tomar decisiones adecuadas?

En el caso de los problemas sencillos en los que es posible atribuir valores numéricos a los factores que influyen en la decisión, sí es fácil indicar a una máquina cómo proceder. Veamos, por ejemplo, este problema.



Cada uno de los médicos indica sus preferencias para los fármacos mencionados —betabloqueantes, calcioantagonistas, diuréticos, IECA, ARA II y alfabloqueantes— y el resultado se recoge en estas matrices de preferencias normalizadas.


A partir de estos datos, podemos indicar a la máquina cuál es el procedimiento que debe seguir para tomar la decisión. En primer lugar, se ejecuta la fase de integración de todas las matrices, obteniendo la media aritmética para cada posición.


A continuación, pasamos a la fase de explotación con el método del voto: obtenemos la media aritmética y determinamos cuál es la opción más valorada. 

En este caso, la opinión de los especialistas se decanta por los IECA, seguidos de los ARA II, los betabloqueantes, los diuréticos y los calcioantagonistas. Por último, los alfabloqueantes son la opción menos valorada.

Sin embargo, la situación se complica cuando estamos ante decisiones más complejas en la que entran en juego derechos fundamentales de la ciudadanía, como en el caso de los algoritmos que ya se están usando para calcular el riesgo de reincidencia delictiva, para conceder créditos o para seleccionar candidatos a ofertas de trabajo. Su falta de transparencia y la presencia de sesgos racistas o de género, entre otros, plantean un grave problema ético y pueden exacerbar distintas formas de discriminación, incurriendo en lo que Virginia Eubanks denomina, «automatización de la desigualdad».

No hay comentarios:

Publicar un comentario

Del neuroderecho y otras neurohierbas

  «Acompañar un texto con la imagen de un cerebro aumenta significativamente su credibilidad». Eso aseguran Cardenas y Corredor (2017) en u...