Ya hemos visto que la IA se
utiliza para resolver problemas que entrañan gran complejidad por su
imprecisión o su envergadura. Las
técnicas de IA asumen que esa imprecisión forma parte del problema y la abordan
mediante métodos de razonamiento aproximado, lógica difusa, algoritmos
bioinspirados o redes neuronales. La cuestión del volumen de datos también se
ha solventado en parte gracias a la mejora de la capacidad computacional. Sin
embargo, hay un aspecto que aún dista mucho de tener solución: la toma de
decisiones. ¿Cómo tomamos decisiones los seres humanos y cómo conseguir que las
máquinas usen todos los datos que son capaces de recabar para tomar decisiones
adecuadas?
En el caso de los problemas
sencillos en los que es posible atribuir valores numéricos a los factores que
influyen en la decisión, sí es fácil indicar a una máquina cómo proceder. Veamos,
por ejemplo, este problema.
Cada uno de los médicos indica sus preferencias para los fármacos mencionados —betabloqueantes, calcioantagonistas, diuréticos, IECA, ARA II y alfabloqueantes— y el resultado se recoge en estas matrices de preferencias normalizadas.
A partir de estos datos, podemos indicar a la máquina cuál es el procedimiento que debe seguir para tomar la decisión. En primer lugar, se ejecuta la fase de integración de todas las matrices, obteniendo la media aritmética para cada posición.
A continuación, pasamos a la fase de explotación con el método del voto: obtenemos la media aritmética y determinamos cuál es la opción más valorada.
En este caso, la opinión de los especialistas se decanta por los IECA, seguidos de los ARA II, los betabloqueantes, los diuréticos y los calcioantagonistas. Por último, los alfabloqueantes son la opción menos valorada.Sin embargo, la situación se
complica cuando estamos ante decisiones más complejas en la que entran en juego
derechos fundamentales de la ciudadanía, como en el caso de los algoritmos que
ya se están usando para calcular el riesgo de reincidencia delictiva, para conceder créditos o para seleccionar candidatos a ofertas de trabajo. Su falta de transparencia y la presencia de sesgos
racistas o de género,
entre otros, plantean un grave problema ético y pueden exacerbar distintas formas
de discriminación, incurriendo en lo que Virginia Eubanks denomina, «automatización de la desigualdad».
No hay comentarios:
Publicar un comentario