algoritmos
Isabel Valera, líder del Grupo de Investigación de Aprendizaje Probabilístico en el Max Planck Institute for Intelligent Systems en Tübingen (Alemania).

La inteligencia artificial (IA) está más presente de lo que parece en el día a día de la sociedad. De hecho, la aplicación de sus algoritmos tienen una serie de consecuencias desconocidas para la mayoría de los usuarios. Por ejemplo, en el el filtrado de solicitudes de trabajo, la aprobación de créditos e hipotecas, e incluso decisiones judiciales. Alinear los algoritmos de la IA con los ideales éticos y sociales es uno de los grandes desafíos en torno a esta tecnología que ha protagonizado el 6º Encuentro Empresarial Leganés Tecnológico celebrado en el Parque Científico de la Universidad Carlos III de Madrid (UC3M).

"Cada vez que vamos al banco hay un algoritmo que, en mayor o menor medida, decide si nos van a dar un crédito o no, pero esto sucede en otros ámbitos de mucha importancia para los ciudadanos", ha explicado Isabel Valera, líder del Grupo de Investigación de Aprendizaje Probabilístico en el Max Planck Institute for Intelligent Systems en Tübingen (Alemania). Es aquí donde la IA tiene pendiente resolver algo que el ser humano intenta avanzar también de manera paralela: la discriminación.

"La IA tiene que seguir avanzando e innovando en las consecuencias que sus algoritmos generan en la sociedad", ha remarcado Valera. ¿Pero qué lleva a estos algoritmos a ser discriminatorios. "Una herramienta no tiene vinculación con la discriminación. La discriminación está asociada a un comportamiento humano, pero no tecnológico", ha apuntado la investigadora. Sin embargo, como ella ha recordado, los algoritmos que definen la inteligencia artificial están entrenados en base al estudio de datos e históricos.

Por ejemplo, en algunos lugares de Estados Unidos el código postal dice mucho de la raza de cada cuál o el estatus social. "Al darle algo tan básico como el código postal al algoritmo, las empresas tienen información sobre la raza o incluso el género y esto a veces puede producir una discriminación inconsciente", ha señalado Valera. Para solucionarlo, la propuesta, por sencilla que pueda parecer en principio, no lo es. "Los datos también se entrenan. Pero hay que tener en cuenta que cada vez que queremos corregir una injusticia de algoritmos perdemos calidad. Es algo tan necesario como complejo".

Datos vs privacidad

Solo si recolectamos información sensible sobre el usuario seremos capaces de corregir la discriminación. Esta es una de las recetas que los expertos en IA proponen. Sin embargo, como ha avisado Valera, "el problema de recolectar datos es que las personas tienen derecho a la privacidad". En esta disyuntiva, la inteligencia artificial se enfrenta ante el desafío de "tomar decisiones en su justa medida". El debate está abierto, aunque como la propia investigadora ha concluido, "cuando hablamos de máquinas, los términos 'justicia' y 'discriminación' no pueden ser entendidos como lo hacemos habitualmente. Es mucho más complejo".

Dejar una respuesta

Please enter your comment!
Please enter your name here