Cataluña busca humanizar la inteligencia artificial

Escrito por Eduardo Peralta

La Inteligencia Artificial al Alcance de Todos

Cataluña Busca Humanizar la Inteligencia Artificial

La Generalitat de Cataluña ha presentado una metodología pionera en Europa para humanizar la inteligencia artificial y evitar la discriminación en los sistemas que utilizan algoritmos para tomar decisiones. Esta iniciativa se basa en una experiencia personal que tuvo lugar hace años, cuando un consejero del Departamento de Derechos Sociales de la Generalitat recibió a una familia que no había sido concedida una subvención para familias con hijos con discapacidad debido a que superaban la renta familiar límite. La familia argumentó que se deslomaban para ahorrar dinero que protegiera a su hijo cuando ellos ya no estuvieran para ocuparse de él. La conversación finalmente llevó a una rectificación del Departamento, que abonó la ayuda tras conocer la situación familiar.

La Propuesta Catalana

La Autoritat Catalana de Protección de Datos (APDCat) ha impulsado esta metodología para supervisar los sistemas de inteligencia artificial y evitar la discriminación y los sesgos. La presidenta de la APDCat, Meritxell Borràs, reclama que se supervise a los sistemas de IA para mitigar el riesgo de discriminación. Según la teoría del riesgo, el impacto de los sistemas consta de dos dimensiones clave: la probabilidad y la gravedad, y su combinación proporciona un índice de riesgo de la IA. En función de este índice, los proveedores tecnológicos deben intervenir para mitigar este riesgo hasta que sea «residual».

Regulación Europea y Casos Internacionales

Ante el auge imparable de la IA, el Consejo Europeo aprobó el año pasado la entrada en vigor de un reglamento que obliga a realizar una evaluación de impacto en los derechos fundamentales en aquellos productos y servicios que utilizan la inteligencia artificial. Sin embargo, entiende la APDCat que no hay directrices en Europa de cómo hacerlo. La propuesta catalana propone un método concreto para cuantificar este impacto a través de un modelo de matrices. Este enfoque se inspira en casos internacionales donde la IA ha sido utilizada de manera problemática, como en un tribunal neerlandés que consideró en 2020 que el Gobierno del país utilizaba un sistema de análisis que “estigmatizaba y discriminaba” la ciudadanía para rastrear posibles fraudes al Estado.

Desafíos y Perspectivas

Los expertos también alertan sobre los procesos donde la IA llega de fuera, ya que los modelos entrenados fuera de Europa no tienen las mejores garantías para desarrollarse en el continente debido a que no están pensados en un contexto europeo. Alessandro Mantelero, profesor de la Universidad Politécnica de Turín (Italia), uno de los desarrolladores de la metodología catalana, defiende que los modelos deben ser pensados en un contexto específico para evitar sesgos y discriminación.

Conclusión

La iniciativa de la Generalitat de Cataluña busca anticipar el posible daño a los usuarios y ha obligado a varias administraciones a reevaluar su uso de la IA. Este enfoque pionero en Europa puede servir como modelo para otras regiones, destacando la importancia de supervisar y humanizar los sistemas de inteligencia artificial para evitar la discriminación y los sesgos.

¿Qué piensas sobre este tema? ¡Nos encantaría leer tu opinión en los comentarios!

Deja un comentario