Crónica Navarra.

Crónica Navarra.

Investigador de la UPNA crea soluciones para eliminar sesgos en la inteligencia artificial.

Investigador de la UPNA crea soluciones para eliminar sesgos en la inteligencia artificial.

En Pamplona, el 6 de enero, se han presentado importantes avances en la lucha contra los sesgos demográficos en sistemas de inteligencia artificial, gracias a la labor de Iris Domínguez Catena, un investigador destacado del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA). Nacido en 1992, Domínguez ha desarrollado herramientas y metodologías innovadoras que buscan detectar y corregir estos sesgos, que son cada vez más significativos en la implementación de la IA.

Uno de los descubrimientos más relevantes de su investigación es la identificación de un tipo de sesgo demográfico conocido como "estereotípico". Este sesgo ocurre cuando hay asociaciones inadecuadas entre diferentes grupos demográficos y categorías en los modelos de IA. Un ejemplo claro de esto se puede observar en el reconocimiento de expresiones faciales, donde a menudo se presenta a las mujeres con una expresión de alegría y a los hombres con ira, lo que refleja un impacto considerable en la forma en que estos modelos de inteligencia artificial responden y actúan.

Domínguez ha señalado que no es suficiente con garantizar que haya una representación balanceada de diversos grupos demográficos en los datos de entrenamiento. Es fundamental también examinar y corregir los sesgos estereotípicos que pudieran estar presentes en esos conjuntos de datos. Su trabajo tiene implicaciones directas en el desarrollo de sistemas de inteligencia artificial más justos y equitativos.

Estos hallazgos forman parte de la tesis doctoral de Iris Domínguez, que se centra en los sesgos demográficos y la justicia algorítmica en el ámbito de la inteligencia artificial. Este tipo de sesgos se manifiestan como una falta o una representación inadecuada de ciertos grupos demográficos, como es el caso de las personas negras o mujeres, lo que puede ocasionar un comportamiento erróneo de los sistemas y un trato discriminatorio hacia ciertos colectivos.

El investigador del grupo ARIN (Artificial Intelligence and Machine Learning Research) ha enfatizado que, en base a variables demográficas como la raza, el género o la edad, los modelos de inteligencia artificial pueden tratar a las personas de manera desigual, lo cual es un tema de gran relevancia social. Para arrojar luz sobre este fenómeno, Iris Domínguez utilizó el reconocimiento de expresiones faciales (FER), un área enfocada en predecir emociones a partir de imágenes de rostros, que cuenta con numerosas aplicaciones en campos como los multimedia interactivos, la medicina, la seguridad vial y la robótica asistencial.

La investigación doctoral se ha centrado específicamente en el origen de los sesgos presentes en los conjuntos de datos utilizados para entrenar modelos de inteligencia artificial. Domínguez ha identificado dos categorías principales de sesgos demográficos: el sesgo representacional, que ocurre cuando ciertos grupos están subrepresentados en los datos, y el ya mencionado sesgo estereotípico. Según sus análisis, este último, que ha sido menos estudiado hasta ahora, tiene un impacto más significativo en el rendimiento de los modelos de IA.

La naturaleza de los conjuntos de datos recabados, especialmente aquellos creados a partir de imágenes tomadas de Internet, contribuye a la aparición de estos sesgos estereotípicos. Aunque estos conjuntos de datos tienden a ser más diversos, muchas veces refuerzan estereotipos preexistentes, un punto crítico que el investigador ha destacado en su trabajo. Además, ha notado una correlación clara entre la extensión del sesgo introducido y el error cometido por el modelo, desafiando la noción errónea de que eliminar sesgos necesariamente deteriora el rendimiento del sistema. Por el contrario, ha demostrado que los sistemas que operan sin sesgos pueden ser más precisos y efectivos.

Para abordar la cuestión de los sesgos en sistemas de inteligencia artificial, Iris Domínguez ha creado una herramienta denominada DSAP (Demographic Similarity from Auxiliary Profiles). Esta metodología permite llevar a cabo comparaciones demográficas entre diferentes conjuntos de datos, incluso en ausencia de información explícita sobre la población involucrada. La herramienta cuenta con tres aplicaciones principales: comparación directa entre conjuntos de datos, medición de sesgos al comparar conjuntos reales con ideales, y detección de cambios demográficos en poblaciones que utilizan sistemas ya implementados.

En una fase subsiguiente de su investigación, Domínguez estudió cómo estos sesgos se transfieren a los modelos de IA, desarrollando nuevas métricas para medir cada tipo de sesgo. Según sus conclusiones, las herramientas y metodologías que ha creado son esenciales para detectar y analizar los sesgos demográficos en sistemas de inteligencia artificial, especialmente en el ámbito de la visión artificial. Estas innovaciones no solo demuestran la importancia de reconocer diferentes tipos de sesgos, sino que también ofrecen mecanismos prácticos para seguir su evolución tanto en la fase de desarrollo como en la de implementación de estos sistemas, un aspecto que contribuye a la mejora en la justicia algorítmica.

La reciente obtención del doctorado por parte de Iris Domínguez Catena en la UPNA forma parte de un trayecto académico que incluye un grado y máster en Ingeniería Informática. Su trabajo se centra en la equidad algorítmica, específicamente en la identificación de sesgos sociales dentro de bases de datos y modelos de visión artificial. Además, en una colaboración reciente con la Universidad de Gante en Bélgica, ha comenzado a investigar los sesgos en el procesamiento del lenguaje natural y en modelos de lenguaje, lo que demuestra la amplitud y relevancia de su investigación en el ámbito tecnológico actual.