El problema de la inclusión en la Inteligencia Artificial

"Si bien, la parte matemática y de programación de los modelos es fundamental, también lo es el sesgo o bias detrás de la construcción de ellos. Este concepto de bias no es un tema menor, y ya ha afectado a grandes compañías como Amazon y Microsoft, dañando su imagen."
Por Genaro Almaraz
Feb 7, 2022

Existe en la inteligencia artificial un enlace con la psicología y otro con las sociedades, que es demasiado importante. Si bien, la parte matemática y de programación de los modelos es fundamental, también lo es el sesgo o bias detrás de la construcción de ellos. Este concepto de bias no es un tema menor, y ya ha afectado a grandes compañías como Amazon y Microsoft, dañando su imagen.

Para aterrizar este concepto, pongamos el siguiente ejemplo: si deseamos hacer un sistema de reconocimiento facial, la inteligencia artificial que desarrollemos aprenderá de los patrones en los datos de entrada que usemos como entrenamiento, y si no hicimos una recolección adecuada de estos (considerando únicamente las personas de determinada edad, raza o género), estamos incurriendo en una falta grave que excluirá a varios segmentos. Este desbalanceo en los datos, tomando en cuenta que cada grupo de personas puede ser una clase o categoría, afecta la generalización del modelo de inteligencia artificial que desarrollemos.

El ingeniero o ingeniera detrás de la construcción del modelo comentado anteriormente, tiene un pasado e historia que, sin estar consciente de ello, hace que ingrese bias en la recolección de los datos. De acuerdo a un estudio realizado por la Universidad de Columbia (https://venturebeat.com/2020/12/09/columbia-researchers-find-white-men-are-the-worst-at-reducing-ai-bias/), se encontró que mientras más heterogéneo sea el grupo de trabajo, está la clave para reducir el bias en los algoritmos.



Como comenté, Amazon tuvo un caso muy importante de bias en inteligencia artificial (https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G), pues desarrollaron un sistema de reclutamiento que no tuvo los resultados que esperaban, ya que no fomentaba la diversidad e inclusión. Al analizarlo en 2015 se dieron cuenta que el modelo fue entrenado principalmente con postulaciones de hombres en un periodo de 10 años, lo cual hacía valer menos a los currículums de las mujeres. ¿Un sistema sexista de Inteligencia Artificial desarrollado por Amazon?

Ya nos dimos cuenta de un caso más práctico de bias en inteligencia artificial, pero ahora surge la pregunta sobre qué podemos hacer para evitarla. Pues bien, toda aplicación tiene una audiencia objetivo, por lo tanto enfocarnos en ese grupo de personas, analizando bien sus aspectos físicos, psicológicos y sociales que sean relevantes para nuestro modelo, será de gran ayuda (aunque este entrenamiento demasiado específico también puede presentar bias en el transcurso del tiempo). 

Ningún método contra el bias es perfecto, y siempre tendremos este sesgo, pero lo importante es estar conscientes de este problema y hacer lo posible por el diseño de desarrollos más justos que reflejen la complejidad de la sociedad global, como esta iniciativa llamada “The Algorithmic Justice League” https://www.ajl.org/, creada por una estudiante del MIT, y que recomiendo leer.

Genaro Almaraz

Genaro Almaraz

Maestro en ciencias computacionales por el Tec de Monterrey.
Share This