FACEBOOK

La inteligencia artificial de Facebook confundió a hombres negros con simios

La compañía se disculpó por el error y lo calificó como “inaceptable”. Además desactivó la función y busca la causa del error.

Un sistema de inteligencia artificial (IA) que utiliza Facebook para catalogar contenido en la red social confundió a hombres negros con simios. El error ocurrió con un video publicado por Daily Mail; luego de la reproducción aparecía una notificación que preguntaba al usuario si le gustaría seguir viendo material “sobre primates”.

La compañía con sede central en Palo Alto, California, se disculpó por el error y lo calificó como “inaceptable”. Además desactivó la función, un método automático que examina el contenido y en base a esa información debe arrojar recomendaciones en la misma categoría. Desde Facebook indicaron que trabajan para encontrar la causa precisa que provocó esta lectura inadecuada.

“Aunque hemos realizado mejoras en nuestra inteligencia artificial, sabemos que no es perfecta y que tenemos más avances que hacer. Pedimos disculpas a todos los que hayan visto estas recomendaciones ofensivas”, dijo Dani Lever, vocera de Facebook.

En el pasado hemos visto innumerables casos en los que la IA ha reflejado sesgos raciales y de género. Muchas de esas situaciones se registran en el uso de sistemas de reconocimiento facial en la vía pública: tal como contamos acá, esa tecnología comete más errores al intentar identificar a personas negras, en muchas ocasiones provocando arrestos injustos.

Hace pocas semanas contamos acerca de un hecho ocurrido en Detroit, Estados Unidos, uno de los países en los que se debate el despliegue de esos sistemas. De acuerdo a los reportes, un algoritmo para reconocimiento utilizado en una pista de patinaje expulsó a una adolescente negra acusándola de disturbios previos; el punto es que era la primera vez que asistía a esas instalaciones. Aquel es simplemente uno de los tantos casos en los que la IA ha fallado en ese sentido. En esa misma ciudad estadounidense, dos hombres negros habían sido detenidos injustamente tras una lectura fallida de los sistemas de identificación facial.

En 2019, el Instituto Nacional de Estándares y Tecnología (NIST), una agencia del Departamento de Comercio de EE.UU., publicó un estudio con conclusiones alarmantes respecto al uso de tecnologías de reconocimiento facial en espacios públicos. Señalaron que los algoritmos fallan entre 10 y 100 veces más al intentar identificar rostros de afroamericanos y asiáticos, en relación a los caucásicos. También indicaron que esos sistemas tienen sesgos de género. “Descubrimos que los falsos positivos son más altos en las mujeres que en los hombres y esto es consistente en todos los algoritmos y conjuntos de datos”, comentaron.

Recientemente, Twitter organizó un concurso para detectar discriminación de género en uno de sus algoritmos y descubrió que efectivamente los tuvo. Un método que empleó para seleccionar las partes más relevantes de las imágenes privilegió rostros de personas blancas y delgadas. “Estoy tan irritado por esto como todos los demás”, decía en la ocasión Dantley Davis, director de diseño en la compañía.

La exdirectora de la organización Chicas en Tecnología, Melina Masnatta, notó que “el gran punto es que nunca nos preguntamos quién se encargó del diseño” de los sistemas de inteligencia artificial, y advirtió que “mientras la cultura está moviéndose hacia un camino donde estos estereotipos de género son replanteados, las tecnologías por estar creadas por un determinado grupo de personas (por lo general hombres blancos americanos) reproducen más fuertemente este dilema”.