HomeTecnología

Twitter descubre que su herramienta de inteligencia artificial tiende a recortar a los hombres y a los negros de las fotos

Twitter descubre que su herramienta de inteligencia artificial tiende a recortar a los hombres y a los negros de las fotos
Like Tweet Pin it Share Share Email

Un estudio encontró una diferencia del 8 por ciento con respecto a la paridad demográfica a favor de las mujeres y un 4 por ciento a favor de las personas blancas según el algoritmo de recorte de imágenes de Twitter.

El algoritmo de recorte de imágenes de Twitter Inc tiene un sesgo problemático hacia la exclusión de personas negras y hombres, dijo la compañía en una nueva investigación el miércoles, y agregó que “cómo recortar una imagen es una decisión que la gente toma mejor”.
El estudio de tres de sus investigadores de aprendizaje automático se realizó después de las críticas de los usuarios el año pasado sobre las vistas previas de imágenes en publicaciones que excluyen los rostros de las personas negras.

Encontró una diferencia del 8 por ciento con respecto a la paridad demográfica a favor de las mujeres y un 4 por ciento a favor de las personas blancas.

El documento citó varias razones posibles, incluidos problemas con los fondos de las imágenes y el color de los ojos, pero dijo que ninguna era una excusa.

“El recorte basado en el aprendizaje automático es fundamentalmente defectuoso porque elimina la agencia del usuario y restringe la expresión del usuario de su propia identidad y valores, en lugar de imponer una mirada normativa sobre qué parte de la imagen se considera más interesante”, escribieron los investigadores.

Para contrarrestar el problema, Twitter comenzó recientemente a mostrar fotos de relación de aspecto estándar en su totalidad, sin ningún recorte, en sus aplicaciones móviles y está tratando de expandir ese esfuerzo.

Los investigadores también evaluaron si los cultivos favorecían los gastos generales del cuerpo de las mujeres, lo que refleja lo que se conoce como la “mirada masculina”, pero encontraron que no parece ser el caso.

Los hallazgos son otro ejemplo del impacto dispar de los sistemas de inteligencia artificial, incluidos los sesgos demográficos identificados en el reconocimiento facial y el análisis de texto, según el documento.

El trabajo de investigadores de Microsoft Corp y el Instituto de Tecnología de Massachusetts en 2018 y un estudio posterior del gobierno de EE. UU. Encontró que los sistemas de análisis facial identifican erróneamente a las personas de color con más frecuencia que a las personas blancas.

PromocionadoEscucha las últimas canciones, solo en JioSaavn.com

Amazon Inc en 2018 descartó una herramienta de reclutamiento de inteligencia artificial que mostraba prejuicios contra las mujeres.

Comments (0)

Deja un comentario

Your email address will not be published. Required fields are marked *