Heteropatriarca
Madmaxista
- Desde
- 10 Ene 2018
- Mensajes
- 844
- Reputación
- 2.997
Jo, jo, jo. La profesión del futuro no será programador de IA, será la de censor de sus resultados.
Las imágenes de Google amplifican y refuerzan los estereotipos machistas
Retratos estereotipados de mujeres y hombres flotan detrás de ella en teléfonos inteligentes Ella Maru /Nature
El algoritmo de Google Imágenes sigue pensando como un humorista de los años 80. Para este motor de búsqueda, las personas que practican la enfermería son mujeres y los fontaneros no pueden ser otra cosa que hombres. Y no solo eso, sus resultados influyen en la visión de los usuarios y refuerzan estos estereotipos sexistas, al tiempo que los perpetúan a través de los sistemas de inteligencia artificial (IA) que los toman como fuente.
Estas son algunas de las conclusiones obtenidas por el equipo de Douglas Guilbeault en un trabajo que se publica este miércoles en la revista Nature, para el que han analizado más de dos millones de imágenes del buscador y de otras plataformas como Wikipedia e IMDb y las han comparado con los resultados en texto. “Lo que vemos es que la fuerza del estereotipo es mayor en imágenes”, explica.
De este modo, analizaron los prejuicios de género asociados con casi 3.500 categorías sociales, incluidas profesiones como médico y abogado, o roles sociales como vecino, amigo y colega. El resultado fue que los hombres estaban mucho más sobrerrepresentados en los resultados de búsqueda por imágenes que en los textos. “Lo que hicimos a continuación fue examinar, entre todas las categorías, cuáles eran aquellas en las que era más probable que aparecieran hombres”, explica el investigador. Lo que vieron fue que las búsquedas de fontanero, jefe de policía y carpintero tenían más probabilidades de mostrar rostros masculinos, mientras que bailarinas de ballet, estilistas y enfermeras tenían más probabilidades de mostrar rostros femeninos. “De acuerdo a la búsqueda de imágenes de Google, la mayoría de las personas con determinadas profesiones son hombres, lo que sabemos que muchas veces es estadísticamente falso. Es realmente una representación distorsionada de la realidad”.
Las imágenes de Google amplifican y refuerzan los estereotipos machistas
Retratos estereotipados de mujeres y hombres flotan detrás de ella en teléfonos inteligentes Ella Maru /Nature
El algoritmo de Google Imágenes sigue pensando como un humorista de los años 80. Para este motor de búsqueda, las personas que practican la enfermería son mujeres y los fontaneros no pueden ser otra cosa que hombres. Y no solo eso, sus resultados influyen en la visión de los usuarios y refuerzan estos estereotipos sexistas, al tiempo que los perpetúan a través de los sistemas de inteligencia artificial (IA) que los toman como fuente.
Estas son algunas de las conclusiones obtenidas por el equipo de Douglas Guilbeault en un trabajo que se publica este miércoles en la revista Nature, para el que han analizado más de dos millones de imágenes del buscador y de otras plataformas como Wikipedia e IMDb y las han comparado con los resultados en texto. “Lo que vemos es que la fuerza del estereotipo es mayor en imágenes”, explica.
De este modo, analizaron los prejuicios de género asociados con casi 3.500 categorías sociales, incluidas profesiones como médico y abogado, o roles sociales como vecino, amigo y colega. El resultado fue que los hombres estaban mucho más sobrerrepresentados en los resultados de búsqueda por imágenes que en los textos. “Lo que hicimos a continuación fue examinar, entre todas las categorías, cuáles eran aquellas en las que era más probable que aparecieran hombres”, explica el investigador. Lo que vieron fue que las búsquedas de fontanero, jefe de policía y carpintero tenían más probabilidades de mostrar rostros masculinos, mientras que bailarinas de ballet, estilistas y enfermeras tenían más probabilidades de mostrar rostros femeninos. “De acuerdo a la búsqueda de imágenes de Google, la mayoría de las personas con determinadas profesiones son hombres, lo que sabemos que muchas veces es estadísticamente falso. Es realmente una representación distorsionada de la realidad”.