¿Generan las inteligencias artificiales imágenes representativas de la diversidad mundial?
Las herramientas de inteligencia artificial capaces de crear imágenes a partir de texto han revolucionado la creación visual. Sin embargo, estas tecnologías suelen reproducir los estereotipos sociales presentes en los datos utilizados para entrenarlas. Un análisis reciente examinó cómo cinco modelos populares generan retratos de personas de diez países de América. Los resultados muestran diferencias sistemáticas entre las representaciones producidas y la realidad demográfica.
Los investigadores utilizaron descripciones basadas en la nacionalidad para pedir a estos sistemas que crearan retratos. Luego compararon las características de los rostros generados con los datos oficiales de los censos. De esto se desprende que los modelos acentúan ciertos rasgos e ignoran otros, según los países. Por ejemplo, los países de América Latina suelen asociarse con arquetipos autóctonos, mientras que Canadá y Estados Unidos están representados principalmente por rostros blancos. Estas distorsiones aparecen tanto en el análisis de las imágenes como en su interpretación por parte de otras inteligencias artificiales.
El estudio también revela una sobrerrepresentación de los hombres en la mayoría de los modelos, excepto en uno de ellos que favorece a las mujeres. Las diferencias culturales y demográficas entre las naciones no se respetan, lo que plantea un problema ético mayor. De hecho, estos sesgos pueden reforzar estereotipos y borrar grupos sociales enteros, especialmente cuando estas imágenes se utilizan en los medios, el diseño o la educación.
Para evaluar estas discrepancias, los científicos combinaron varios métodos. Primero, utilizaron un clasificador que agrupa las imágenes según su similitud visual. Luego, midieron la distancia entre las representaciones promedio de cada país y las de los grupos étnicos o de género. Finalmente, un modelo lingüístico analizó los retratos para identificar los atributos percibidos. Estos enfoques complementarios confirman que los sesgos no solo afectan la apariencia, sino también la manera en que se interpretan estas imágenes.
Los resultados subrayan la importancia de evaluar las inteligencias artificiales considerando los contextos geográficos y culturales. Sin esta vigilancia, los sistemas corren el riesgo de perpetuar visiones reductivas e inexactas de la diversidad humana. Un enfoque de este tipo es esencial para desarrollar tecnologías más equitativas y transparentes, capaces de reflejar fielmente la riqueza de las identidades en todo el mundo.
Bibliographie
Source de l’étude
DOI : https://doi.org/10.1007/s43681-026-01066-7
Titre : Bias beyond borders: quantifying gender and ethnic stereotypes across countries in AI image generation
Revue : AI and Ethics
Éditeur : Springer Science and Business Media LLC
Auteurs : Giovanni Franco; Regilene Aparecida Sarzi-Ribeiro; João Paulo Papa; Kelton Augusto Pontara da Costa; Felipe Mahlow