Les intelligences artificielles génèrent-elles des images représentatives de la diversité mondiale

Les intelligences artificielles génèrent-elles des images représentatives de la diversité mondiale

Les outils d’intelligence artificielle capables de créer des images à partir de texte ont révolutionné la création visuelle. Pourtant, ces technologies reproduisent souvent les stéréotypes sociaux présents dans les données utilisées pour les entraîner. Une récente analyse a examiné comment cinq modèles populaires génèrent des portraits de personnes issues de dix pays d’Amérique. Les résultats montrent des écarts systématiques entre les représentations produites et la réalité démographique.

Les chercheurs ont utilisé des descriptions basées sur la nationalité pour demander à ces systèmes de créer des portraits. Ils ont ensuite comparé les caractéristiques des visages générés avec les données officielles des recensements. Il en ressort que les modèles accentuent certains traits et en ignorent d’autres, selon les pays. Par exemple, les pays d’Amérique latine sont fréquemment associés à des archétypes autochtones, tandis que le Canada et les États-Unis sont surtout représentés par des visages blancs. Ces distorsions apparaissent aussi bien dans l’analyse des images que dans leur interprétation par d’autres intelligences artificielles.

L’étude révèle aussi une surreprésentation des hommes dans la plupart des modèles, sauf pour l’un d’eux qui favorise les femmes. Les différences culturelles et démographiques entre les nations ne sont pas respectées, ce qui pose un problème éthique majeur. En effet, ces biais peuvent renforcer des stéréotypes et effacer des groupes sociaux entiers, surtout lorsque ces images sont utilisées dans les médias, le design ou l’éducation.

Pour évaluer ces écarts, les scientifiques ont combiné plusieurs méthodes. Ils ont d’abord utilisé un classificateur qui regroupe les images selon leur similitude visuelle. Ensuite, ils ont mesuré la distance entre les représentations moyennes de chaque pays et celles des groupes ethniques ou de genre. Enfin, un modèle linguistique a analysé les portraits pour identifier les attributs perçus. Ces approches complémentaires confirment que les biais ne concernent pas seulement l’apparence, mais aussi la manière dont ces images sont interprétées.

Les résultats soulignent l’importance d’évaluer les intelligences artificielles en tenant compte des contextes géographiques et culturels. Sans cette vigilance, les systèmes risquent de perpétuer des visions réductrices et inexactes de la diversité humaine. Une telle démarche est essentielle pour développer des technologies plus équitables et transparentes, capables de refléter fidèlement la richesse des identités à travers le monde.


Bibliographie

Source de l’étude

DOI : https://doi.org/10.1007/s43681-026-01066-7

Titre : Bias beyond borders: quantifying gender and ethnic stereotypes across countries in AI image generation

Revue : AI and Ethics

Éditeur : Springer Science and Business Media LLC

Auteurs : Giovanni Franco; Regilene Aparecida Sarzi-Ribeiro; João Paulo Papa; Kelton Augusto Pontara da Costa; Felipe Mahlow

Speed Reader

Ready
500