Генерируют ли искусственные интеллекты изображения, отражающие глобальное разнообразие
Инструменты искусственного интеллекта, способные создавать изображения на основе текста, произвели революцию в визуальном творчестве. Однако эти технологии часто воспроизводят социальные стереотипы, присутствующие в данных, используемых для их обучения. Недавний анализ изучил, как пять популярных моделей генерируют портреты людей из десяти стран Америки. Результаты показывают систематическое несоответствие между создаваемыми образами и реальной демографической ситуацией.
Исследователи использовали описания, основанные на национальности, чтобы попросить эти системы создать портреты. Затем они сравнили характеристики сгенерированных лиц с официальными данными переписей. Оказалось, что модели акцентируют одни черты и игнорируют другие в зависимости от страны. Например, страны Латинской Америки часто ассоциируются с коренными архетипами, тогда как Канада и США в основном представлены белыми лицами. Эти искажения проявляются как в анализе изображений, так и в их интерпретации другими системами искусственного интеллекта.
Исследование также выявило перепредставленность мужчин в большинстве моделей, за исключением одной, которая отдает предпочтение женщинам. Культурные и демографические различия между нациями не учитываются, что создает серьезную этическую проблему. Действительно, такие предвзятости могут усиливать стереотипы и стирать целые социальные группы, особенно когда эти изображения используются в СМИ, дизайне или образовании.
Чтобы оценить эти расхождения, ученые применили несколько методов. Сначала они использовали классификатор, который группирует изображения по их визуальному сходству. Затем они измерили расстояние между средними представлениями каждой страны и этнических или гендерных групп. Наконец, языковая модель проанализировала портреты, чтобы выявить воспринимаемые атрибуты. Эти взаимодополняющие подходы подтверждают, что предвзятости касаются не только внешности, но и того, как эти изображения интерпретируются.
Результаты подчеркивают важность оценки искусственного интеллекта с учетом географических и культурных контекстов. Без такой бдительности системы рискуют увековечивать упрощенные и неточные представления о человеческом разнообразии. Такой подход необходим для разработки более справедливых и прозрачных технологий, способных точно отражать богатство идентичностей по всему миру.
Bibliographie
Source de l’étude
DOI : https://doi.org/10.1007/s43681-026-01066-7
Titre : Bias beyond borders: quantifying gender and ethnic stereotypes across countries in AI image generation
Revue : AI and Ethics
Éditeur : Springer Science and Business Media LLC
Auteurs : Giovanni Franco; Regilene Aparecida Sarzi-Ribeiro; João Paulo Papa; Kelton Augusto Pontara da Costa; Felipe Mahlow