Erzeugen Künstliche Intelligenzen weltweite Vielfalt repräsentierende Bilder?

Erzeugen Künstliche Intelligenzen weltweite Vielfalt repräsentierende Bilder?

KI-Tools, die in der Lage sind, aus Texten Bilder zu erzeugen, haben die visuelle Gestaltung revolutioniert. Dennoch reproduzieren diese Technologien oft die sozialen Stereotype, die in den Daten vorhanden sind, mit denen sie trainiert wurden. Eine aktuelle Analyse hat untersucht, wie fünf beliebte Modelle Porträts von Menschen aus zehn amerikanischen Ländern erzeugen. Die Ergebnisse zeigen systematische Abweichungen zwischen den erzeugten Darstellungen und der demografischen Realität.

Die Forscher nutzten beschreibende Texte, die sich auf die Nationalität bezogen, um diese Systeme zur Erstellung von Porträts aufzufordern. Anschließend verglichen sie die Merkmale der generierten Gesichter mit den offiziellen Volkszählungsdaten. Dabei zeigte sich, dass die Modelle bestimmte Merkmale überbetonen und andere ignorieren – je nach Land. So werden lateinamerikanische Länder häufig mit indigenen Archetypen assoziiert, während Kanada und die USA vor allem durch weiße Gesichter repräsentiert werden. Diese Verzerrungen zeigen sich sowohl in der Analyse der Bilder als auch in deren Interpretation durch andere KI-Systeme.

Die Studie zeigt auch eine Überrepräsentation von Männern in den meisten Modellen, mit Ausnahme eines Modells, das Frauen bevorzugt. Die kulturellen und demografischen Unterschiede zwischen den Nationen werden nicht berücksichtigt, was ein großes ethisches Problem darstellt. Diese Verzerrungen können Stereotype verstärken und ganze soziale Gruppen unsichtbar machen, insbesondere wenn diese Bilder in Medien, Design oder Bildung eingesetzt werden.

Um diese Abweichungen zu bewerten, kombinierten die Wissenschaftler mehrere Methoden. Zuerst verwendeten sie einen Klassifikator, der Bilder nach ihrer visuellen Ähnlichkeit gruppiert. Anschließend maßen sie die Distanz zwischen den durchschnittlichen Darstellungen jedes Landes und denen der ethnischen oder geschlechtsspezifischen Gruppen. Schließlich analysierte ein sprachliches Modell die Porträts, um die wahrgenommenen Attribute zu identifizieren. Diese ergänzenden Ansätze bestätigen, dass die Verzerrungen nicht nur das Aussehen betreffen, sondern auch die Art und Weise, wie diese Bilder interpretiert werden.

Die Ergebnisse unterstreichen die Bedeutung, KI-Systeme unter Berücksichtigung geografischer und kultureller Kontexte zu bewerten. Ohne diese Wachsamkeit riskieren die Systeme, reduzierte und ungenaue Vorstellungen von menschlicher Vielfalt zu verewigen. Ein solcher Ansatz ist entscheidend, um gerechtere und transparente Technologien zu entwickeln, die die Vielfalt der Identitäten weltweit authentisch widerspiegeln können.


Bibliographie

Source de l’étude

DOI : https://doi.org/10.1007/s43681-026-01066-7

Titre : Bias beyond borders: quantifying gender and ethnic stereotypes across countries in AI image generation

Revue : AI and Ethics

Éditeur : Springer Science and Business Media LLC

Auteurs : Giovanni Franco; Regilene Aparecida Sarzi-Ribeiro; João Paulo Papa; Kelton Augusto Pontara da Costa; Felipe Mahlow

Speed Reader

Ready
500