1
2
3
4
5
6

Tagtäglich werden im Netz gigantische Mengen an neuem Content hochgeladen, sei es Musik, Videos, Bilder oder Beiträge. Immer häufiger ist dieser Content nicht mehr auf Menschen zurückführbar, sondern es handelt sich bei den Urhebern um Künstliche Intelligenzen. Neben den von ChatGPT [1] erstellten Texten findet man auch Bilder von potenziellen After Show Partys nach der Krönung von König Charles [2] und es besteht scheinbar die Möglichkeit, neue Musik von verstorbenen Künstler*innen, wie Freddie Mercury, zu hören [3]. Aber wie funktionieren generative KIs und welche Bedeutung haben sie für Diversität im Kontext der Digitalisierung?

Damit solche KIs realistische Inhalte reproduzieren können, insbesondere Fotos die der Realität gleichen, müssen sie mit bereits existierenden Inhalten gefüttert werden. Das bedeutet, dass das System zahlreiche Bilder mit dazugehörigen Bildbeschreibungen aufnimmt und diese verarbeitet. In einem anschließenden Lernprozess werden die ursprünglichen Beschreibungen schrittweise mit den von der KI erzeugten Bildern verglichen. So lernt diese, ob die Ergebnisse richtig oder falsch sind. Anschließend können dann Prompts (kurze Texteingaben) geschrieben werden, welche die KI nun in ihre Datenstruktur übertragen muss. So wird anschließend in mehreren Schritten ein Bild generiert [4]. Die Möglichkeit, auch realistische Fotos zu generieren bringt eigene Herausforderungen mit sich: die Diversität von KI-generierten Bildinhalten.

Eine KI kann nur so divers sein, wie die Datensammlung, mit der sie gefüttert wurde. Das führt dazu, dass KIs eine Vielzahl möglicher Verzerrungen (engl. Bias) aufzeigen können, die den Vorurteilen von uns Menschen ähneln [5]. Dies ist auch aktuell der Fall in verschiedenen generativen KIs wie Stable Diffusion [6] oder auch Dall E 2 [7]. Insbesondere reproduziert die KI Stable Diffusion die Stereotype bezüglich Geschlecht und Herkunft. Bloomberg generierte und analysierte mehr als 5000 Bilder von Menschen aus verschiedenen Berufsgruppen [5]. Dabei wurden Bilder für „low-paying“ und „high-paying“ Berufe (jeweils sieben Berufe mit je 300 erzeugten Bildern) generiert, sowie drei Kategorien in Bezug auf Kriminalität. Die generierten Fotos wurden anhand der Gesichtsfarbe untersucht und mit Hilfe der Fitzpatrick Skin Scale (Kategorien nach Hautpigmentation, genutzt von Dermatologen) in Hauttypen unterschieden. Nach der Analyse der Gesichter stellte sich heraus, dass bei Berufen, die als „high-paying“ (z. B. Lawyer) gelten, die hellen Hauttöne dominieren, wohingegen bei den „low-paying“ (z. B. Fast-Food-Worker) Jobs eher dunklere Hauttöne reproduziert werden [5]. Beim Geschlecht findet sich eine ähnliche Verteilung. Zunächst muss erwähnt werden, dass es sich bei den abgebildeten Personen um fiktive Menschen handelt, die kein wirkliches Geschlecht aufzeigen, sodass hier das wahrgenommene Geschlecht untersucht wurde. Fast alle Berufe werden durch wahrgenommene Männer dominiert, außer „low-paying“ Berufe wie Reinigungskraft. Hier wurde kein einziger Mann generiert. Für jedes Bild einer wahrgenommenen Frau wurden fast dreimal so viele Bilder wahrgenommener Männer generiert. So reproduziert die KI nicht nur Geschlechterstereotype für Berufe, sondern neigt auch zu einer Unterrepräsentation von Frauen [5].

Ähnliches zeigt sich auch bei der KI Dall E 2. Diese tendiert zu einer Überrepräsentation von Männern [8], gleichzeitig tritt eine Unterrepräsentation von Frauen in Männer-dominierenden Bereichen und eine Überrepräsentation in Frauen-dominierenden Feldern auf [9]. Auch bei der Interaktion der beiden Kategorien findet sich ein stereotypes Bild. Wahrgenommene Männer mit heller Haut repräsentieren den Großteil aller „high-paying“ Berufe [5]. An dieser Stelle lässt sich außerdem der Repräsentationsbias finden [9]. Dieser repräsentiert eine inakkurate und stereotype Realität, die auch dazu genutzt wird, solche existierenden Ungerechtigkeiten zu festigen. Dies wird z.B. durch negative Darstellungen von Frauen erreicht, weil diese unter anderem die Selbstwahrnehmung beeinflussen [9]. Neben diesem Bias tritt ebenso der Präsentationsbias auf, welcher sich auf die individuelle Darstellung von Personen aufgrund ihres Geschlechtes in Medien bezieht. Hierbei werden häufig stereotype Emotionen, Eigenschaften sowie Aussehen an das jeweilige Geschlecht geknüpft, sodass Frauen häufiger auf KI-generierten Bildern lächeln, aufgrund der Erwartungshaltung, dass Frauen positiv und förmlich sein müssen [9].

Interessant hierbei ist zu sehen, dass die KI-generierten Bildinhalte in diesem Fall mit den Stereotypen bezüglich Geschlecht und Herkunft übereinstimmen, diese aber nicht die Realität widerspiegeln. Die Inhalte wurden mit Daten aus den USA verglichen und es zeigt sich zwar auch hier, dass Frauen in „high-paying“ Berufen unterrepräsentiert sind, sich dies aber in vielen Industrien über die Zeit hinweg signifikant verbessert hat. So drastisch, wie die Verteilung der KI diesbezüglich ist, ist die reale Verteilung zum Glück nicht. In den USA sind laut National Association of Women Judges 34% aller Richter*innen weiblich, die KI hingegen reproduzierte lediglich 3% [5].

Bei der Nutzung von KI-generierten Bildinhalten sollten User darauf achten, dass es sich um stereotypische Verzerrungen der Realität handelt und nicht die Realität widerspiegelt. 

 

[1] ChatGPT (openai.com)

[2] King Charles coronation: How the 'afterparty' may have looked thanks to AI | UK News | Metro News

[3] Freddie Mercury AI - BEAT IT (Michael Jackson) - YouTube

[4] Demling, A., Beuth, P., Hoppenstedt, M., Rainer, A., & Rosenbach, M. (2023, 08. Juli).

Künstliche Intelligenz – Wenn Maschinen lügen lernen. Spiegel. Künstliche Intelligenz: Wenn Maschinen lügen lernen - DER SPIEGEL

[5] Nicoletti, L. & Bass, D. (2023, 12. Juni). Humans are biased. Generative AI is even worse.

Bloomberg Technology. Generative AI Takes Stereotypes and Bias From Bad to Worse (bloomberg.com)

[6] Stable Diffusion Online (stablediffusionweb.com)

[7] DALL·E 2 (openai.com)

[8] Luccioni, A. S., Akiki, C., Mitchell, M., & Jernite, Y. (2023). Stable bias: Analyzing

societal representations in diffusion models. arXiv preprint arXiv:2303.11408. https://doi.org/10.48550/arXiv.2303.11408

[9] Sun, L., Wei, M., Sun, Y., Suh, Y. J., Shen, L., & Yang, S. (2023). Smiling Women

Pitching Down: Auditing Representational and Presentational Gender Biases in Image Generative AI. arXiv preprint arXiv:2305.10566. https://doi.org/10.48550/arXiv.2305.10566

 


18.08.23

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.