1
2
3
4
5
6

DIVERSE TEAMS KREIEREN LÖSUNGEN FÜR DIVERSE ZIELGRUPPEN

Der Großteil der Bevölkerung entspricht nicht der „Norm“. Dieser Erkenntniss wird derzeit immer mehr Aufmerksamkeit geschenkt. Eine sehr ausführliche Recherche zu dem Thema präsentiert Carolina Criado Perez in ihrem Buch „Invisible Women“. Sie listet zahlreiche Produkte, Medikamente, Dienstleistungen auf, die nur für die weiße, männliche „Minderheit“ gestaltet wurden. Arzneimittel werden tendenziell eher an männlichen Probanden getestet, ebenfalls VR Brillen oder Smartphones. Unter anderem die physikalischen Unterschiede zwischen Männern und Frauen führen jedoch dazu, dass sowohl Medikamente als auch digitale Geräte für verschiedene Geschlechtergruppen unterschiedlich wirken können. Die weiblichen Symptome für einen Herzinfarkt, schwangere Crash Car Dummies oder der fehlende Periodentracker in Apples erster Version der Health-App sind einige Beispiele, bei denen vermutlich schlicht vergessen wurde die weibliche Zielgruppe mit einzubeziehen (1).

Bei der Entwicklung von Medikamenten kann dies gesundheitliche Folgen nach sich ziehen. Bei der Herstellung von VR-Brillen oder Smartphones führt es dazu, dass die Hälfte der Zielgruppe nicht erreicht wird, was sich auch auf den Umsatz auswirken kann. 2018 entstand z. B. auf Twitter eine Diskussion, weil Apple keine iPhones mehr herstellt, die in die zumeist kleineren Hände von Frauen passen, sodass diese die Telefone nicht mehr einhändig bedienen können (2).

Auch bei der Erstellung von Programmen, die mithilfe künstlicher Intelligenz funktionieren, verwenden Algorithmen Datensätze, die den weißen, männlichen Anteil der Weltbevölkerung widerspiegeln und somit den größeren Anteil – Frauen und nicht-weiße Menschen – diskriminieren. Dieses Missverhältnis spiegelt sich ebenfalls in prädiktiven Programmen wider, die Krankenkassen, Banken, Universitäten und in manchen Ländern die Staatssicherheit nutzen, um bestimmte Ereignisse wie die Wahrscheinlichkeit eines Kreditausfalls vorherzusagen (3).

Joy Buolamwini ist eine afroamerikanische Computeringenieurin vom MIT, der zufällig aufgefallen ist, dass eine Gesichtserkennungssoftware ihr nicht-weißes Gesicht nur erkannte, wenn sie es mit einer weißen Plastikmaske bedeckte. Die KI, die hierfür verwendet wurde, lernte von homogenen Daten, die womöglich von einem homogenem Team oder für eine einheitlich weiße Zielgruppe erstellt wurden. Es besteht die Vermutung, dass der Code oder das Training dieser Software anders wäre, wäre er von einem diversen Entwicklerteam geschrieben worden. Datensets, die Algorithmen trainieren, sollten eine inhomogene Datenbank verwenden, um faire Ergebnisse für unterschiedliche Menschengruppen zu produzieren. Joy nennt dieses Prinzip der Programmierung Inclusive Code. Sie gründete daraufhin die Algorithmic Justice League, eine Organisation, die Kunst und Forschung miteinander verbindet, um die sozialen Auswirkungen und Schäden der künstlichen Intelligenz zu beleuchten (4).

Dadurch, dass digitale Produkte Auswirkungen auf unser soziales Leben und auf unsere Gesellschaft haben, besteht auch eine größere Verantwortung aufseiten der Designer*innen und Entwickler*innen sich mit diesem Thema auseinanderzusetzen. Sie sollten Technologien so gestalten, dass sie die gesellschaftlichen Probleme nicht verschärfen, sondern zum Fortschritt der Gemeinschaft beisteuern.

Dr. Morten Goodwin, Professor der Universität in Agder, Norwegen, untersuchte den Sprachassistenten Siri und fand heraus, dass Männer und Frauen unterschiedliche Google-Ergebnisse auf die Frage: „Für was darf ich mich krankschreiben lassen?“ bekamen. Die Liste bei Frauen ergab Antworten wie: „Ist es falsch, sich krankschreiben zu lassen, wenn man schwanger ist?" und "Allgemeine Informationen zur Krankschreibung bei psychischen Erkrankungen" wo hingegen Männer Suchergebnisse wie: "Hier sind die Regeln, wenn Sie krankgeschrieben sind" und "Krankengeld" erhielten, um nur einige zu nennen (5).

Es gibt allerdings auch Unternehmen, die versuchen dem entgegenzuwirken. Ulla Geisel, im Lead des SAP Inclusive Design Teams, arbeitet daran, Diversität, Inclusiveness und Cross Cultural UX in den hauseigenen Design-Prozess zu integrieren. Dies wird einerseits durch die Zusammensetzung von Teams, die durch Mitarbeiter*innen aus unterschiedlichen Kulturgruppen, Geschlechtern und Menschen mit körperlichen Einschränkungen geprägt sind erreicht. Andererseits sollen Guidelines und Checklisten Designer-, Research-, Entwickler- und Marketing-Teams dabei helfen, ihr Mindset für Diversität, Inclusiveness und Cross Cultural UX zu sensibilisieren. Ihr Ziel ist es, längerfristig eine systematische Veränderung in der Gestaltung von digitalen Produkten zu bewirken und uncoscious biases, also die Vorurteile, die fest in unseren Gedankenstrukturen verwurzelt sind, zu reduzieren.

Diversität in den Designer-, Entwickler- und Research-Teams könnten nicht nur einen höheren Innovationswert aufweisen, wären auch eher in der Lage, Bedürfnisse aller Nutzerinnen mit einzubeziehen“ (Ulla Geisel, 2020).

In der menschzentrierten Gestaltung (ISO 9241-210:2010) geht es darum, Menschen in den Mittelpunkt von Produkten und Dienstleistungen zu stellen. Um dies zu erreichen ist es wichtig, alle Zielgruppen mit all ihren Unterschieden von Anfang an zu berücksichtigen. Vom User Research über das User-Testing sollte darauf geachtet werden, stets die vielseitigen Bedürfnisse aller Nutzer*innen mit einzubeziehen. Heterogene Teams können auch unterschiedliche Perspektiven in diesen Prozess einbringen. Sie repräsentieren das diverse Bild der Gesellschaft, spiegeln ihre unterschiedlichen Wünsche wider und können sie durch Selbstreferenzialität in das Design mit einfließen lassen.

Forschende der Technischen Universität Berlin arbeiten an einem Inklusionskonzept, um bei der menschzentrierten Gestaltung drei „Säulen der Inklusion“ zu berücksichtigen. Dabei sollen Interaktionen für Menschen mit (temporären) Behinderungen gestaltet werden, der Gender Data-Gap geschlossen und Technologie für eine Transkulturelle Zielgruppe gestaltet werden. Wenn Studierende des Human Factors Studiengangs für die Thematik sensibilisiert werden, können sie später als Experten auf diesen Grundlagen Entscheidungen treffen und somit Technologien ertwicklen, die nicht nur die männliche, weiße Minderheit, sondern möglichst viele Menschen mit unterschiedlichen Bedürfnissen berücksichtigen.

 

Weiterführende Links:
(1) genderinnovations/stanford

(2) refinery29

(3) wired

(4) Dr. Morten Goodwin (mit google translate übersetzt)

(5) Algorithmic Justice League

 

 

 


01.12.21

Kontakt

Veronica Hoth
  • Wilhelm-Raabe-Straße 43,
  • 09120 Chemnitz

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.