1
2
3
4
5
6

Die Nutzung von Algorithmen zur Entscheidungsfindung breitet sich aus und führt zu einer grund-legenden Diskussion, wie wir diese fair gestalten können. In diesem Artikel möchten wir die Grundproblematik der Fairnessgestaltung adressieren.

Automatisierte Entscheidungen betreffen uns zunehmend in unserem Alltag. So werden Prozesse in Bezug auf Kredite und Versicherungen, Bewerbermanagement oder auch Preise im Internet schon mithilfe von künstlicher Intelligenz automatisiert. Doch nicht immer finden Verbraucher:innen die Entscheidungen, getroffen von einer „Maschine“,  fair. Dies führt uns zu der Fragestellung, was Verbraucher:innen unter fairen Algorithmen verstehen. Was einfach klingt, lässt sich aber nicht pauschal beantworten. So können wir es als essentielle Bedingungen betrachten, dass unsere Algorithmen frei von Diskriminierung sein müssen. Allerdings bedeutet aus Sicht der Verbraucher:innen diskriminierungsfrei nicht immer automatisch auch fair. Grundlegend hierfür ist, dass wir in unserer Gesellschaft keinen einheitlichen Konsens über Fairness besitzen. So stehen wir bereits bei Beginn dieser Debatte bei der Fragestellung, ob Fairness Gleichbehandlung oder Gleichstellung bedeutet. Gleichbehandlung hieße, unser System begegnet allen Menschen gleich und es gibt kein Eingreifen der Menschen. Dies würde jedoch je nach Anwendungskontext bedeuten, dass aufgrund von unterschiedlichen Anfangsvorrausetzungen nicht jeder die gleichen Chancen besitzt. Beispielsweise könnte es passieren, dass Frauen bei einer automatisierten Bewertung ihrer Bewerbung für handwerkliche Berufe grundsätzlich nicht berücksichtigt würden, weil die Anzahl ihrer Bewerbungen deutlich geringer ist. Durch ungleiche Vorrausetzungen und bereits voreingenommen erhobene Datensätze übertragen wir also nur eine Problematik, die in der Gesellschaft schon existiert, auf unsere Systeme. Vermeintlich einfach ließe sich dies mit dem Prinzip der Gleichstellung, also dem Schaffen von gleichen Grundvoraussetzungen lösen. In unserem Anwendungsfall könnte der Mensch den Algorithmus so gestalten, dass eine Quote eingeführt werden würde, die einen prozentualen Anteil an Frauen berücksichtigt oder beispielsweise alle Daten in Bezug auf das Geschlecht bei der Bewertung nicht mit einbezieht. In Konsequenz übertragen wir damit allerdings die Verantwortung wieder dem Menschen beziehungsweise demjenigen der darüber entscheidet, welche Kriterien der Algorithmus einbeziehen sollen. Hier bedarf es dann im konkreten Anwendungsfall ein Verständnis aus der Sicht der Verbraucher:innen, welche sensiblen Informationen einbezogen werden sollen.


13.07.21

Weitere Informationen

Kontakt

Lena Recki

1
2
3
4
5
6
 
 
Copyright