1
2
3
4
5
6

Maschinen fällen Entscheidungen über Menschen – das gilt im Zeitalter der künstlichen Intelligenz (KI) mehr denn je. Mit dieser Entwicklung geht, auch am Arbeitsplatz, die Befürchtung einher, dass Menschen die Kontrolle und damit ihre Autonomie im Entscheiden und Handeln verlieren.

KI kann aber auch dazu beitragen Mitarbeitenden mehr Autonomie zu verleihen, indem komplexe Planungsprobleme mithilfe von Systemen so vereinfacht werden, dass alle Mitarbeitenden selbst in der Planung aktiv werden können und somit mehr Mitsprache bekommen. In diesem Zusammenhang ist es besonders wichtig, dass Entscheidungsträger*innen verstehen, auf Basis welcher Informationen Systeme Empfehlungen abgeben oder Entscheidungen treffen. Explainable AI kann dabei helfen aufzuzeigen, wo Möglichkeiten, aber auch Grenzen von Systemen liegen und damit den Handlungsspielraum für verantwortliche Entscheidungsträger*innen erweitern. Wir nutzen im Vortrag das Szenario der Dienstplanung, um das komplexe Zusammenspiel von Informationen, Empfehlungen, Erklärungen, Verstehen, Autonomie, Fairness und Verantwortung zu klären, das sowohl aus der Perspektive von UX als auch derjenigen von Explainable AI von weitreichender Bedeutung ist.

Maschinen fällen Entscheidungen über Menschen – das gilt im Zeitalter der künstlichen Intelligenz (KI) mehr denn je. Mit dieser Entwicklung geht, auch am Arbeitsplatz, die Befürchtung einher, dass Menschen die Kontrolle und somit auch ihre Selbstbestimmung und Autonomie im Entscheiden und Handeln verlieren. Im Kontrast dazu zeigt das Forschungsprojekt GamOR, dass KI-Systeme Mitarbeitenden mehr Autonomie verleihen können. In diesem Forschungsprojekt bekommen Pflegekräfte mithilfe einer teilautomatisierten, kollaborativen Dienstplanungsplattform mehr Einfluss auf ihren Dienstplan und können dadurch stärkeren Einfluss auf die Planung ihrer Arbeits- und Freizeit nehmen.

In einer ersten Stufe tragen Mitarbeitende selbstständig Termine ein und lösen mithilfe von Lösungsvorschlägen des Systems Planungskonflikte direkt im Team. Diese Dezentralisierung ist ein Autonomiegewinn. Der Einsatz eines solchen Systems wirft allerdings die Frage auf, ob die Mitarbeitenden wirklich autonom zu einer gemeinsamen Konfliktlösung kommen können. Denn wenn verschiedene Planungskonflikte nur abhängig voneinander gelöst werden können oder wenn umfassende arbeitswissenschaftliche oder gesetzliche Anforderungen im Spiel sind, kann die Empfehlungsgrundlage des Systems extrem komplex sein. Eventuell sind dann Mitarbeitende nicht mehr in der Lage, selbstständig zu entscheiden, sondern können der Empfehlung des Systems nur noch blind folgen. Um dies zu vermeiden, müssen die Konfliktparteien verstehen, aus welchen Gründen das System eine bestimmte Lösung vorschlägt, d.h., sie brauchen eine geeignete Erklärung. Durch das so hervorgerufene Verstehen des Lösungsvorschlags wird zugleich nachvollziehbar, wie er zustande kam, wodurch Vertrauen und Akzeptanz bzgl. des Systems zunehmen.

In einer zweiten Stufe entscheiden Vorgesetzte über Konflikte, die im Team nicht lösbar sind. Wenn ein solches System hier eine Empfehlung gibt, stellt seine Vorarbeit für diese Entscheidungsträger*innen einen Gewinn an Autonomie dar: Anstatt sich unter Zeitdruck durch alle relevanten gesetzlichen und persönlichen Informationen der Konfliktparteien zu arbeiten, können sie sich auf „weiche“ Kriterien für die Entscheidungsfindung und andere, interessantere Aufgaben konzentrieren. Aber auch hier besteht die Sorge, dass Vorgesetzte auf Basis einer Systemempfehlung doch in ihrer Autonomie eingeschränkt sind. Werden sie nicht durch die Empfehlung in eine bestimmte Richtung manipuliert und letztlich zu bloßen Knöpfchendrücker*innen degradiert? Wir argumentieren, dass dieses Problem vermieden werden kann, wenn sichergestellt wird, dass Entscheidungsträger*innen verstehen, auf Basis welcher Informationen das System seine Empfehlung abgibt, und zudem, wo Möglichkeiten, aber auch Grenzen des Systems liegen. Sie brauchen also ebenfalls Erklärungen, wenngleich womöglich eine andere Art und basierend auf anderen (und mehr) Informationen. Nur dann können sie außerdem für ihre Entscheidungen angemessen Verantwortung tragen, anstatt fälschlicherweise die Verantwortung auf das System zu schieben.

Wir nutzen im Vortrag das Szenario der Dienstplanung, um das komplexe Zusammenspiel von Informationen, Empfehlungen, Erklärungen, Verstehen, Autonomie, Fairness und Verantwortung zu klären, das sowohl aus der Perspektive von UX als auch derjenigen von Explainable AI von weitreichender Bedeutung ist.

Über Prof. Dr. Eva Schmidt:

Eva Schmidt ist Professorin für Theoretische Philosophie an der TU Dortmund. Sie arbeitet in der Erkenntnistheorie, der Handlungstheorie und der Philosophie des Geistes. Ihre Hauptinteressen sind epistemische Gründe und Gründe für Handlungen, erklärbare künstliche Intelligenz und die Epistemologie und Natur der Wahrnehmung. Sie ist Mitglied des Forschungsprojekts „Explainable Intelligent System“ (EIS), das von der Volkswagen-Stiftung gefördert wird. Eva Schmidt studierte Philosophie und Geschichte an der Universität des Saarlandes und an der University of Missouri-Columbia. Sie promovierte 2011 mit einer Dissertation zum Inhalt und der epistemischen Signifikanz der Wahrnehmung.

Über Nadine Schlicker:

Nadine Schlicker machte ihren Master in Psychologie an der Universität des Saarlandes mit dem Schwerpunkt Arbeits- & Organisationspsychologie. Ihre Interessensgebiete umfassen Mensch-Maschine Interaktion, und darin spezifisch die Erklärbarkeit intelligenter Systeme und wie sich diese auf Fairness & Vertrauen auswirkt. Seit 2017 arbeitet sie bei Ergosign GmbH als UX Researcher und betreut dort das Forschungsprojekt GamOR (Gamification of Roster), welches sich mit kollaborativer, algorithmengestützter Dienstplanung im Pflegekontext beschäftigt.

Über Kevin Baum (Ko-Autor):

Kevin Baum ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Praktische Philosophie sowie am Institut für Informatik an der Universität des Saarlandes. Er ist Projektmanager des Projekts „Explainable Intelligent Systems“ (EIS) und Experte unter anderem für Computerethik, Maschinenethik und Maschinenerklärbarkeit.

Über die Ergosign GmbH:

Die Ergosign GmbH ist ein UX-Dienstleistungsunternehmen, dessen Leistungsspektrum den gesamten UX Lifecycle von der strategischen UX Beratung, Analyse und Design bis hin zur User Interface Entwicklung umfasst. Mit etwa 150 Mitarbeitern an den Standorten Berlin, Hamburg, München, Saarbrücken, Stuttgart und Zürich bearbeitet Ergosign herausfordernde User Experience-Projekte für Kunden aus einem breiten Branchen-Querschnitt.

Nähere Informationen finden Sie hier: https://www.kompetenzzentrum-usability.digital/events/tagung-menschzentrierte-digitalisierung


07.02.20

1
2
3
4
5
6
 
 
Copyright