1
2
3
4
5
6

Das Thema Gerechtigkeit nimmt einen zentralen Stellenwert beim Design intelligenter Systeme ein. Prof. Dr. Eva Schmidt, Nadine Schlicker und Dr. Matthias Langer beleuchten in ihrem Online-Vortrag die Möglichkeiten Systementscheidungen transparent und für die NutzerInnen verständlich zu machen. Der Vortrag findet im Rahmen der digitalen UIG-Tagung am Donnerstag, den 5. November im Themenblock III "Faire Digitalisierung" (15.00 - 16.30 Uhr) statt.

Digitalisierung und Entwicklungen im Bereich künstlicher Intelligenz führen immer mehr zur Automatisierung von Prozessen, Arbeitsschritten und Tätigkeiten. Im Zuge dieser Entwicklung werden auch zunehmend Entscheidungen (teil)automatisiert, die zuvor von Menschen getroffen wurden. Zugleich kann, abhängig vom Kontext, die Entscheidungsgrundlage des Systems komplex sein, sodass diese (teil)automatisierten Entscheidungen für Betroffene und Verantwortliche nicht mehr nachvollziehbar sind. Dies birgt verschiedene Gefahren.

Fehlende Nachvollziehbarkeit untergräbt zum einen die wirkliche und empfundene Autonomie der Menschen: Sie erschwert es Betroffenen, informierte Schlussfolgerungen zu ziehen und auf Basis dieser selbst verantwortungsvoll zu handeln, wodurch die für Autonomie notwendige Kontrolle und Wissen verloren gehen. Fehlende Nachvollziehbarkeit beeinträchtigt zum anderen die wirkliche und empfundene organisationale Gerechtigkeit, da Menschen nicht über die vorliegenden Gründe, angewandten Kriterien oder die zugrundeliegenden Werte von Entscheidungsprozessen Bescheid wissen. Entsprechend können die betroffenen Personen für sie undurchsichtige Entscheidungen nur schwer auf ihre Fairness hin bewerten oder Einwände gegen diese aufbringen.

Um dem entgegenzuwirken, beschäftigt sich das Forschungsgebiet XAI (eXplainable Artificial Intelligence) mit Möglichkeiten, Systementscheidungen transparent und für NutzerInnen verständlich zu machen. NutzerInnen müssen verstehen, aus welchen Gründen das System eine bestimmte Lösung vorschlägt, d.h. sie brauchen eine geeignete Erklärung. Dies stellt DesignerInnen intelligenter Systeme vor neue Herausforderungen. Wie müssen solche Erklärungen aussehen? Welche Informationen sind für welche Nutzergruppen in welchen Kontexten und aus welchen Gründen relevant?

Aus der Perspektive der ReferentenInnen ist das Design von Erklärungen eng mit dem Kontext und den involvierten Personen verknüpft und sollte darum holistisch als Prozessentwicklung (nicht isoliert als technische Entwicklung) betrachtet werden. Im Gegensatz zu den oben genannten Gefahren der mangelnden Nachvollziehbarkeit bietet KI (sinnvoll integriert und unter Einbezug von Erkenntnissen aus der XAI Forschung) sogar die Möglichkeit, die (von NutzerInnen empfundene) Autonomie und Gerechtigkeit zu stärken. Angelehnt an die Ergebnisse aus den Forschungsprojekten GamOR (Gamification of Roster) und EIS (Explainable Intelligent Systems) nutzen die ReferentenInnen das Szenario der Dienstplanung im klinischen Kontext, um das komplexe Zusammenspiel von Informationen, Empfehlungen, Erklärungen, Verstehen, Autonomie, Gerechtigkeit und Verantwortung zu beleuchten. Dieses Zusammenspiel ist sowohl aus der Perspektive der UX als auch derjenigen von XAI von weitreichender Bedeutung. Implikationen für das Design intelligenter Systeme werden vorgestellt und Spannungen zwischen Erwartungen der NutzerInnen und immer lauter werdenden Forderungen nach erklärbaren intelligenten Systemen diskutiert.

Weiterführende Informationen zur digitalen UIG-Tagung und die Möglichkeit zur kostenfreien Anmeldung finden Sie hier.

Über Prof. Dr. Eva Schmidt:

Eva Schmidt ist Professorin für Theoretische Philosophie an der TU Dortmund. Sie arbeitet in der Erkenntnistheorie, der Handlungstheorie und der Philosophie des Geistes. Ihre Hauptinteressen sind epistemische Gründe und Gründe für Handlungen, erklärbare künstliche Intelligenz und die Epistemologie und Natur der Wahrnehmung. Sie ist Mitglied des Forschungsprojekts „Explainable Intelligent System“ (EIS), das von der Volkswagen-Stiftung gefördert wird. Eva Schmidt studierte Philosophie und Geschichte an der Universität des Saarlandes und an der University of Missouri-Columbia. Sie promovierte 2011 mit einer Dissertation zum Inhalt und der epistemischen Signifikanz der Wahrnehmung.

Über Nadine Schlicker:

Nadine Schlicker machte ihren Master in Psychologie an der Universität des Saarlandes mit dem Schwerpunkt Arbeits- & Organisationspsychologie. Ihre Interessensgebiete umfassen Mensch-Maschine Interaktion, und darin spezifisch die Erklärbarkeit intelligenter Systeme und wie sich diese auf Fairness & Vertrauen auswirkt. Seit 2017 arbeitet sie bei Ergosign GmbH als UX Researcher und betreut dort das Forschungsprojekt GamOR (Gamification of Roster), welches sich mit kollaborativer, algorithmengestützter Dienstplanung im Pflegekontext beschäftigt.

Über Dr. Matthias Langer:

Dr. Markus Langer ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Arbeits- und Organisationspsychologie an der Universität des Saarlandes, Projektmitverantwortlicher des Projektes „Explainable Intelligent Systems“ sowie Gründungsmitglied von Algoright, einem Verein der sich zu Themen rund um menschzentrierte Digitalisierung beschäftigt. Seine Forschung beschäftigt sich vor allem mit der Ausgestaltung von Mensch-Maschine Kollaboration.

Über Kevin Baum (Co-Autor):

Kevin Baum ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Praktische Philosophie sowie am Institut für Informatik an der Universität des Saarlandes. Er ist Projektmanager des Projekts „Explainable Intelligent Systems“ (EIS) und Experte unter anderem für Computerethik, Maschinenethik und Maschinenerklärbarkeit.


23.10.20

1
2
3
4
5
6
 
 
Copyright