1
2
3
4
5
6
Foto: Charles Deluvio auf Unsplash

Künstliche Intelligenz (KI) denkt nicht wie wir Menschen – gerade deswegen müssen wir uns Gedanken darüber machen, wie wir die Nutzung von KI in Zukunft gestalten wollen. Hier kommt die „Menschzentrierte KI“ oder „Human-Centered AI“ ins Spiel. Ein Fachbeitrag über die Wichtigkeit dieses noch recht jungen Forschungsthemas.

Wir erleben derzeit, wie sich ein Teil der Geschichte der Technologie-Nutzung durch den Menschen wiederholt: In den 80er und 90er Jahren, als sich Computer allmählich im Alltag der Menschen etablierten, wurde ihnen zunächst von vielen mit Skepsis und Angst begegnet. Die Sorge war groß, dass diese Technik das Leben der Menschen negativ beeinträchtigen könnte, dass Maschinen irgendwann die Menschen ersetzen könnten. Aus heutiger Sicht fällt es schwer, all das zusammenzufassen, wie Computer unser Leben verändert haben. Letztendlich hat die Veränderung uns Menschen wohl kaum überflüssig und arbeitslos gemacht, aber sie hat uns lange Zeit durchaus eine gewisse Anpassung abverlangt. Wir haben lernen müssen, mit Werkzeugen zu arbeiten, die uns zunächst fremd und schwer zugänglich waren. Im Laufe der Zeit trugen Erkenntnisse aus neuen Forschungsgebieten wie der Software-Ergonomie und dem User-Centered-Design (UCD; heute: HCD) dazu bei, dass unsere digitalen Werkzeuge allmählich mehr an unsere Anforderungen und Gewohnheiten angepasst wurden. Und mit unserem heutigen Verständnis von Human-Centered Design (HCD), Usability und User Experience (kurz: UUX) können wir unsere Geräte und Softwares nicht nur anforderungsgerecht und intuitiv gestalten, sondern auch Freude bei der Nutzung von Technologie schaffen und positive Erlebnisse fördern.

Keine Angst vor Veränderung

Ähnlich wie damals mit den Computern ist heute die Situation mit der Künstlichen Intelligenz (KI). Die Sorge, dass KI den Menschen zunehmend ersetzen wird, dass KI irgendwann einmal sogar die Intelligenz des Menschen übertreffen könnte, ist in der Gesellschaft vermutlich präsenter als je zuvor. Wirft man aber mal einen Blick darauf, welche simplen Verfahren eigentlich hinter dem ominösen Begriff der KI stecken (z. B. in unserer KI-Grundlagen-Seminarreihe), erkennt man schnell, dass diese Art der Intelligenz nur wenig mit unserer menschlichen Form des Denkens zu tun hat. Die heutige KI wird auch „schwache KI“ genannt, da sie dem Menschen nur bei bestimmten, klar definierten Aufgaben überlegen ist. Wer sich einlesen möchte: Eine vereinfachte Übersicht dessen, was KI alles leisten kann, findet sich z. B. im KI-Periodensystem. Das Finden geeigneter KI-Anwendungsfälle ist derzeit eine der größten Herausforderungen für Unternehmen, die KI in Produkte oder Prozesse integrieren wollen.

Nicht nur von der Technologie leiten lassen

Aber: Hinter der oft gestellten Leitfrage „Wie können wir ein Problem mit KI lösen?“ steckt ein grundlegend technikzentrierter Ansatz. Nicht für jedes Problem ist KI die beste Lösung – und wir müssen aufpassen, dass wir uns nicht nur von den Möglichkeiten dieser Technologie leiten lassen, ohne das Zusammenspiel zwischen KI und den zukünftig damit arbeitenden Menschen zu beachten (technikzentrierte Gestaltung). Sonst entsteht (wie in den Anfangsjahren der Computer) die Gefahr, dass wir Systeme entwickeln, die für Nicht-Informatiker fremd, unberechenbar und unzugänglich wirken.

So beschreibt der Forscher James Guszcza 2018 in seinem Artikel „Smarter together - why artificial intelligence needs human-centered design“ mehrere Gefahren der Vernachlässigung menschlicher Eigenschaften und Anforderungen bei der KI-Entwicklung. Zum Beispiel das sogenannte „Automatisierungs-Paradox“: Je mehr wir uns auf automatisierte Systeme verlassen, desto schlechter sind wir darauf vorbereitet, in kritischen Fällen einzugreifen, wenn das System (etwa eine KI) an ihre Grenzen stößt. Was passiert etwa, wenn eine KI die Erkennung und Auswertung von Formularen übernimmt und dabei auf einen besonders schwierigen Fall stößt, für den sie die Unterstützung eines Menschen benötigt – aber sie wird (A) nicht bemerkt oder (B) niemand weiß, wie man der KI die notwendigen Anweisungen gibt, um mit dem Problem umzugehen? Die Übergabe der Kontrolle von der KI an den Menschen muss so gestaltet werden, dass die Menschen rechtzeitig reagieren können und wissen, was zu tun ist.

Schau hin, was deine KI macht

Weitere Risiken bestehen in der gegenseitigen Beeinflussung von Menschen und KI. Gerade Machine-Learning-Algorithmen arbeiten meist mit großen Datenmengen, die manchmal von Menschen direkt beeinflusst werden können. Zum Beispiel die sogenannten „Captchas“, mit denen Sie auf vielen Websites z. B. beim Login angeblich beweisen müssen, dass Sie kein Roboter sind, indem Sie auf Fotos mit mehreren Feldern Dinge wie Fußgängerüberwege, Ampeln oder Fehrzeuge erkennen und anklicken. Durch das Anklicken der entsprechenden Felder beweisen Sie nicht nur Ihre Menschlichkeit, sondern trainieren auch KI-Algorithmen. In diesem Fall gibt es wohl mehr als genug Internetnutzende, die die gewünschten Objekte richtig zuordnen, sodass die KI tatsächlich auch die richtigen Dinge im Straßenverkehr zu erkennen lernt, doch das ist nicht immer so.

In der berühmten Geschichte von Microsofts Twitterbot „Tay“ aus dem Jahr 2016 etwa, der mit Tweets als Datenbasis arbeitete, brachten arglistige Internetnutzende dem Algorithmus innerhalb kürzester Zeit provokante und menschenverachtende Ausdrucksweisen bei, die Tay dann wiederum im Gespräch mit allen anderen Nutzenden einsetzte. Ähnliche Fälle von vermeintlich rassistischen, sexistischen oder anderweitig voreingenommenen KI-Systemen gab es seitdem immer wieder. Das zugrundeliegende Problem sind aber natürlich keine an sich bösartigen Algorithmen, sondern demografische Ungleichmäßigkeiten in den Daten oder eine mangelnde Kontrolle darüber, welche Teile der Daten von den Algorithmen für ihre Entscheidungen genutzt werden. Die Daten, die einer KI vermeintlich den besten Aufschluss darüber geben, welche Bewerber sich für eine Stelle eignen oder woran ich einen Wolf am besten von einem Husky unterscheiden kann, sind bei näherem Hinsehen vielleicht gar nicht so sinnvoll.

Ungenauer ist manchmal besser

Weniger eine Gefahr als vielmehr ein womöglich oft ungenutztes Potenzial liegt in der nutzenorientierten Darstellung von Ergebnissen bzw. Entscheidungen einer KI. KI-Algorithmen können zwar sehr schnell Lösungen für Probleme und präzise Antworten auf Fragen finden – doch was ein Algorithmus als optimale Lösung ansieht, muss nicht zwingend auch für den Menschen optimal sein. Frage ich etwa einen KI-Assistenten nach Informationen wie der Fläche von Frankreich, so ist eine numerische Antwort (643.801km2) sicher die präzisere, doch hilfreicher ist für mich womöglich eine grobe Antwort wie „fast doppelt so groß wie Deutschland“, die die Information für mich in einen verständlichen Kontext setzt. Um sagen zu können, in welcher Form eine KI ihre Ergebnisse bzw. vermitteln sollte, muss ich mich natürlich damit befassen, wir die zukünftigen Nutzenden des KI-Systems damit arbeiten wollen.

Fazit von Teil 1

Es gibt sicher noch weitere Beispiele, die man hier aufzählen könnte. Doch kurzgefasst: Künstliche Intelligenz denkt nicht wie wir Menschen, daher müssen wir bei der Konzeption und Entwicklung unter anderem für ein gegenseitiges Verständnis und eine funktionierende Zusammenarbeit zwischen Mensch und KI sorgen. Und wir müssen aufpassen, dass wir der KI nicht versehentlich Vorurteile antrainieren. Ein Ansatz dafür ist die „Human-Centered AI“ oder „menschzentrierte KI“, die sich etwa seit 2019 immer mehr als Begriff verbreitet. Was genau hinter diesem Ansatz steckt und wie er umgesetzt werden kann, dazu bald mehr im zweiten Teil!


28.05.21

1
2
3
4
5
6
 
 
Copyright