1
2
3
4
5
6
DW/Ergosign/HSKL

Dieter Wallach, Professor für Human-Computer Interaktion und Usability Engineering an der Hochschule Kaiserslautern (HSKL), referiert regelmäßig in Fach- und Transfervorträgen zu aktuellen Entwicklungen im User Experience Design im Bereich Fahrsimulation. Einer seiner Schwerpunkte liegt dabei auf der automatisierten Durchführung modellbasierter Performanzanalysen für konkrete Anwendungsszenarien.

Im Kern arbeiten Dieter Wallach und sein mit dem Thema betrautes Team (Vladimir Albach und Sven Fackert) daran, eine Software zu entwickeln, die einen interaktiven Design-Prototypen so bedient, wie es ein menschlicher Proband in einem Nutzertest tun würde. 
Mit modellbasierter Evaluation in der hier vorgestellten Weise lassen sich somit Aussagen zur Bedieneffizienz von Nutzerschnittstellen auf der Basis eines kognitiven Modells von NutzerInnen treffen. Ein Vorteil hierbei ist, dass das Modell erlaubt, ein realistisches Lernverhalten potenzieller Nutzenden eines User Interface vom Novizen bis zum Experten zu simulieren. Daraus resultiert ein weiterer Vorteil: Durch die Verwendung solcher „kognitiver Crashtest-Dummies“ lässt sich der kostenmäßige Aufwand „klassischer“ nutzerbasierter Usability-Evaluationen deutlich reduzieren ohne Abstriche bei den Ergebnissen zur Bedieneffizienz machen zu müssen.
Der nachfolgende Übersichtsbeitrag basiert dabei einerseits auf der konzeptionellen und empirischen Arbeit von Sven Fackert (Ergosign GmbH) und Dieter Wallach (HSKL), die sich in mehreren Vorträgen und Konferenzpapieren niedergeschlagen hat; so beispielsweise ein Vortrag im Rahmen einer interdisziplinären Tagung am Hochleistungsrechenzentrum Stuttgart (HLRS) zum Thema gesellschaftlichen Auswirkungen von KI und der Algorithmisierung des Alltags (hier nochmal nachlesbar). 
Andererseits integriert dieses Forschungs- und Anwendungsthema auch den Bereich der Kognitiven Architektur ACT-R. ACT-R ist eine integrative Rahmenvorstellung, in der Annahmen zum menschlichen Gedächtnis und Lernen sowie zur Aufmerksamkeit, Wahrnehmung und Motorik miteinander verknüpft und in einem umfassenden Simulationssystem zur Anwendung kommen. Hier arbeiten insbesondere Vladimir Albach (HSKL und zuletzt Ergosign GmbH) und Dieter Wallach an konzeptionellen und empirischen Beiträgen, die hier ebenfalls nachgelesen werden können).

Das Interesse an den die Möglichkeiten modellbasierter Usability-Evaluationen basiert dabei, so Sven Fackert, auf der Tatsache, dass die Evaluation von Design-Prototypen gegenwärtig meist in Form von analytischen Verfahren erfolgt, wie Expertenreviews und heuristischen Analysen oder in Form von empirischen Usability-Tests, die versuchen, möglichst repräsentative Nutzer in ihre Verfahren einzubeziehen. Gleichwohl diese Verfahren ihre eminent wichtige Bedeutung haben, so sehr bleiben die Möglichkeiten einer dritten, bislang meist eher spärlich eingesetzten Kategorie zur Analyse von Design-Prototypen unterbelichtet: nämlich modellbasierte Evaluation. Dabei liegen, so Fackert und Wallach, die Vorteile dieses Vorgehens auf der Hand (siehe bereits weiter oben): entsprechende Modelle erlauben erstens, ein realistisches Lernverhalten potenzieller Nutzenden eines User Interface vom Novizen bis zum Experten zu simulieren. Daraus resultiert sodann zweitens, dass sich der kostenmäßige Aufwand „klassischer“ nutzerbasierter Usability-Evaluationen deutlich reduzieren lässt, ohne Abstriche bei den Ergebnissen zur Bedieneffizienz machen zu müssen. 

Weiter ist die Variabilität der Anwendbarkeit modellbasierter Evaluation ein Argument, welches das Team reizt. So können solche Modelle von Vorhersagen spezifischer Teilleistungen bis hin zu sehr komplexen Themen wie der Modellierung menschlichen Lernens reichen. Insbesondere die Situationen, in denen Nutzer unterschiedlicher Wissensniveaus und Routinegrade mit einem interaktiven System interagieren, interessieren die UX-Designer. Denn es sind gerade dies die Situationen, in denen auch mal Fehler passieren. So sind es also Fragen wie die, wie lange es dauert, ein neues Interface zu bedienen und welche Fehler dabei auftreten. Solche Fragestellungen lassen sich im Rahmen des predictive prototypings automatisiert und somit deutlich schneller untersuchen. Hierzu arbeiten Dieter Wallach und sein Team daran, modellbasierte Evaluation mittels eigener Software (Antetype P/M genannt) nahtlos in den Design-Prozess zu integrieren. 

Um die Software noch weiter zu validieren, arbeitet das Team daran, dem zu Grunde liegenden kognitiven Modell noch mehr allgemeines Wissen, z.B. über die Bedienung von Nutzerschnittstellen, bereitzustellen. Hierdurch bieten sich wieder viele fruchtbare Überschneidungen und Anknüpfungspunkte zur bereits o.g. ACT-R Entwicklung. Für Anfragen und Interessensbekundungen in diesem Bereich kann Dieter Wallach hier direkt kontaktiert werden.


17.08.20

1
2
3
4
5
6
 
 
Copyright