Quelle: Biodiversity Heritage Library

UX ist keine Rocket Science

Maurice Hensdiek
Jun 25, 2020 · 9 min read

Warum das Meme vom ersten bemannten SpaceX-Dragon-Start rein gar nichts über die User Experience aussagt

Vor kurzem hat SpaceX einen historischen Meilenstein gesetzt, indem es als erstes privates Raumfahrtunternehmen Menschen in einer Kapsel zur Internationalen Raumstation schickte. Es ist verrückt und beeindruckend zugleich, mit anzusehen, wie scheinbar mühelos und sauber das Team um Elon Musk diesen Erfolg verbuchen konnte.

Fast ebenso beeindruckend war ein Meme, das im Nachgang im Internet seine Runden drehte. Auf diesem Bild waren die Cockpits der drei vermutlich bekanntesten bemannten Raketen zu sehen: Saturn V, Space Shuttle und Dragon2. Darauf soll nicht nur der Fortschritt in der Raumfahrttechnik, sondern auch im User Experience Design zu sehen sein.

Meme zum SpaceX Dragon2 Start (Quelle: UX Collective)

Der Fortschritt in der Raumfahrttechnik ist natürlich unbestreitbar, auch schon ganz unabhängig von den Fotos. Was mich allerdings stört, sind die irreführenden Kurzschlüsse in Sachen UX-Design, zu denen das Meme Anlass gegeben hat. Offenbar wird das cleane und aufgeräumte Cockpit der Dragon2-Rakete mit einer einfachen und durchdachten Steuerung der Rakete gleichgesetzt. Den vielfachen Äußerungen nach zu urteilen sei die User Experience der Dragon2 viel besser als die der Saturn-V-Rakete.

Hier ein paar Ausschnitte aus dem Netz:

Anonymisierte Beiträge zum Meme von Twitter und Medium

Ich finde diese Aussagen und Bildanordnung im Meme extrem irreführend, denn sie vermitteln ein völlig falsches Bild von User Experience oder Interface Design.

Da ich User Experience Designer und kein Fachmann für Raketentechnik bin, soll hier ein Hinweis auf die Unterschiede zwischen diesen Raketen genügen. Überspitzt gesagt: Während im Space Shuttle der User tatsächlich als Pilot zu verstehen ist, kann in der Dragon2 wohl maximal von Passagier oder Nutzlast die Rede sein. Es handelt sich hier also um zwei ziemlich unterschiedliche Szenarien.

Um mich aber nicht in Details über konkrete Raketen zu verlieren, behandele ich die Fälle hier mal nur abstrakt.

Beispiel 1: Ein Cockpit zur Raketensteuerung

Stellen wir uns ein Cockpit vor, in dem der Fokus auf der tatsächlichen Steuerung liegt. Versetzen wir uns nun in die Lage eines Piloten, der eine solche Rakete in einer schwer kontrollierbaren Umgebung navigieren muss. Selbst in Stresssituationen muss ein eindeutiges, sicheres und schnelles Handeln möglich sein. Hier ist es wichtig — unter Umständen sogar überlebenswichtig -, dass alle Zustände des Systems und alle Handlungsoptionen auf einen Blick zu sehen und letztere auch mit einem einzigen Handgriff erreichbar sind.

Klar, ein solches Cockpit würde auf den ersten Blick sehr unübersichtlich aussehen. Vor allem Kippschalter erscheinen uns, die wir die Bedienung von Alltagsgeräten mit Touchscreens gewöhnt sind, verstaubt und veraltet. Aber für ausgebildete Piloten können sie trotzdem ein optimales Arbeitsumfeld darstellen. Kippschalter etwa haben den unübertrefflichen Vorteil, dass sie einen von zwei klar unterscheidbaren Zuständen herstellen und so zu jeder Zeit — persistent — eindeutiges Feedback über diesen Zustand liefern. Umfangreiche und voneinander unabhängige Anzeigen wirken auf uns zwar überwältigend, bieten aber die unschätzbare Möglichkeit, stets alle wichtigen Daten im Blick zu halten. Genau dafür werden Piloten ausgebildet.

Um den enormen Vorteil von physischer gegenüber digitaler Steuerung zu erklären, kann man sich übrigens Fahrzeuge mit Touchscreens zur Multimedia-Steuerung vor Augen führen. Die Bedienung der Fahrzeugkonfigurationen während der Fahrt mittels eines Touchscreens ist deutlich schwieriger und fordert mehr Aufmerksamkeit, da man keine Knöpfe fühlen kann, es also kein haptisches Feedback gibt. Die Bedienung der Klimaanlage oder Lautstärkeregelung über physische Schalter hingegen kann jeder Fahrer nahezu blind tätigen.

Und obwohl einige moderne Autos ein ähnlich aufgeräumtes Cockpitbild vermittelt wie die Dragon2, so wird auch dort die zentrale Fahrzeug-Steuerung durch haptische Schnittstellen umgesetzt. Lenkrad und Gaspedal gibt es nach wie vor. Ein Touchscreen ist hierzu einfach nicht die richtige Schnittstelle.

Wir müssen uns an dieser Stelle aber auch die Frage stellen, ob wir an Raketen dieselben Anforderungen stellen sollten wie an Apps oder Alltagsgeräte. Muss eine Rakete für jeden Menschen sofort intuitiv bedienbar sein? Eher nicht. Muss sie so sicher sein wie maximal möglich? Definitiv! Die Ausbildung zum Piloten bietet genügend Zeit, um die Bedienung eines anspruchsvollen Interfaces zu erlernen, das nicht auf schnelle Erlernbarkeit, sondern auf sichere, robuste und schnelle Bedienbarkeit hin optimiert worden ist.

Beispiel 2: Das Cockpit als Informationspanel

Wenden wir uns nun einem anderen Beispiel zu, welches das andere der beiden Extrema verdeutlichen soll. Stellen wir uns eine moderne Rakete vor, die überhaupt nicht mehr in Echtzeit und von Menschenhand gesteuert werden muss. Ihr Cockpit wäre daher eher als eine Art Informationspanel zu verstehen.

Würde die optimale Gestaltung des User Interfaces in einem solchen Anwendungsfall anders ausfallen?

Man kann sich leicht vorstellen, dass in einem solchen Szenario die vielen direkt erreichbaren und robusten Bedienelemente weniger kritisch sind. Stattdessen könnten übersichtliche Anzeigen für ein bequemes Monitoring verschiedenster Zustände interessanter werden. Große Touchscreens scheinen für diese Situation durchaus angemessen. Eine Rakete aber ausschließlich über Touchscreens steuern zu wollen, ist extrem gefährlich und kann im Ernstfall tödlich enden. Denn virtuelle Tasten auf einer digitalen Anzeige bieten wenig haptisches Feedback und sind sehr störanfällig — schon ein Ausfall der Anzeigen könnte die Rakete unbedienbar machen!

Außerdem benötigen Touchscreens und digitale Interfaces immer mehr Aufmerksamkeit als physisch zu betätigende Schalter. Das wissen übrigens auch die Entwickler bei SpaceX. Bei genauem Hinsehen erkennt man, dass auch im Cockpit der Dragon2 auf solche haptischen Bedienelemente nicht ganz verzichtet wurde: unterhalb der Touchscreens sind einige physische Schalter und Regler zu erkennen.

Ich denke, es ist klar geworden: Die beiden Ausgangssituationen, die ich geschildert habe, sind grundverschieden und stellen somit auch grundverschiedene Anforderungen an die Gestaltung des Cockpits. Das sollte bei einer Beurteilung des User Interfaces berücksichtigt werden. Denn erst, wenn die Aufgaben klar sind, die ein Nutzer zu bewältigen hat, kann ich beurteilen, ob die Schnittstelle hierfür angemessen gestaltet ist.

Das heißt aber auch, dass der direkte Vergleich unterschiedlich gestalteter Schnittstellen nur dann überhaupt Sinn ergibt, wenn die damit zu erledigenden Aufgaben exakt dieselben sind. Das scheint aber bei den drei Raketen, die im Meme verglichen werden, nicht ganz der Fall zu sein. Wie genau nun die technischen Unterschiede zwischen den Raketen auch immer sein mögen: Sie sind auf den Bildern nicht mit abgebildet, doch ohne auf sie Bezug zu nehmen, ist ein sinnvoller Vergleich der Benutzerschnittstellen unmöglich. Man vergleicht dann nur Äpfel mit Birnen, denn für unterschiedliche Anforderungen braucht man selbstverständlich auch unterschiedliche Interaktionskonzepte.

Hat also wirklich, wie man aus den Kommentaren zum Meme schließen könnte, eine Weiterentwicklung der Bedienelemente — des UI — stattgefunden? Wie wir gesehen haben, können wir das unabhängig vom Nutzungskontext gar nicht beurteilen. Nichtsdestotrotz erweckt die Reduziertheit des Cockpits den Eindruck, dass die Bedienung einfacher geworden ist. Doch anstatt daraus zu folgern, dass die Bedienung einfacher geworden ist, weil die UI verbessert wurde, ist das genaue Gegenteil viel plausibler: Möglicherweise kann das UI überhaupt nur deswegen so reduziert daherkommen, weil die Bedienung der Rakete einfacher geworden ist.

Und genau hier vermittelt das Meme einen ganz falschen Eindruck. Natürlich hat sich die UX der Raketen nach und nach verbessert — aber sicher nicht wegen der übersichtlichen, aufgeräumten Cockpits! Es ist die technische Entwicklung, die eine Reise in den Weltraum möglich macht, ohne dass der Astronaut alles selbst in Echtzeit steuern muss. Der technische Fortschritt hat die Nutzungssituation für den Piloten völlig verändert.

Wir sehen: Die verbesserte UX ist in erster Linie auf die autonome Technologie zurückzuführen. Die cleanen Cockpits sind lediglich eine Folge daraus.

Ein Vergleich zwischen den Cockpits bietet sich höchstens an, um den Fortschritt der Raumfahrt insgesamt zu verdeutlichen — und keinesfalls irgendeinen Fortschritt in Sachen UI- oder UX-Design.

Bisher habe ich dargelegt,

  1. Warum ein übersichtliches und reduziertes Cockpit nicht zwingend ein gutes Cockpit ist
  2. Warum ein gutes UI nicht zwingend eine gute UX bedeutet (und umgekehrt).

Ich habe aber noch einen dritten Kritikpunkt:

Es ist absolut fatal, eine Aussage über die gesamte User Experience (oder auch nur die UI), anhand von unbewegten Bildern zu treffen! Hier liegt ein völlig unzureichendes Verständnis von User Experience vor.

Zunächst mal muss ich mir, um die UX unterschiedlicher Szenarien zu vergleichen, alle drei Szenarien und ihre besonderen Bedingungen getrennt voneinander anschauen. Nehmen wir einmal das Beispiel der Dragon2-Rakete, der von den Kommentatoren anhand eines Bildes eine überlegene User Experience nachgesagt wird. Kann ich die Angemessenheit der Gestaltung anhand einer Abbildung einiger Touchscreen-Oberflächen wirklich umfassend beurteilen? Nein. Aber warum nicht?

  1. Ich bin kein Astronaut und habe auch noch nie mit einem gesprochen. Ich weiß auch nicht, worauf es im Cockpit einer Rakete ankommt und kann mich in eine derartige außergewöhnliche Extremsituation versetzen. Wie kann ich beurteilen, wie die Erfahrung der Nutzergruppe in diesem Kontext sein wird, wenn ich selbst kaum Einblicke in die Erfahrungen dieser Nutzergruppe habe?
  2. Ein Bild ist statisch. Auf dem Bild ist nicht zu erkennen, wie sich das Interface verhält und wie die Interaktion geplant sind. Ich sehe lediglich drei Touchscreens. Wie kann man die UX anhand eines einzelnen Bildes beurteilen?
  3. Ich sehe nicht das Gesamt-System, dessen Teil der Nutzer ist. Um die UX zu beurteilen, muss ich die gesamte Umgebung kennen, die Einfluss auf den Nutzer hat und auf die der Nutzer seinerseits wiederum Einfluss nehmen kann — nicht nur die Touchscreens.
  4. Um ein Urteil über die UX zu fällen, muss ich alle möglichen Situationen der Astronauten in Betracht ziehen. Anhand dieser Anwendungsszenarien könnte man erkennen, ob die User Experience des Interfaces sich als brauchbar beweist.

Für ein realistisches UX-Review muss ich also mindestens diese vier Bereichen betrachten.

All diese Informationen fehlen in der Bilderreihe — eine sinnvolle Beurteilung der UX ist nicht möglich. Doch das Meme wurde viel geteilt — offenbar sind viele Menschen diesem Fehlschluss erlegen. Warum eigentlich?

Weshalb assoziieren wir eine Bedienung über Touchscreens mit der einfachen Steuerung einer Rakete, bis hin zu dem Gedanken, dass diese im wahrsten Sinne des Wortes “kinderleicht” wäre?

Eine mögliche Erklärung ist die:

Haptische Schalter gibt es bereits seit über hundert Jahren und waren somit auch das Bedienungselement der Wahl bei den ersten Mondraketen. Nun schritt die Entwicklung der Technik fort und es wurden im Cockpit des Space Shuttles auch umfangreich Kontrollmonitore verbaut.

Im Kontrast zu den ersten beiden Bildern scheint das Bild des Dragon2 Cockpits, dem Eindruck nach eine weitere Evolutionsstufe, die haptischen Schalter hinter sich gelassen zu haben. Der scheinbar logische und inhaltliche Aufbau der Bilderreihe zieht darauf ab, dass der Betrachter zu diesem Schluss kommt. Die Monitore befinden sich eindeutig im Vordergrund des dritten Bildes und vermitteln die Botschaft der schönen, modernen Technik und deren einfachen Bedienung. Die Tatsache, dass das Cockpit auch noch haptische Schalter besitzt, fällt bei oberflächlicher Betrachtung kaum auf.

Auch bei dem wohl meistgenutzten Alltagsgerät, unserem Smartphone, haben viele von uns den Übergang von einem Handy mit haptischer Tastatur hin zu einem Handy mit Touchscreen miterlebt und dessen Vorzüge kennengelernt. Eine ähnliche Entwicklung projizieren wir nun auch auf andere Bereiche, wie z. B. die Raumfahrt. Mit diesen Vorstellungen im Hinterkopf betrachten wir nun das Meme und sehen uns in der Annahme bestätigt: “Überall nur Touchscreens im Cockpit der Dragon2. Der Touchscreen ist das Interface mit der besten UX. Das merke ich ja auch an meinem Handy, welches sogar schon ein Kleinkind bedienen kann.”

Es ist also verständlich, wie man zu solchen Schlüssen kommen kann. Wir sollten uns nur klar machen, dass es sich hier um unbegründete Kurzschlüsse und falsche Übertragungen handelt.

Genau diese Assoziation führt in vielen Bereichen zu einer falschen Bewertung der Schnittstelle. Wieso ist der Touchscreen immer automatisch einem haptischen Schalter vorzuziehen? Nicht nur in der Raumfahrt gibt es zahlreiche Beispiele, wo Interaktion mit mehr Sorgfalt gestaltet werden muss. Als Designer sollte man sich nicht auf genau dieser IPhone-Assoziation ausruhen und zur “Appisierung” der Umwelt beitragen. Unsere Welt ist dreidimensional und das ist auch gut so.

Memes wie dieses, aber vor allem die falsche Interpretation dessen, was darauf zu sehen ist, tragen zu einem unzureichenden Verständnis von User Experience Design bei. Es ist wichtig, zu verstehen, dass es bei UX-Design nicht in erster Linie um schicke, cleane und modern aussehende Oberflächen geht, sondern um eine robuste, sinnvolle und ganzheitliche Gestaltung, der eine sehr gründliche Analyse der gesamten Situation mit all ihren Anforderungen vorhergehen muss.

Wir müssen davon ausgehen, dass die Nutzungsschnittstellen in allen drei Raketen genau ihren jeweiligen Anforderungen entsprechen — jedenfalls lässt sich alleine aus den Fotos keine Verbesserung in der Angemessenheit des UI-Designs ableiten. Und auch eine Weiterentwicklung der UX ist — bis auf den offensichtlichen Vorteil, dass die Raketen nicht mehr von Hand gesteuert werden müssen — ebenfalls nicht aus den Fotos allein ablesbar (SpaceX hat hierzu nebenbei ein Simulation, die die Experience besser erlebbar macht).

Schon zu Beginn der Raumfahrt haben sich Ingenieure und Wissenschaftler intensiv damit auseinandergesetzt, Astronauten sicher in den Weltraum zu bringen. Ich gehe davon aus, dass sowohl SpaceX als auch die NASA begriffen haben, dass es fatal enden kann, eine Rakete mit schlechter UX zu konstruieren.

Ohne jeden Zweifel zeigt das Meme jedoch den unglaublichen Fortschritt, den die Raumfahrt in den Letzten Jahren erlebt hat.

Danke, SpaceX, dass sich Raumfahrt wieder wie Science Fiction anfühlt!

Autoren Kooperation: Jonas Ludwig, Selina Schuler, Jan Fischer, Maurice Hensdiek