Alexa, Siri und Google Home haben ein UX Problem

Theoretisch kann ich Siri sagen, dass es “Äpfel” zu meiner Liste “Einkauf” in der App “Things” hinzufügen soll. Von dieser Möglichkeit erfuhr ich, weil es vor Monaten in den Release Notes von Things stand und ich zu den 2 % der Nutzer gehöre, die diese tatsächlich durchlesen.

Das vergaß ich kurz darauf allerdings wieder und erinnerte mich erst letzte Woche daran, als ich mit zwei vollen Händen in der Küche stand und tatsächlich nicht vergessen wollte Äpfel zu kaufen. Siri konnte mir allerdings nicht helfen, weil mir die Worte fehlten. Ich kannte die magische Reihenfolge der richtigen Worte nicht, die erforderlich gewesen wären, Siri davon zu überzeugen zu tun, was ich von ihr wollte.

Später schlug ich sogar nach, sprach die richtigen Worte mehrfach und in verschiedenen Aussprachen in mein deutschsprachiges Siri und es schaffte einfach nicht den Namen der App richtig zu verstehen. Tings? Sings? Auf jeden Fall nicht Things.

Audioassistenten werden uns mittlerweile seit Jahren als die große Zukunft verkauft, aber keiner von ihnen ist nutzerfreundlich. Für visuelle Software haben wir den Dreh raus, wir bauen Tutorials, Onboardings und haben Tricks und Kniffe um Nutzer dorthin zu leiten, wo wir denken, dass sie sein wollen. Wenn sie sich verlaufen gibt es Möglichkeiten sie auf den Pfad der UX-Tugend zurückzuholen und es gibt Interaction-Regeln an die man sich als Nutzer, aber auch Designer halten kann.

Audioassistenten haben nichts. Einfach gar nichts. Man kauft sie, man hat sie, man ist auf sich allein gestellt und darf mühselig herausfinden, was alles geht und wenn was nicht funktioniert, ist man aufgeschmissen.

Die externen Geräte, Google Home und Alexa, erfordern eine App, die einen durch die initiale Einrichtung des Systems führen. Verbinden mit dem Wifi und so. Das war’s. Danach hat man innerhalb der jeweiligen App noch eine Liste von Sachen, die man mal testen kann, von denen man dann vier testet, die App schließt und alles schnell vergisst.

Und schon hat man da seine futuristische Röhre stehen und fragt sie manchmal nach dem Wetter, macht mit ihr das Licht an und aus (ganz cool) und weiß, dass manchmal der richtige Song gespielt wird, wenn man verschämt, aber voller Vorfreude “Spiele ‘Du bist mein Stern’” in den Raum murmelt.

Das ist auch alles relativ cool, zerbricht aber, sobald man iiirgendwas probiert, was komplexer ist. Apps, mit einem Interface, zeigen dem Nutzer relativ genau, was möglich ist. Kein Eingabefeld für eine Aktion, die man durchführen möchte? Entweder das Interface ist unübersichtlich, oder diese Funktion ist nicht da.

Wenn ich allerdings meinem Google Home, meiner Alexa oder Siri folgendes sage, fällt jeder dieser Assistenten aus allen Clouds: “Hey, mach mal das Licht im Büro, Wohnzimmer und Flur aus!”.

Geht nicht. Keine Chance. Ich bekomme irgendeine Form von “Sorry, das kann ich nicht.”.

Was aber geht:
“Hey, mach mal das Licht im Büro aus.”
“Hey, mach mal das Licht im Wohnzimmer aus.”
“Hey, mach mal das Licht im Flur aus.”

Genial. Eine hervorragende User Experience. Es wäre schneller in jeden dieser Räume zu gehen und die Glühbirnen manuell aus ihren Fassungen zu drehen.

Ich erwarte nicht mal, dass die Assistenten “schon” Auflistungen dieser Art verstehen können. Ich will nur, dass sie mir das Gefühl geben theoretisch zu verstehen, was ich von ihnen will. “Sorry Marcel, ich kann noch nicht mehrere Lampen gleichzeitig ansprechen, bitte versuch es einzeln” wäre etwas, mit dem ich was anfangen kann. Aber für meine Assistenten sind diese Geräte unsichtbar, bis ich explizit immer und immer wieder ihre Namen erwähne. Einzeln.

Audioassistenten brauchen Onboardings, Tutorials, Fehlermeldungen, Retention-Systeme und eine Art des Debuggings für Poweruser. Wir haben mit Audioassistenten ein völlig neues Benutzungskonzept eingeführt und tun so, als wären die damit direkt für die breite Masse perfektioniert, als würden sie funktionierten. Das machte man vorher noch nie so. Jedes neue Interface brauchte Stützräder für Nutzer aus der normalen Welt, die das erste Mal mit ihnen in Berührung kamen. Für Leute, die keine Release Notes lesen. Für Leute, die keine 20 Minuten investieren um herauszufinden, wie sie Äpfel in ihrer Lieblingsapp auf eine Liste schreiben können.

Bevor wir das nicht hinbekommen und diese Stützräder anbauen, können wir weiterhin darauf warten, dass die Assistenten auf magische Art einfach alles perfekt verstehen werden, aber der Weg dahin wird für den Nutzer unangenehm steinig und ich wette, dass wir auf der Reise einige verlieren werden.

Für Kritik, Getrolle und Lob bin ich auf Twitter erreichbar. Für Benachrichtigungen bei neuen Beiträgen, kann man mir ebenfalls dort folgen. 👋