Blog

Voice User Interface (VUI)

Wann können Voice User Interfaces (VUI) sinnvoll eingesetzt werden?

Voice User Interface – eine kurze Definition

 

In Anlehnung an das überall bekannte GUI (Graphical User Interface) hat sich der Begriff VUI (Voice User Interface) abgeleitet. Über die „stimmliche Benutzerschnittstelle“ können Nutzer ihre Maschinen mit Hilfe der Sprache bedienen. Ebenso bedeutet es, dass die Maschine dem Nutzer verbal antworten kann.

 

Maschinen mit Voice User Interfaces findet man aktuell ganz prominent als sogenannte Sprachassistenten Alexa (Amazon), Siri (Apple), OK Google (Google Assistant & Home), Bixby & Viv (Samsung), Cortana (Windows), Watson (IBM) und Jarvis (Facebook).

Aber im Grunde gibt es Voice User Interfaces schon sehr viel länger: Service-Hotlines, Navigationen, usw. – das Neue daran ist, dass die Spracheingabe sich in den letzten Jahren wesentlich verbessert hat und die Sprachassistenten jetzt den Weg ins Zuhause schaffen.

Für mich als UX-Konzepter eröffnet sich eine neue Dimension in der Nutzerinteraktion

 

Wie auch bei der Konzeption von Bestellstrecken, Websites und Intranets stellen wir den Nutzer in den Mittelpunkt und beantworten die Fragen „Wer ist die Zielgruppe?“ und „Welches Problem soll gelöst bzw. welches Bedürfnis soll bedient werden?“.

Wir fragen uns, in welcher Situation kann gesprochene Sprache helfen und intuitiv funktionieren? Welches Bedürfnis kann verbal besser oder schneller ausgedrückt werden, als mit anderen Interaktionsmöglichkeiten (Klicken, Schreiben, Tasten).

Ebenso fragen wir uns, in welcher Situation es sinnvoller, bequemer und erlebnisreicher ist, einem Nutzer eine verbale Rückmeldung zu geben, als sie auf einem Display anzuzeigen.

In welchen Nutzungssituationen überzeugt die Voice Schnittstelle?

 

Bei der Entscheidung, ab wann etwas als sinnvoll bewertet werden kann, spielt der Zeitpunkt der Nutzung eine große Rolle. Ebenso unter welchen Bedingungen die Nutzung stattfindet.

 

Ganz allgemein kann man sagen: Immer wenn Nutzer „alle Hände voll zu tun haben“, ist es sinnvoll eine Voice-Sprachsteuerung zu verwenden:

  • Beim Autofahren muss man sich konzentrieren, lenken und schalten.
  • Beim Fahrradfahren muss man lenken, bremsen, sich festhalten.
  • Auch beim Kochen sind die Hände am Rühren, Schnippeln, Kneten, usw.
  • Oder auch beim Basteln, Bauen oder Reparieren haben die Hände allerhand zu tun.

 

Ebenso macht es während des Bewegens (z.B. Laufen) Sinn, die Sprache als Eingabe oder Ausgabe zu verwenden. Die Hände sind womöglich frei, aber die Sicht auf ein Display ist beschränkt. Der Blick nach vorn sollte Vorrang haben. Sicher hat jeder von uns schon mal beim Spazierengehen durch Starren und Tippen auf’s Smartphone einen Unfall riskiert – natürlich nur fast. 😉

 

Apropos Blick – Sowohl Voice Input (Spracheingabe) als auch Voice Output (Sprachausgabe) bieten sich an, wenn sich Nutzer auf andere Aktivitäten konzentrieren müssen. Damit möchte ich mich erneut auf die Situationen beim Autofahren, Reparieren und ähnliche beziehen.

 

Es kann aber auch einfach die Bequemlichkeit sein, die Nutzer von der Sprachsteuerung überzeugen:

  • Ist es nicht schön zu Hause auf dem Sofa zu liegen und einfach in den Raum zu rufen „Radio an“, „Licht aus“, „Nächster Sender“?
  • Auch sind Suchanfragen oder lange Texte schneller gesprochen, als geschrieben – vor allem auf Smartphones mit den kleinen Tastaturen. Statistiken zeigen, dass in den USA bereits 20% der Suchanfragen gesprochen werden. Eine Prognose von comScore besagt, dass im Jahr 2020 bereits 50% der Suchanfragen über Sprache erfolgt.
  • Ist eine Sprache einfach zu sprechen aber sehr schwierig zu schreiben, ist es auch sinnvoll Voice Inputs anzubieten.

 

Technische Abhängigkeiten erfordern ebenso die Sprachsteuerung.

Ganz offensichtlich ist eine Sprachausgabe sinnvoll, wenn der Nutzer kein Display oder keine sonstigen Interaktionsmöglichkeiten zur Verfügung hat, z.B. bei den Devices Alexa & Co.

Wann sind VUI gefragt?

Zusammenfassend kann man sagen, Voice User Interfaces sind dann gefordert, wenn die anderen Sinne wie Sehen und Tasten bereits belegt sind und der Nutzer trotzdem einen Wunsch hat oder eine Aufgabe erledigen möchte.

Wann überzeugt die Sprachsteuerung noch nicht?

 

Die oben aufgeführten Situationen zeigen, dass Nutzer von Voice User Interfaces profitieren können. Aber es gibt auch Anwendungsfälle, bei denen es nicht zutrifft.

Wenn das Bedürfnis sehr komplex ist und mit mehreren Fragen oder Aussagen aufeinander aufbaut, wird es schwierig für Sprachassistenten, die Menge zu erfassen und die Logik dahinter zu verstehen. Noch!

Auch wenn die Äußerung des Wunsches schwer zu beschreiben ist, ist es sinnvoller komplexe Dinge über andere Oberflächen, wie z.B. Konfiguratoren/Formulare, zu bedienen.

 

 

Sinnvolle Szenarien für VUI

 

Für Voice User Interfaces bestehen bereits einige sinnvolle und spaßige Szenarien. Die „App-Stores“ für die Voice-Anwendungen der Sprachassistenten füllen sich von Tag zu Tag. Hier ein Auszug:

Entertainment/Sport

▪ Spiele, wie z.B. „Gehirnjogging“

▪ Musik (Spotify & Co.), Radio, Podcast, Hörbuch abspielen

▪ Trainieren mit einem Personal Trainer (Trainings, Zwischenergebnisse, …)

▪ Teilnahme an Live-Events z.B. Konzerte

Autonavigation

▪ Navigation

▪ Ziel eingeben

Klare und wiederkehrende Aufgaben

▪ Nach etwas suchen

▪ Übersetzungen

▪ Timer stellen

▪ Neues ToDo einstellen (ToDo-Liste, Einkaufsliste)

▪ Neuen Termin einstellen (Kalender)

▪ Smart Home bedienen (Licht, Rollos, Heizung)

▪ Taxi bestellen

Shopping

▪ Essen bestellen

▪ Typische Haushaltswaren bestellen

Mitteilungen

▪ Nachrichten des Tages

▪ Berichterstattung Events, Sportereignisse, …

▪ Eingehende Anrufe

▪ Terminerinnerung

▪ Bestellbestätigungen

▪ Reiseinformationen (Bahn, Flugzeug, …)

▪ Verkehrslage

▪ Wettervorhersage

▪ Top-Empfehlungen

▪ Aktueller Kontostand

Anleitungen

▪ Benutzerhandbuch

▪ Rezepte

Hier ein gutes Beispiel der Marke Stubbs BBQ

 

Die Marke hat im Alexa Skill die eigene Persönlichkeit reingebracht und bietet passende Rezepte an.

VUI im Geschäftsumfeld

 

Oben genannte Beispiele sind noch stark auf Privatnutzer fokussiert.

Aber auch im Geschäftsumfeld/B2B-Bereich gibt es sinnvolle Szenarien zum Einsatz von Voice User Interfaces. Hier ein paar Ideen und Beispiele:

 

Für Mitarbeiter

  • Firmeninterne Podcasts hören
  • Meetings buchen
  • Reportings/Web Analytics aufrufen
  • Briefing-Dokumente vorlesen lassen, letztes Protokoll, Marktdaten, … (Text-to-speech)
  • E-Mail-Assistent (Speech-to-text)
  • Mitarbeitermotivation (bei Erreichen von Meilensteinen, Zwischenständen, …)
  • Wissensmanagement

 

Für Geschäftskunden

  • Bestellungen aufgeben
  • Beratung und Preisvergleich abrufen
  • Während Produktnutzung Feedback geben oder Kundenservice nutzen

Welchen aktuellen Herausforderungen stellen wir uns in der Konzeption?

Nutzer müssen mediale Voice-Kompetenz erwerben

 

Nutzer haben zu Beginn des Gebrauchs keine Ahnung, was die Sprachassistenten leisten können. Der digitale Assistent bzw. die einzelne Anwendung hat die Aufgabe, die Möglichkeiten am Anfang klar zu stellen. Hierbei muss darauf geachtet werden, dass Instruktionen kurz gefasst sind, da Nutzer tendenziell eine kurze Aufmerksamkeitsspanne besitzen. Die Erklärungen und Hinweise müssen daher gut überlegt und strukturiert wiedergegeben werden.

Während der Konzeption gilt es immer zu überlegen, wo dem Nutzer proaktiv weitere Interaktionsmöglichkeiten im Konversationspfad mitgeteilt werden und an welcher Stelle bzw. ab welcher Nutzungsdauer Instruktionen eingespart werden können. In einer Tagebuchstudie von Serviceplan hat sich gezeigt, dass Führung und Hilfestellungen in digitalen Sprachassistenzen sehr positiv aufgenommen werden.

 

Fallstricke der menschlichen Sprache

 

Bei grafischen Oberflächen können wir den Fokus der Nutzer ganz gut über Interaktionselemente wie Call-to-Actions, Links und Sliderelemente steuern. Erfolgt die Interaktion aber über Sprache, steigt die Unvorhersehbarkeit. Wie spricht der Nutzer? Welche Wörter nutzt er, um eine gewisse Interaktion zu steuern? Denn Nutzer sprechen in ihrer Alltagssprache. Wir müssen in der Konzeption also pro Interaktion viel mehr Trigger (Worte, Sätze, Verbindungen) voraussehen, um die Sprache der jeweiligen Nutzer abzufangen und der richtigen Aktion zuzuordnen.

 

 

Kontext der Nutzung muss einbezogen werden

 

Wir kennen das – wenn bei einem Gespräch einer anfängt zu flüstern, flüstert der Gesprächspartner auch. Vermutlich geht es dann gerade um persönliche oder geheime Informationen. Digitale Sprachassistenten können diesen Kontext aktuell noch nicht erkennen und geben Informationen in der eingestellten Klingelton-Lautstärke wieder. Fatal!

Es ist wichtig, dass Eingabemethoden auch gewechselt werden können. Weiß zum Beispiel das Smartphone, dass ein Nutzer an seinem Schreibtisch sitzt, kann es die Option zum Wechsel der Eingabemethode zur Tastatur anbieten. Wenn ein Nutzer aber mit angeschlossenen Kopfhörern durch die Öffentlichkeit spaziert, ist die Sprachausgabe sicher.

 

Fazit

 

Wie wir sehen, gibt es zahlreiche sinnvolle Szenarien für Voice User Interfaces. Tatsächlich gibt es Sprachdialogsysteme schon einige Jahre (Hotlines, Televoting, Navigatoren, text-to-speech) – aber durch Amazon Alexa & Co. werden die digitalen Sprachassistenten erst richtig in Szene gesetzt und kommen direkt nach Hause ins persönliche Umfeld und erleichtern das Leben.

 

Noch werden die Sprachfunktionen überwiegend privat verwendet. Laut einer Umfrage von CreativeStrategies werden sie aktuell zu 39% zu Hause und zu 51% im Auto genutzt. Die Verwendung in der Öffentlichkeit (6%) oder am Arbeitsplatz (1,3%) ist derzeit sehr gering. Doch auch das wird sich in Zukunft ändern, damit auch das Berufsleben von Sprachassistenten profitieren wird. Die Nutzung von Sprachassistenten verändert bereits jetzt das Such- und Navigationsverhalten der Nutzer. Sprache wird also auch SEO-relevant!

 

Das Potential ist längst nicht ausgeschöpft – wir stehen hier erst am Anfang bevor digitale Sprachassistenten nicht mehr wegzudenken sind. Das große Ziel ist es, den Nutzern eine natürliche Interaktion mit den verschiedensten Devices zu ermöglichen.

 

 

 

Coole Infos, cooles Projekt – aber wie funktioniert denn die Konzeption eines Voice UIs? Das erfahren Sie in einem folgenden Artikel „Konzeption eines Voice User Interfaces“.

Wo sehen Sie noch Potenziale für VUIs? Ich freue mich auf interessante Kommentare!



Keine Kommentare

Hinterlassen Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.