Oder – Wo Spracherkennung scheitert. Akzent, User-Interface und schlechte Benutzerführung.

Das positive Feedback auf mein zu letzt gepostetes Video treibt mich an, weitere Interessante Themen, die sarkastisch aufbereitet wurden, hier zur Diskussion zu stellen. Danke dafür liebe Community.

Das Video aus einem schottischen Aufzug, der „angeblich“ mit Spracherkennung funktioniert, ist ein Klassiker und sicher erheiternt. Der Film hat es schon zu über 1,5 Mio Betrachtern gebracht.

Aber was passiert hier eigentlich genau und was kann man aus diesem Beispiel lernen, um ggf. das eigene Projekt mit einem Sprachcomputer nicht zu einem solchen Desaster werden zu lassen?

Zum ersten ist der völlig freie Dialog mit der Maschine, hier der Fahrstuhl, sicher nicht der optimale Ansatz für die Interaktion in dieser Umgebung. Eine Erkennung von Personen z.B. durch einen Bewegungssensor, gefolgt von einer sprachlichen und visuellen Aufforderung zur Zieleingabe, würden es sicher einfacher gestalten und die beiden Herren so in die elfte Etage bringen.

Das Problem mit dem Akzent haben nicht nur die Schotten. In Deutschland würde ein solches System mit dem „richtigen“ Benutzer in Bayern, an der Nordsee, in Sachsen und auch in vielen anderen Gebieten genau so „gut“ bzw. schlecht funktionieren. Eine Maschine sollte daher den Benutzer im Vorfeld dazu motivieren, in der richtigen Sprache zu reden und zudem ein Alternative Bedienung parat halten.
Da ich gern die Diskussion anregen möchte, freue ich mich über weitere Aspekte die dieses Beispiel sicher zur Verfügung stellt. Also ran an die Tasten.

Für Gespräche zu diesem Thema stehe ich Ihnen gern in Berlin auf der Call Center World 2011 (Halle 1, Stand A11) und in Hannover auf der CeBIT 21011 (Halle 6 A16) zur Verfügung und freue mich auf Ihren Besuch.

 

X