Ich bin seit jeher besessen von Benutzeroberflächen (UI). Ich erinnere mich, wie ich von der Schönheit von Compaq TabWorks begeistert war, während ich „The Incredible Machine“ spielte und auf dem Familiencomputer „Tears For Fears—Greatest Hits“ hörte.

Verurteile mich nicht – ich hörte „Mad World“ lange bevor Donny Darko und dieser gruselige Hase es taten. Wenn dir keine dieser Referenzen etwas sagt, liegt das wahrscheinlich daran, dass ich super alt bin. In den Worten von George Costanza: „Es liegt nicht an dir, es liegt an mir.“
Das ist eine weitere super alte Referenz, die du vielleicht nicht kennst. Weißt du was – vergiss das alles, lass uns weitermachen.
Ich habe mich wirklich für UI interessiert, als ich meinen eigenen Computer kaufte. Ich war bei der Küstenwache und hatte während der Grundausbildung viel Geld gespart (wenn man nicht einkaufen kann – weißt du – wegen Liegestützen und so). Ich wollte einen Chevy Cavalier kaufen (traurigerweise ist das kein Witz), aber mein Vater ermutigte mich stattdessen, in einen Computer zu investieren, also kaufte ich einen Compaq bei Office Depot, der mit Windows 98 kam. Außerdem kann man keinen Cavalier für 800 Dollar kaufen.
Windows 98
Ich habe unzählige Stunden damit verbracht, die Themes in Windows 98 zu ändern. Ich war fasziniert davon, wie die Fenster überlappten und wie sich die Icons und Schriftarten änderten; die Formen der Schaltflächen und die verschiedenen Farben. Der leichte Schatten, den jedes Fenster hatte, um es im Raum zu positionieren. Jedes Thema war besser als das vorherige!

Wenn ich nur gewusst hätte, wie viel besser die Dinge werden würden. Wenn ich nur von Windows XP gewusst hätte.
Windows XP
Gibt es Liebe auf den ersten Blick? Nein – sei nicht lächerlich. Liebe ist ein äußerst komplexer Teil der menschlichen Verfassung, der sich nur mit der Zeit durch lange Phasen des Kampfes und der dunklen Nacht der Seele manifestieren kann.
„Was ist Liebe? Baby, tu mir nicht weh. Tu mir nicht weh. Nicht mehr.“
— Haddaway, „What Is Love“
Aber der flatterhafte und grausame Cousin der Liebe, die Verliebtheit, existiert und ist fast ausschließlich auf den ersten Blick verfügbar. Ich war absolut verliebt in Windows XP.
Die Rundungen des Startmenüs. Die Menüanimationen. Ich konnte es stundenlang ansehen. Und das tat ich auch. Schockierende Tatsache – ich war sozial nicht gerade gefragt, also hatte ich viel Freizeit, um seltsame Dinge zu tun, wie ein Betriebssystem anzustarren.
Für diejenigen, die sich erinnern, war Windows XP extrem anpassbar. Praktisch jeder Teil des Betriebssystems konnte gehäutet oder thematisiert werden. Dies brachte viele UI-Hacking-Communitys und Drittanbieter-Tools wie Window Blinds von den netten Leuten bei Stardock hervor. Ich sehe dich, Stardock; der Norden erinnert sich.

Ich liebe UI
Ich könnte ewig über meine lange, langweilige und leicht beunruhigende Besessenheit von UI sprechen. Seltsamerweise bin ich weder Designer noch Künstler. Ich kann eine anständige UI bauen, aber du würdest mich nicht einstellen, um deine Website zu gestalten. Oder du würdest es tun, aber dein Name wäre „Burkes Mutter“.

Ich kann jedoch großartige UI zusammenstellen, wenn ich die Bausteine habe. Ich hatte das Glück, in meiner Karriere an einigen großartigen UI-Projekten zu arbeiten, darunter die Mitarbeit am Kendo UI-Projekt, als es zum ersten Mal gestartet wurde. Ich liebe Schaltflächen, Dropdown-Listen und Dialogfenster mit übertriebenen Animationen. Und ich kann diese Teile zu einer Anwendung zusammenfügen wie Thomas Kinkade. Ich bin der UI-Assembler des Lichts.
Aber als Benutzer beschäftigt mich in den letzten Jahren ein Gedanke immer wieder: Das beste Benutzererlebnis ist eigentlich gar keine Benutzeroberfläche.
UI ist ein notwendiges Übel
Der einzige Grund, warum eine UI überhaupt existiert, ist, dass Benutzer mit unseren Systemen interagieren können. Sie ist ein Mittelsmann. Sie ist eine abstrakte Kommunikationsschicht und die Konversation ist vorgefertigt. Der Benutzer und die UI können kommunizieren, aber nur innerhalb der speziell definierten Grenzen der Schnittstelle. Und so landen wir bei GLORREICHEN UX-Fehlern wie dem, der letzten Samstag Einwohner Hawaiis fälschlicherweise über einen bevorstehenden ballistischen Raketenangriff informierte.
Das ist der Bildschirm, der am Samstag den ballistischen Raketenalarm ausgelöst hat. Der Bediener klickte auf den Link PACOM (CDW) State Only. Der Übungslink ist derjenige, der angeklickt werden sollte. #Hawaii pic.twitter.com/lDVnqUmyHa
— Honolulu Civil Beat (@CivilBeat) 16. Januar 2018
Wir müssen antizipieren, wie der Benutzer denkt oder reagiert, und jeder ist anders. Gut gestaltete Systeme können uns dem Intuitiven nahe bringen. Ich bin immer noch ein Fan von Skeuomorphismus und „Sorry, not sorry“. Wenn ein 4-Jähriger ein iPad ohne Anleitung aufgreifen und benutzen kann, ist das eine Art Genie des UX.
Das gesagt, selbst eine perfekte UI wäre weniger als ideal. Das Ideal ist, gar keinen Mittelsmann zu haben. Keine Übersetzungsschicht. Historisch gesehen war das nicht möglich, weil wir nicht mit Computern „sprechen“ können.
Bis jetzt.
Verarbeitung natürlicher Sprache
Natural-Language Processing (NLP) ist das Feld der Informatik, das sich mit der Sprachinteraktion zwischen Menschen und Maschinen befasst. Das bekannteste Beispiel hierfür wäre der Amazon Echo, Siri, Cortana oder Google. Oder „OK Google.“ Oder wie auch immer du dieses Ding nennst.
Ich bin fest davon überzeugt, dass die Fähigkeit, über gesprochene Sprache mit einer KI zu kommunizieren, eine bessere Benutzerinteraktion ist als eine Schaltfläche – jedes Mal. Um dies zu belegen, möchte ich dir drei Beispiele geben, wie NLP eine UI vollständig ersetzen kann und das Ergebnis ein weitaus besseres Benutzererlebnis ist.
Beispiel A: Hey Siri, erinnere mich an…
Siri ist kein leuchtendes Beispiel für ein „besseres Benutzererlebnis“, aber eine Sache, die sie recht gut macht und die ich fast jeden Tag nutze, ist das Erstellen von Erinnerungen.
Es ist ein weitaus besseres Benutzererlebnis, „Hey Siri, erinnere mich morgen früh um 9 Uhr daran, meine Mutter anzurufen“ zu sagen, als dies zu tun…

- Öffne die App
- Tippe auf eine neue Zeile
- Tippe die Erinnerung ein
- Tippe auf das „i“
- Wähle das Datum
- Tippe auf „Fertig“
Egal wie schön die Erinnerungs-App ist, sie wird nie das UX übertreffen, Siri einfach zu sagen, es zu tun.
Nun, das kommt mit dem Haftungsausschluss „wenn es funktioniert“. Siri geht oft einfach zum Mittagessen oder unterbricht mich auf halbem Weg, was zu einer sinnlosen Erinnerung ohne Fälligkeitsdatum führt. Wenn NLP schiefgeht, geht es tendenziell SEHR schief. Es ist auch unglaublich nervig, wie jeder, der jemals Siri benutzt hat, bestätigen kann.
Dies ist ein einfaches Beispiel, und eines, das du vielleicht bereits kennst oder nicht sehr beeindruckt bist. Fair genug; hier ist ein weiteres: Hausautomatisierung.
Beispiel B: Hausautomatisierung
Ich habe einige der GE Z-Wave-Schalter in meinem Haus installiert. Ich verbinde sie alle mit einem Vera Controller. Wenn du dich nicht sehr mit Hausautomatisierung auskennst, wisse einfach, dass die Schalter sich mit dem Controller verbinden und der Controller die Schnittstelle bereitstellt, mit der du sie steuern kannst, was mir ermöglicht, die Lichter ein- und auszuschalten mit meinem Handy.
Die Vera-App zur Steuerung von Lichtern ist ziemlich gut. Sie ist nicht perfekt, aber das UX ist anständig. Wenn ich zum Beispiel das Bürolicht einschalten wollte, würde ich es mit der App so tun.

Ich sagte, es sei „ziemlich gut.“ Nicht perfekt. Ich sage nur, ich habe Schlimmeres gesehen.
Ehrlich gesagt, wenn ich ein Licht ein- oder ausschalten möchte, möchte ich nicht stundenlang durch eine App auf meinem Handy suchen, um es zu tun. Das ist nicht großartig. Ich möchte das Licht anhaben und ich möchte es jetzt anhaben. Das Ein- und Ausschalten von Lichtern über dein Handy ist ein Rückschritt in der Benutzerfreundlichkeit im Vergleich zu, ich weiß nicht, einem LICHTSCHALTER?
Was großartig ist, ist, meinem Echo zu sagen, es zu tun.
Ich kann, für jeden Schalter in meinem Haus, sagen…
„Alexa, schalte das Bürolicht ein/aus“
Oder das Schlafzimmer, oder das Esszimmer oder was auch immer. Vera hat eine Alexa-Fähigkeit, die es Alexa ermöglicht, direkt mit dem Controller zu kommunizieren, und weil Alexa NLP verwendet, muss ich die Phrase nicht genau richtig sagen, um sie zum Laufen zu bringen. Es funktioniert einfach.
Nun gibt es eine leichte Verzögerung zwischen dem Zeitpunkt, an dem ich den Befehl beende, und dem Zeitpunkt, an dem Alexa antwortet. Ich nehme an, das ist die Latenz, um zum Server zu gehen, die Fähigkeit auszuführen, zurück in meinen Controller zu rufen, das Licht auszuschalten, zurück zur Fähigkeit in der Cloud zu gehen und dann wieder in mein Haus zu gelangen.
Ich werde ehrlich sein und sagen, dass ich manchmal irritiert bin, dass es ein oder zwei Sekunden dauert, bis das Licht angeht. Sicher – blah blah blah technische Gründe, aber das ist mir egal. Ich möchte, dass das Licht an ist, und ich möchte es JETZT anhaben. Wie Veruca Salt.
Ich habe auch Nest-Thermostate, die ich mit dem Echo steuern kann, und ich muss sagen, dass die Möglichkeit, dein Thermostat zu regeln, ohne aus dem Bett aufstehen zu müssen, jetzt, wo ich es laut gesagt habe, irgendwie erbärmlich ist. Egal. Das mache ich nie.
NLP muss sich nicht auf gesprochene Sprache beschränken. Es stellt sich heraus, dass die Interaktion mit Computern über Text IMMER noch besser ist als Knöpfe und Schieberegler.
Dafür gebe ich dir Beispiel C.
Beispiel C: Digit
Digit ist ein bemerkenswerter kleiner Dienst, den ich über eine Twitter-Anzeige entdeckt habe. Du hast dich schon immer gefragt, wer auf Twitter-Anzeigen klickt, und jetzt weißt du es.
Ich wünschte, mehr Leute würden von Digit wissen. Das Grundprinzip hinter dem Dienst ist, dass er jeden Monat automatisch Geld für dich spart, indem er maschinelles Lernen auf deine Ausgabengewohnheiten anwendet, um herauszufinden, wo er Geld sparen kann, ohne dich in den roten Zahlen zu lassen.
Das Bemerkenswerteste an Digit ist, dass du nicht über eine App damit interagierst. Alles geschieht per Text; und ich liebe es.
Digit schickt mir jeden Tag eine SMS mit einem Update über meinen Kontostand. Das ist ein schöner täglicher Überblick über mein aktuelles Guthaben.

Wenn ich wissen möchte, wie viel Digit für mich gespart hat, frage ich einfach, wie viel auf meinem Sparkonto ist. Aber wieder, weil Digit NLP verwendet, kann ich es fragen, wie ich will. Ich kann sogar nur das Wort „Sparen“ verwenden und es funktioniert trotzdem. Es ist fast so, als würde ich mit einer echten Person interagieren.

Wenn ich nun einen Teil davon wieder aufs Sparkonto überweisen möchte, weil ich mehr Lego kaufen möchte und meine Frau sagt, dass Lego ein „Wunsch“ und kein „Bedürfnis“ ist und dass wir für die „Universität“ unserer Kinder sparen sollten, kann ich Digit einfach bitten, etwas Geld zu überweisen. Wieder muss ich nicht genau wissen, was ich sagen soll. Ich kann mit Digit interagieren, bis ich das richtige Ergebnis erhalte. Selbst wenn ich mitten in einer Transaktion etwas falsch mache, kann Digit das handhaben. Das ist im Grunde ich, der ein Formular per Text ausfüllt, ohne den Horror des „Formulare ausfüllen“.

Nachdem ich Digit so lange per Text benutzt habe, möchte ich jetzt mit allem per Text interagieren. Manchmal ist es sogar besser, als laut sprechen zu müssen, besonders wenn man sich in einer Situation befindet, in der man nicht einfach einem Roboter etwas zurufen kann oder man sich nicht die Mühe machen will zu sprechen. Solche Tage habe ich auch.
Ist UX, wie wir sie kennen, tot?
Nein. Nachdrücklich nein. NLP ist kein Ersatz für alle Benutzeroberflächen. Zum Beispiel möchte ich nicht mit meinem Handy texten, um ihm zu sagen, dass es ein Foto machen soll. Oder mit meiner Stimme durch Fotos scrollen. Es ist jedoch eine neue Denkweise darüber, wie wir unsere Benutzeroberflächen gestalten, jetzt, da uns diese leistungsstarke neue Eingabeform zur Verfügung steht.
Frage dich also, bevor du die nächste Form oder den nächsten Warenkorb gestaltest: Brauche ich diese UI wirklich noch? Mit hoher Wahrscheinlichkeit nicht, dank NLP und KI/ML.
Erste Schritte mit NLP
NLP ist viel einfacher zu erstellen und zu entwickeln, als Sie vielleicht denken. Wir haben in Bezug auf Entwicklertools große Fortschritte gemacht. Sie können sich das LUIS-Projekt von Azure ansehen, das ein GUI-Tool zum Erstellen und Trainieren von NLP-Modellen bietet.
Es ist kostenlos und wirklich einfach.
Hier ist ein Video von mir, in dem ich eine KI baue, die verstehen kann, wenn ich sie bitte, Lichter ein- oder auszuschalten, indem ich den Lichtstatus und den Raumort aus einer Interaktion auswähle.
„Und so landen wir bei GLORREICHEN UX-Fehlern wie dem, der letzten Samstag Einwohner Hawaiis fälschlicherweise über einen bevorstehenden ballistischen Raketenangriff informierte.“ Das ist falsch. Das war die frühe Spekulation, aber es stellte sich heraus, dass der Benutzer ehrlich glaubte, es gäbe eine bevorstehende Rakete und drückte den Knopf, den er beabsichtigt hatte. Ich empfehle dringend eine Überarbeitung dieses Artikels.
Das habe ich in den Nachrichten gesehen. Fairerweise muss ich sagen, als ich den Artikel schrieb, war das noch der Fall und es war EIN SO GUTES Beispiel. Kannst du dir einen anderen „glorreichen UX“-Fehler vorstellen, auf den ich verweisen kann?
Wenn du keinen anderen „glorreichen UX-Fehler“ finden kannst, solltest du wahrscheinlich überdenken, ob das, was du geschrieben hast, Sinn ergibt.
UI ist eine Möglichkeit zu kommunizieren und ich finde Tasten und Text viel charmanter, als gezwungen zu sein, mit einer Maschine zu sprechen und diese zurückzusprechen (oder nicht, wenn man nicht die richtigen Dinge sagt).
Das ist fast so, als würdest du das Telefon bitten, E-Mail zu ersetzen. Das ist nicht der Fall. Wir sprechen über verschiedene Themen. Und nein, UI ist definitiv nicht die beste Benutzererfahrung, denn selbst Sprachbefehle sind eine Art UI, ohne dass sie dir wie eine Schaltfläche gesagt werden.
Wir haben Sprichwörter wie „Ein Bild sagt mehr als 1000 Worte“ und das ist immer noch ein valider Punkt. Informationen über Ton zu transportieren ist eine der schlechtesten Arten und eine der schwierigsten für den Menschen.
Das bedeutet, sich auf menschliches Design zu konzentrieren. Das beste Werkzeug für den Fall finden. Also ja, du magst Dinge wie Restaurantreservierungen per Sprache machen, aber andererseits hast du vor langer Zeit telefoniert und mit einer Person gesprochen, die dir wahrscheinlich wertvolleres Feedback gegeben hat und Fragen stellen konnte.
Kommt darauf an, das richtige Werkzeug für den Job zu wählen.
Es gibt Probleme, wie du gezeigt hast, die mit NLP viel einfacher bewältigt werden können. Meiner Meinung nach ist die Verwendung von Audio oder Sprache zur Informationsübermittlung meist viel langsamer als die Verwendung einer visuellen Darstellung. Ein Beispiel wären Voiceover oder Screenreader.
Ich denke, du hast in manchen Fällen recht und in anderen falsch. Zum ersten Mal ist die Verwendung von Sprache jetzt schneller und die Abdeckung dafür wächst. Während es also für einige Interaktionen immer noch langsamer ist – wie die von dir erwähnte –, ist es viel schneller, wenn ich sage: „Spiele ‚Owl City‘ auf Pandora“ (ja, ich höre Owl City. Ich weiß.) anstatt mein Handy herauszuholen, die App zu öffnen und den Sender zu finden. Es gibt viele andere Beispiele wie die in diesem Artikel.
Aber dein Punkt ist berechtigt – wir sind noch nicht ganz am Ziel, und ich denke, für viele Dinge werden wir es nie sein. Wir werden nie ohne UI sein. Wir brauchen sie nur vielleicht nicht mehr, je nach Anwendungsfall.
Mit Kindern abzuhängen, während sie Alexa benutzen, ist aufschlussreich, und ich komme mit dem Gefühl heraus, das genaue Gegenteil von dem, was du hast – bei all der „es funktioniert einfach“-Propaganda sehe ich Kinder, die all die gleichen UI-Management-Dinge lernen müssen wie GUIs.
Reale UX-Handhabung von einem 6-Jährigen
„Alexa, spiele Bad Romance“
„Spielt eine Vorschau von Lady Gagas Bad Romance“
[Genervt] „Alexa STOP. Alexa spiele Bad Romance von Spotify“
„Spielt Bad Romance von Lady Gaga auf Spotify“
Schau dir all die verrückten UI-Elemente an: „Alexa“ „Spielen“ „Stopp“ „Spotify“ [Künstlername] das Konzept von „Vorschau“ – wie unterscheiden sich diese von einem X zum Schließen oder dem Konzept, offline zu sein, usw. Es geht immer noch darum, ein System zu lernen. Je „intelligenter“ ein System erscheint, desto einschränkender ist es höchstwahrscheinlich – immer unter der Annahme, dass du nur chinesisches Essen isst (wenn du aus China kommst), oder dass du hetero bist, oder weiß, oder ein Mann – und was diese Dinge bedeuten – oder dass ein Bezahlmodell eine Selbstverständlichkeit ist.
Ja, Sprachbefehle sind auch eine UI (in diesem Fall besteht die Schnittstelle aus einem Mikrofon und Boxen) und die UX kann schrecklich sein (meintest du x? Kannst du die Frage wiederholen? Neue CD von Lady Gaga bestellen... neinoooo alexa nooooo Bestellung stornieren...)
Wir haben definitiv noch Boden gutzumachen bei NLP, aber die Technologie entwickelt sich rasend schnell weiter. Denke nur daran, wie viel besser sie jetzt ist als vor, sagen wir, 5 Jahren.
Du hast aber recht – wenn NLP als Schnittstelle versagt, ist das SUPER frustrierend. In vielen Fällen ist es sogar frustrierender als ein traditionelles Schnittstellenversagen.
Ich würde argumentieren, dass Sprachbefehle eine Form von UI sind, aber sie sind manchmal nicht von einer GUI begleitet.
Ich benutze gerne meine Stimme für einige Dinge, besonders wenn ich keine Eile habe. Aber ich bevorzuge in den meisten Fällen immer noch eine gute GUI aufgrund von Geschwindigkeit und Datenschutz. Niemand möchte mir auf dem Bus beim Reden zuhören, und ich möchte auch nicht, dass andere Leute hören, welche Erinnerungen ich einstelle oder mein Kontostand und so weiter.
Wie du aber sagtest, kann Sprache in einigen Anwendungsfällen nützlich sein. Ich benutze sie meistens, wenn ich zu Hause bin und lange Artikel schreibe, es ist viel einfacher, sie per Sprache zu tun und dann kleine Fehler später von Hand zu bearbeiten.
Übrigens, ich habe diesen Kommentar mit Google Voice auf meinem Handy geschrieben. :)
Ha! Die letzte Zeile ist ein Homerun. Hut ab.
Ich bin überrascht, keine Erwähnung von Golden Krishna und seiner „no interface“-Arbeit hier zu sehen.
Ich hatte noch nie von Golden Krishna gehört. Werde ich mir jetzt aber ansehen!
Sehr interessanter Artikel. Der Aufstieg von NLP ist sicherlich ein Gamechanger. Aber es gibt noch eine riesige Aufgabe, auch das Design von Voice-UI weiterzuentwickeln.
Das mit dem Thermostat, ich habe laut gelacht, wirklich. Guter Schreibstil.
Danke, Jennifer! Dieses Thermostat ist die beste Entscheidung, die ich je getroffen habe. ⭐️⭐️⭐️⭐️⭐️
Dieser Artikel scheint UI mit visueller Benutzeroberfläche zu verwechseln. Sprachsteuerung… ist eine Benutzeroberfläche. Texten auch. Wenn du argumentieren willst, dass das beste UX keine UI ist, dann würdest du Systeme wollen, die deine Wünsche basierend auf Umgebungsdaten erfüllen, die keine Benutzerinteraktion erfordern.
Beispiele wären, dass dein Hausautomatisierungssystem deinen Standort und die Zeit kennt, sodass es, wenn es feststellt, dass es 17 Uhr ist und dein Handy-GPS ihm sagt, dass du den Standort verlässt, der als Arbeit bekannt ist, weiß, dass es die Heizung einschalten, eine Reihe von Lichtern einschalten und wenn du dich dem Garagentor näherst, sollte es sich öffnen und wenn du zum Haus gehst, sollte es sich entriegeln. Ja, du musst den Standort „Arbeit“ und die anderen Regeln im Voraus definieren, aber sobald du das getan hast, geschieht die Aktivität ohne Benutzerinteraktion. Ähnlich, anstatt einem Sprachassistenten zu sagen, dass er die Zimmerbeleuchtung einschalten soll, sollten sie angehen, wenn du den Schwellenwert überschreitest, basierend auf Sensordaten, und ausgehen, wenn du gehst (vorausgesetzt, du bist der Einzige dort).
Ja – idealerweise ja. Aber wir sind noch weit davon entfernt, also ist Sprache der aktuelle Durchbruch. Ich verwende den Begriff „UI“, um zu bedeuten, was er traditionell bedeutet, nicht semantisch.
Kann ich die Person sein, die sagt: „Aber verbale Eingabe ist immer noch eine Benutzeroberfläche“ und dann „Keine UI wäre nur möglich, wenn Wir die Maschinen wären“?
[Geht los, um ein Konzeptalbum namens We Were the Machines zu schreiben]
Das kannst du, du wärst nur nicht die erste Person, die das sagt.
Klar hätte ich das klarstellen sollen. Obwohl Klarheit nicht meine Stärke ist. Viel Erfolg mit dem Album!
So sind einige Leute mit einem Bug in ihrem Haus gelandet. Alexa, erzähl Amazon bitte alles, worüber wir reden… Unglaublich. Wie wäre es einfach, einen Schalter zu benutzen, um das Licht anzuschalten?
Das kannst du immer noch tun. Aber wenn du auf der Couch sitzt und Wiederholungen von SNL schaust und gerade eine ganze große Pizza allein verschlungen hast, wird „aufstehen und das Licht ausschalten“ das Schwerste sein, was du an dem Tag tust. Nicht, dass ich etwas über dieses spezielle Szenario wüsste.
Schöner informativer Artikel. Ich würde jedoch argumentieren, dass Sprache immer noch eine Schnittstelle ist. Einfach, weil es eine Aufgabe ist, die ein Benutzer ausführen muss, um mit einem System zu interagieren. Es gibt jedoch „oberflächenlose“ Systeme, autonome Systeme. Was gibt es Besseres, als mit Ihrem Thermostat zu sprechen? Wenn es Sie „kennt“ und sich ändert, ohne dass Sie es überhaupt verlangen. Auf diese Weise sind Sie von der Schnittstelle befreit und es gibt 0 Verzögerung!
Natürlich sind diese Arten von Systemen meist unmöglich zu erstellen, aber wir sehen sie täglich in Teilen. Nehmen Sie zum Beispiel Formularfüller, Anwendungen, die Ihre Profilinformationen automatisch ausfüllen. Erspart Ihnen die mühsame Aufgabe, Ihre Adresse und andere Informationen manuell einzugeben.
Google hat ein System, das Sie informiert, dass es Zeit ist, ins Auto zu steigen, damit Sie nicht zu spät zu einem Meeting kommen, weil es heute zusätzlichen Verkehr gibt. Es hilft Ihnen also nicht nur beim Nachschlagen und Verfolgen von Verkehrsinformationen, sondern weiß sogar, dass Sie daran erinnert werden möchten, obwohl Sie keine Erinnerung einstellen.
tl;dr;
Sprache ist großartig, automatisch ist besser!
NLP (wenn es perfekt funktioniert) fühlt sich für wiederkehrende allgemeine Aufgaben sehr gut an. Aber es gibt zwei Einschränkungen
1) Ich habe das Gefühl, dass es für den Benutzer eine echte Lernkurve geben kann und keine gute UX-Entdeckung bietet. Aber vielleicht wird dieses Problem mit der Zeit, wenn diese zum Standard werden, nicht mehr bestehen
2) Es kann langsamer sein als eine GUI oder eine „physische“ Benutzeroberfläche. Der Lichtschalter ist das beste Beispiel dafür. Aber jede Ein-Klick-Aktion fühlt sich für mich effizienter an.
NLP ist sicherlich ein wichtiger Teil der Zukunft der Benutzeroberfläche und wird in vielen Fällen ein effizienteres Werkzeug sein. Ich denke jedoch, dass die eigentliche Benutzeroberflächen-Umwälzung KI-gesteuerte Ein-/Zwei-Schaltflächen-Schnittstellen sein werden, bei denen den Benutzern nur die richtigen Aktionen im richtigen Moment präsentiert werden. Es ist im Grunde das, was wir bereits bei der Gestaltung von Benutzeroberflächen im Voraus versuchen, aber dynamischer und präziser. Es hat eigene Probleme und ist noch nicht einfach zu implementieren, aber ich denke, es kann das beste Benutzeroberflächen-Werkzeug werden.
Toller Artikel!
Danke, dass Sie sich die Zeit genommen haben, dies zu schreiben.
„Der einzige Grund, warum eine Benutzeroberfläche überhaupt existiert, ist, damit Benutzer mit unseren Systemen interagieren können. Sie ist ein Vermittler.“
Vielleicht kann man das von allen Kommunikationsformen sagen.
„Es ist eine abstrahierte Kommunikationsschicht und das Gespräch ist vorgefertigt.“
Ich glaube nicht, dass das richtig ist. Wie Sie bereits angemerkt haben, gibt es bereits Variationen in Ihrer Interaktion mit der $ Management-App. Und sehen Sie, was Computer aus dem Schachspiel gemacht haben. In vielen Bereichen sind sie bereits weniger vorgefertigt als Menschen.
Dinge entwickeln sich. Wie wäre es mit einer NLP-HTML-Eigenschaft für das Web-UI-Design?
Zuerst dachte ich, das Zusammendrücken meines Handys, um den Google Assistant zu starten, sei seltsam – aber es ist tatsächlich erstaunlich! Es ermöglicht mir, mit dem Handy zu interagieren, ohne den Bildschirm *überhaupt* berühren zu müssen. Hut ab vor demjenigen, der sich das ausgedacht hat.
„Mein Handy zusammendrücken“ ist mit Abstand die beste Beschreibung, die je gemacht wurde
Ich stimme früheren Kommentatoren zu – Sprache ist eine Benutzeroberfläche und derzeit keine besonders gute, außer für extrem alltägliche Aufgaben, hauptsächlich aufgrund der Einschränkungen von KI und NLP. Wir haben zum Beispiel bei der Arbeit mit der Entwicklung dieses Büro-Begleittools experimentiert, das es uns ermöglichen sollte, all die langweiligen Verwaltungsaufgaben über Slack oder per Sprache zu erledigen, anstatt sie über den Google Kalender oder unser HR-System zu erledigen. Wir stellten jedoch fest, dass die Technologie noch nicht reif genug ist, um diese Komplexität zu bewältigen, ohne erhebliche Zeit für die Erstellung und Konfiguration aufzuwenden. Wir könnten Alexa-Skills für jede Aktion erstellen (Meeting buchen, Urlaub beantragen usw.), aber sobald Sie versucht haben, diese Aktionen zu einem einzigen „Produkt“ zusammenzufassen, begann das Ganze überall zu versagen, ganz zu schweigen von den vielen unbeabsichtigten Fehlern auf der NLP-Seite.
Aus der UX-Perspektive sind diese Arten von Schnittstellen ebenfalls knifflig, weil
1. Sie nehmen den Benutzern die Kontrolle und übertragen diese Macht an die KI, was bedeutet, dass die KI übersetzt, was Sie sagen/schreiben, und in eine Aktion umwandelt, anstatt dass Sie einen Knopf drücken. In mindestens zehn Prozent der Fälle (zumindest bei uns) übersetzte es das, was wir wollten, in die falschen Aktionen oder konnte unsere Anfrage gar nicht übersetzen. Jede Interaktion ist also ein Würfelspiel und führt zu längeren und oft frustrierenderen Zeiten zur Ausführung von Aufgaben im Vergleich zu herkömmlichen Benutzeroberflächen.
Jeder schreibt und spricht anders. Es gibt so viele Arten zu schreiben und zu sprechen wie es Menschen gibt. Deshalb ist es sehr schwer, NLP-gesteuerte Schnittstellen für alles andere als alltägliche Aufgaben zu erstellen. Es kann auch zu Ausgrenzung und Schwierigkeiten bei Benutzern führen, die anders sind als das, auf dem Ihr NLP trainiert wurde. Zum Beispiel kann eine finnische Person mit starkem Akzent in Englisch von aktuellen NLPs möglicherweise nicht richtig verstanden werden.
Schließlich, laut der UX-Forschung, die wir intern durchgeführt haben, mögen die Leute es wirklich nicht, Sprachschnittstellen außerhalb ihres Hauses oder anderer persönlicher Räume zu verwenden. Das ergibt Sinn. Selbst wenn wir telefonieren, verlassen wir öffentliche Räume und suchen uns einen privaten. Daher mag ein Formular oder ein Warenkorb, der sprachgesteuert ist, in Ordnung sein, wenn Sie zu Hause sind (obwohl ich den Nutzen dafür im Moment bezweifle), aber es ist ein absolutes No-Go, wenn Sie es nicht sind („Bitte flüstern Sie Ihre Kreditkartennummer nach dem Ton“). Was, wissen Sie, eine wirklich schlechte UX für die meisten E-Commerce-Shops und ihre Kunden ist.
TL;DR
Sprach- und Textschnittstellen, die von NLP angetrieben werden, mögen interessant sein, aber die Technologie ist für alles andere als die alltäglichsten Aufgaben noch nicht ausgereift, und Ihre Benutzer bevorzugen möglicherweise trotzdem herkömmliche Benutzeroberflächen.
Wissen Sie, dass der Screenshot der „Dragon UI“ unter der Beschreibung der Windows XP-Benutzeroberfläche überhaupt nicht von XP stammt, oder?
Oh, Mist! Gut aufgepasst. 100 Punkte für Gryffindor.
Hallo! Ehemaliger Digit Product Designer
Einige großartige Beispiele und Punkte.
Erstens – Ich freue mich sehr zu hören, dass Sie Digit gerne nutzen und dass die konversationelle Benutzeroberfläche für Sie gut funktioniert.
Zweitens – es mag Sie überraschen zu erfahren, dass über den Großteil der Existenz von Digit keine NLP/KI/ML die Interaktionen angetrieben hat. Die meisten waren hartkodierte Syntax. Das ist tatsächlich der Grund, warum eines der letzten Projekte, an denen ich dort gearbeitet habe, ein Redesign der App war https://blog.digit.co/
Ich werde sagen, dass für Leute, die Digit für das absolute Minimum (Rainy Day Savings) nutzen, das oberflächenlose Design ziemlich gut funktioniert hat. Aber es war außerordentlich schwierig, neue Funktionen und Funktionalitäten zu entwerfen, wenn alles, was wir taten, durch diese Brille betrachtet werden musste. Oft fühlte es sich an wie das Neuerfinden des Rads. Selbst Alexa hat eine begleitende App auf Basis einer „traditionellen Benutzeroberfläche“. Mehr könnte man dazu sagen, aber das meiste wurde bereits gesagt. Echtes NLP könnte Produkte wie Digit besser funktionieren lassen, als sie es tun, aber es ist meiner Meinung nach immer noch kein Allheilmittel.
Verdammt Trevor! Du ruinierst meine Argumentation! :)
Das ist interessant zu hören. Ich kann mir vorstellen, wie frustrierend es wäre, alles für alle Situationen hart zu codieren. Das klingt nicht so, als würde das skalieren, oder? Glauben Sie, es wäre besser gewesen, wenn es auf etwas wie einem Bot-Framework / einer NLP-Plattform basiert hätte? Der primäre Nutzen von NLP ist, dass Sie Intents und Entities hinzufügen, ein Modell trainieren und Ihr Bot dann dadurch wesentlich intelligenter wird. Der Bot muss immer noch wissen, was er mit diesen Informationen machen soll (was Code erfordert), aber nur die Aktion muss programmiert werden, nicht die Schnittstelle.
Re: „Eine Alexa hat eine begleitende traditionelle Benutzeroberflächen-App“. Ja, und ich ziehe es wirklich vor, sie nie zu benutzen. Aber vielleicht bin ich das nur. Es scheint, dass wir uns im Moment vielleicht in einem optimalen Bereich befinden, in dem eine Mischung aus traditionellen und konversationellen Benutzeroberflächen die beste Erfahrung bietet.
Ja, es hätte mit echtem NLP mit ziemlicher Sicherheit besser funktioniert. Gegen Ende meiner Zeit dort begannen wir tatsächlich eine fertige Lösung zu verwenden, aber sie war immer noch etwas unfertig. Wiederum, für einfache Interaktionen ist es normalerweise in Ordnung. Probleme traten auf, wenn komplexere (oder sensiblere) Interaktionen erforderlich waren. Insbesondere weil die Leute erwarten, dass diese Dinge in diesem Kontext reibungslos ablaufen – während in einem traditionellen UI-Kontext die Erwartung eigentlich gar nicht vorhanden ist.
Nun, auf jeden Fall, danke, dass Sie eine konversationelle Benutzeroberfläche pioniert haben, die mir sehr am Herzen lag. Es war meine erste Einführung in einen Dienst, mit dem ich lieber per Text interagiert hätte. Das ist meiner Meinung nach eine ziemliche Leistung.
Bitte berücksichtigen Sie die Barrierefreiheit und diejenigen, die möglicherweise nicht sprechen können (entweder dauerhaft oder vorübergehend, z. B. in einer Bibliothek oder aufgrund von Kehlkopfentzündung), diejenigen, die die Sprache der Benutzeroberfläche nicht sprechen, diejenigen, die mit Akzent sprechen usw. Das Anbieten von Optionen ist immer eine gute Idee. Danke.
Definitiv. Dies ist ein weiterer Grund, warum herkömmliche Benutzeroberflächen immer bestehen bleiben werden. Genauso wie die herkömmliche Benutzeroberfläche sehbehinderte Menschen benachteiligen kann, versagt NLP auch bei der Berücksichtigung aller Benutzer. Ich hätte das in meiner Schlussfolgerung wahrscheinlich erwähnen sollen, da Barrierefreiheit ein Hauptanliegen ist.
Die unglaubliche Maschine und Tabworks, wundervolle Erinnerungen an eine einfachere Zeit
Ja! Was ist mit Lode Runner? Können Sie die Nostalgie spüren?
Gloriales UX-Versagen = einfach. Schauen Sie sich den Flug Apollo 8 an. Einige Informationen in diesem Artikel: https://www.wired.com/2015/10/margaret-hamilton-nasa-apollo/