Interaktion zwischen Mensch und Maschine – was steckt dahinter?

 In Die Technologie

 

Digitale Sprachassistenten wie Alexa oder Siri gehören mittlerweile als fester Bestandteil zu vielen Haushalten. Für viele andere sind die Systeme allerdings bis heute ein Rätsel, dem sie nicht trauen. Aber wie funktionieren die Maschinen eigentlich und warum sind sie heute kaum noch wegzudenken?

Die künstliche Intelligenz und ihre Anfänge

Bereits 1956 wurde in Dartmouth die erste Künstliche Intelligenz entwickelt. Zahlreiche Forscher und IT-Experten schlossen sich zusammen, da sie sich sicher waren, dass Denken keine rein menschliche Eigenschaft sein kann. Das Ergebnis dieses Programms war das erste funktionierende KI-Programm mit dem Namen LOGIC THEORIST, welches mittels Symbolen und einer eigens entworfenen Programmiersprache handelte. Erst Mitte der 70er-Jahre entwickelte sich die künstliche Intelligenz aus dem theoretischen in den praktischen Bereich. Zur Kontrolle und Optimierung geschaffene Systeme fungierten als Experten, um menschliche Fehler zu verhindern und Sicherheit zu gewährleisten. Diese Phase funktionierte zwar nicht fehlerfrei, bildete allerdings die Grundlage für die Erfindung zahlreicher Robotik-Systeme. (vgl. Manhart 2018)

Der Beginn des digitalen Zeitalters

Heute sind digitale Komponenten aus den meisten Haushalten nicht wegzudenken. Besonders die Kommunikation der Menschen ist seit den 90er-Jahren zunehmend digitaler geworden und hat sich von direktem und analogem Informationsaustausch entfernt. Auch wenn mittlerweile fast jeder bereits ein Smartphone besitzt, sollen jetzt auch das Zuhause, das Büro und das Auto smart werden. Auf diesem Grundgedanken basieren heute eine Vielzahl unterschiedlich entwickelter Assistenzsysteme, die per Sprachsteuerung funktionieren und Befehle ausführen. Verbinden lassen sich die Geräte meist mit dem Smartphone. So wird eine vollständige digitale Verknüpfung gewährleistet und möglichst viele Daten ermittelt.

Umwandlung von Informationen in Text durch NLP

Die gesprochenen Befehle werden meist durch ein Signalwort aufgenommen, durch dessen Schallwellen sich das System automatisch aktiviert. Ab diesem Zeitpunkt ist der Sprachassistent aufnahmefähig und nimmt den Befehl entgegen. Dieser wird dabei über das Gerät in der entsprechenden Cloud gespeichert und durch den Natural-Language-Processing-Prozess in Text umgewandelt. Innerhalb eines Sekundenbruchteils werden die aufgenommenen Informationen vom System analysiert und ausgewertet. Die Auswertung der Information wird im Anschluss über die Lautsprecher des Assistenzsystems an den Nutzer mitgeteilt oder entsprechend ausgeführt. (vgl. Wölk 2017)

Weiterlernen über die Cloud und Machine Learning

Wie jede künstliche Intelligenz entwickeln sich Sprachassistenzsysteme mittels Machine Learning weiter. Mithilfe programmierter Algorithmen werden Muster und Umstände ermittelt. Das System häuft durch die Speicherung und Auswertung der Befehle zahlreiche Informationen an, wodurch das erneute Nachfragen beim nächsten Befehl in der Regel ausbleiben kann. Umso mehr Daten Sie Ihren Assistenzsystem dabei mitteilen, desto schneller entwickelt sich dieses weiter und unterstützt Sie mit zielgerichteteren Antworten. Umso häufiger Sie dabei auf bestimmte Befehle zurückgreifen, desto höher wird die vom System berechnete Wahrscheinlichkeit, dass es sich bei ähnlich klingenden Befehlen um dasselbe handelt. Künstliche Intelligenz lebt von Entwicklung und Optimierung und Sie profitieren vom zunehmenden „Wissen“ Ihres Systems. (vgl. Thomas 2018)

Künstliche Intelligenz basierend auf parametrisierten Anfragen

Ihre künstliche Intelligenz erweitert ihr Wissen über Sie als Person und Ihre Bedürfnisse. Die Maschine reagiert auf unterschiedliche Anfragen mit ein und demselben Inhalt, beispielsweise bei Nachfragen zur Tagestemperatur. Die erwarteten Formulierungen werden als Utterances bezeichnet und beschreiben die einprogrammierten Dopplungen, auf die das System die gleiche Antwort parat hat. Je spezifischer Ihre Sprachbefehle sind, desto schneller kann Ihr System weiterlernen. Jeder Skill Ihres Systems basiert auf unterschiedlichen Komponenten, die durch funktionales Programmieren zusammengesetzt werden. Diese entsprechen dem Interaction-Modell, auf dem die Auswertung der Informationen, aber auch die Ausführung der Befehle liegt. (vgl. Wölk 2017)

Zunehmende Entwicklung macht die KI besser

Ihr Sprachassistenzsystem lebt allerdings nicht nur von Ihren Informationen, sondern auch von einer gut programmierten Grundlage zur Weiterentwicklung. Unbegrenztes Potenzial wäre für normale Haushalte beispielsweise nicht angemessen, weshalb das Weiterlernen des Systems stets im programmierten Rahmen erfolgt. Im Beispiel von Alexa entwickelt Amazon viele der verbauten Komponenten selbst und verbessert diese mit der Zeit weiter. So arbeitet Amazon seit längerem an einem optimierten KI-Chip, der die Geräte schneller und leistungsstärker machen soll. (vgl. Thomas 2018)

So werden Alexa und Co. bei den Nutzern beliebt

Da die Systeme die Qualität Ihrer Ergebnisse mit zunehmender Anzahl an Befehlen verbessern, werden sie auch für viele Nutzer mit der Zeit immer wertvoller. Zu häufig baut sich dabei eine Informationsgrundlage auf, von der sich der Nutzer schlicht nicht mehr trennen kann. Umso länger dieser bereits die Dienste des KI-Systems in Anspruch nimmt, desto schwieriger wird für ihn ein Leben ohne digitaler Sprachassistenz. Google, Apple und Amazon arbeiten zudem daran, ihre Systeme immer menschlicher zu gestalten und ihnen Eigenschaften wie Witz, Schlagfertigkeit und Geduld einzuprogrammieren. Die Folgen einer derartigen Weiterentwicklung sind für den Nutzer enorm, da die Systeme durch solche Funktionen selbst den Humor ihrer Nutzer ermitteln können und auf diesen reagieren. (vgl. Wölk 2017)

Fazit

Sympathische Mitmenschen vermitteln schon immer eine gewisse Geborgenheit. Aber was ist, wenn diese Aufgabe durch digitale Sprachassistenten übernommen wird? Wo unterscheidet sich der Witz des besten Freundes noch vom einprogrammierten Witz von Alexa? Die Grenzen zwischen Technik und Realität nähern sich immer mehr an, wodurch sich Sprachassistenten zu multiplen Partnern entwickeln. Die vermeintliche Unterlegenheit, die den Nutzern durch fehlerhafte oder witzige Antworten der Systeme vermittelt wird, löst in ihm Glücksgefühle und Überlegenheit aus. Die psychologischen Tricks, auf die die Hersteller zurückgreifen, zeichnen sich durch enorme Tiefe und menschliche Beeinflussung aus. Wie Sie, als Nutzer, letztendlich auf derartige Beeinflussung reagieren, ist und bleibt Ihnen selbst überlassen.

Quellenverzeichnis

Manhart K. (2018): „KI und Machine Learning – Eine kleine Geschichte der Künstlichen Intelligenz“. URL: https://www.computerwoche.de/a/eine-kleine-geschichte-der-kuenstlichen-intelligenz,3330537,7[Stand: 15.12.2018]

Redaktion der IT-Times (2018): „Alexa: Was hinter der digitalen Sprachassistentin und dem Web-Analyse-Tool von Amazon steckt“. URL: https://www.it-times.de/news/alexa-was-hinter-der-digitalen-sprachassistentin-und-dem-web-analyse-tool-von-amazon-steckt-122914/[Stand: 15.12.2018]

Thomas C. (2018): „KI in der Spracherkennung: Alexa und Siri werden erwachsen“. URL: https://www.mobile-zeitgeist.com/ki-in-der-spracherkennung-alexa-und-siri-werden-erwachsen/[Stand: 15.12.2018]

Wölk J. (2017): „User-Interfaces für Sprachassistenten: Die Magie von Alexa erklärt“. URL: https://t3n.de/news/user-interfaces-fuer-sprachassistenten-831249/[Stand: 15.12.2018]

 

Recommended Posts
Comments
pingbacks / trackbacks
  • […] bereits in unserem Beitrag Interaktion zwischen Mensch und Maschine – was steckt dahinter? detailliert erklärt, basiert Voice Search auf Natural Language Processing (NLP), Machine Learning […]

Leave a Comment

Fragen oder Anmerkungen? Gerne und jederzeit!

Wir sind gerade nicht für Sie erreichbar. Aber Sie können uns eine eMail schicken und wir werden uns schnellstmöglich bei Ihnen melden.

Not readable? Change text. captcha txt
Vergleich Intelligente Lautsprecher