Nürnberg Digital Festival

Emotionale KI: Müssen Computer fühlen können?

7.7.2021, 19:11 Uhr
Digitale Alltagshelfer: Sprachassistenten, wie hier auf einem Smartphone, sollen uns das Leben erleichtern. Müssen sie deswegen auch unsere Gefühlslagen analysieren können?

Digitale Alltagshelfer: Sprachassistenten, wie hier auf einem Smartphone, sollen uns das Leben erleichtern. Müssen sie deswegen auch unsere Gefühlslagen analysieren können? © Foto: Alexander Heinl/dpa

Künstliche Intelligenz (KI) ist in unserem Alltag längst angekommen, wir interagieren ständig mit kleinen Computern, sei es das Smartphone, die Smartwatch, der Sprachassistent oder der Chat-Bot. Sie spielen unsere Lieblingsmusik, sagen uns das Wetter an oder führen uns durch das Servicemenü an den geeigneten Mitarbeiter. Bislang ist es Alexa, Siri oder dem Chat-Bot egal, wie wir uns fühlen. Doch was ist, wenn sie auf unsere Emotionen reagieren könnten? Was ist, wenn Computer an unserer Stimmlage oder Mimik erkennen würden, ob wir wütend, traurig oder enthusiastisch sind?

Die Technologie "Affective Computing", hat das Ziel, Mensch-Computer-Interaktionen empathischer zu machen. Die Computer sollen nicht mehr nur die expliziten Signale des Menschen, wie Touch-Gesten, Clicks, Texte oder den Inhalt eines Sprachkommandos verarbeiten können, sondern auch die emotionalen Signale des Nutzers verstehen können.


KI hilft Nürnberger Versicherung bei Erkennung von Betrugsversuchen


Alexander Hahn ist Professor für Marketing an der Technischen Hochschule Nürnberg. Seine Forschung fokussiert sich vor allem auf die Digitale Empathie, Digitale User Experience, sprich der Nutzererlebnis und Affective Computing.

"Wenn man an Chatbots oder Sprachassistenten denkt, dann sind das keine wirklich angenehmen Begegnungen, weil unsere Emotionen, die wir dem Computer mittels Sprache mitteilen, nicht in die Interaktionen einfließen", so Hahn. "Das führt dazu, dass wir Künstliche Intelligenz nie als intelligent auf der Ebene eines Menschen betrachten werden, wenn es nicht diese emotionale Empathie gibt, dass sich die Computer in die Perspektive des Nutzers reindenken können."

Computer sollen also künftig, auf unsere emotionalen Bedürfnisse eingehen können. In diesem Bereich arbeiten bereits Experten aus der Informatik, Medizin, Marketing, Psychologie und Kognitionswissenschaften interdisziplinär zusammen, um psychophysiologische Signale und Aktionen menschlicher Nutzer zu erfassen. Die Einsatzbereiche sind so vielfältig wie unterschiedlich.

Beschäftigt sich intensiv mit Emotionalität in der KI: Alexander Hahn.

Beschäftigt sich intensiv mit Emotionalität in der KI: Alexander Hahn.

"Wir können Emotionen ja über unterschiedliche Signale aussteuern", sagt Alexander Hahn. Mimik, Stimmfrequenz, Herzfrequenz und Gestik können die Gefühlslage eines Nutzers, einer Nutzerin widerspiegeln, "dabei gibt es biologische Signale, die interkulturell gültig sind. Diese typischen Signale verstehen wir Menschen untereinander und das kann man auch den Computern beibringen", so Hahn. Die Basisemotionen, wie Wut, Fröhlichkeit, Ekel, Traurigkeit, Furcht und Überraschung sind für intelligente Programme bereits erkennbar und werden als Grundbasis zur Weiterentwicklung der Digitalen Empathie herangezogen.


Cyborgs: Kann die Technik Menschen verbessern?


Großkonzerne wie Apple, Amazon oder Google beschäftigen sich schon seit Jahren mit Affective Computing. 2016 übernahm der Technologie-Riese Apple beispielsweise das Start-Up Emotient, das darauf spezialisiert ist, Emotionen am Gesichtsausdruck zu erkennen.

Vor allem Händler könnten so ihre Produkte und Leistungen künftig passgenau an die Bedürfnisse ihrer Kundinnen und Kunden zuschneiden. Mit Hilfe von Affective Computing könnten sie messen, wie Kunden auf ihre Produkte reagieren. Bewerten sie es positiv oder negativ? Aber auch Ärzte könnten bei ihren Patientinnen und Patienten Schmerzen erkennen, die diese verbal nicht ausdrücken könnten. Hahn nennt ein Beispiel: "Es können Wearables angeboten werden, die Personen, die an Depression erkrankt sind, den Weg zum Arzt oder Therapeuten vereinfachen. Das ist vor allem dann sinnvoll, wenn sich die Betroffenen in der Vergangenheit nicht überwinden konnten, Unterstützung zu holen." In Notfällen könnte bei Hotline-Anrufen durch die Erkennung von Emotionen Suizid-Hilfe gewährleistet und im besten Falle Menschenleben gerettet werden.

Doch was passiert mit den ganzen Daten? "Wie mit jedem Aspekt der Digitalisierung müssen wir uns intensiv mit den Risiken und dem Nutzen der Technologie auseinandersetzen. Es gilt, nicht alles aufgrund Privatsphäre-Bedenken zu verbieten", so Hahn. Die Nutzung der Daten sollte aus Nutzersicht also immer kontext-abhängig designed werden, sprich, für jeden Anwendungsbereich sollte genau abgewogen werden: Wer bekommt die Daten? Wie werden sie übertragen? Wie werden sie gespeichert?

Hahn ist sich sicher, dass in den kommenden Jahren bei der Entwicklung von neuen Produkten und Dienstleistungen Affective Computing eine immer größere Rolle spielen wird. In der Automobilbranche sei Deutschland bislang am weitesten. "Ein selbstfahrendes Auto muss in Zukunft den Zustand des Fahrers noch besser einschätzen können, vor allem in punkto Müdigkeit", sagt er. So kann das selbstfahrende Auto prüfen, ob der Fahrer rechtzeitig in einer kritischen Situation noch das Lenkrad übernehmen könnte. Es sind aber auch viele weitere Anwendungsfälle möglich: Das Infotainment-System passt Musik und Fahrweise auf die Stimmung der Fahrenden an oder es werden Routen vorgeschlagen die den Fahrer weniger stressen.

Die Weiterentwicklung künstlicher Intelligenz läuft auf Hochtouren mit einem Ziel: den Menschen besser zu verstehen lernen.


Die Nürnberger Nachrichten sind Medienpartner des Nürnberg Digital Festivals vom 9. bis 19. Juli. Alle Infos und das Programm gibt es unter nuernberg.digital

Keine Kommentare