STRATEGIE INNOVATION

I feel you: Kann eine KI empathisch sein?

ZUR ÜBERSICHT

Sprechen wir über eines meiner liebsten Hobbys: Fernsehen (don’t judge me).

Ich habe kürzlich auf Amazon Prime die Sci-Fi-Serie »Extant« angeschaut. Die Astronautin Molly Woods, gespielt von Halle Berry, kehrt nach einer Einzelmission im All auf die futuristische Welt zurück. Ihr Mann John arbeitet in einem Forschungslabor, das humanoide Roboter entwickelt, so genannte Humanics. Aus dem Wunsch heraus, Mutter zu sein, stimmte Molly schon vor ihrer Mission zu, den ersten Humanic-Prototypen zu »adoptieren«. Dieser Prototyp namens Ethan erscheint wie ein ganz normaler Schuljunge, sieht aus wie ein Mensch. Molly und John behandeln ihn wie ihren leiblichen Sohn, damit er aus normalen, menschlichen Erfahrungen lernt, sich in allen Situationen wie ein Mensch zu verhalten. Anfangs fällt es Ethan schwer, das nicht immer rationale Verhalten seiner Umwelt nachzuvollziehen und auf menschliche Art darauf zu reagieren.

Achtung, Spoiler: Im Verlauf der Serie entwickeln die Humanics sich immer weiter und sind nur noch durch ihre übermenschlichen Fähigkeiten von den echten Menschen zu unterscheiden – sie nutzen ihre Kenntnisse der menschlichen Emotionen dazu, ihre Schöpfer zu manipulieren.

Während ich so auf meinem Sofa saß und die Handlung von »Extant« verfolgte, kamen in mir immer wieder dieselben Fragen auf: Können wir irgendwann wirklich Roboter entwickeln, die so täuschend echt sind? Können künstliche Intelligenzen lernen, wie Menschen zu agieren und zu reagieren? Kann ein Programm Empathie empfinden oder diese zumindest glaubwürdig vortäuschen, wenn es mit genügend Fallbeispielen gefüttert wurde?

Der Fortschritt lässt sich nicht verleugnen

Wir wissen bereits, dass sich im Bereich KI einiges tut. Da gibt es zum Beispiel Sophia, die asiatische Roboter-Lady, die bereits seit 2017 saudi-arabische Staatsbürgerin ist. Sie kann bestimmte Fragen beantworten, einfache Gespräche führen und imitiert sogar die menschliche Mimik und Gestik. Laut Hersteller Hanson Robotics kann Sophias KI-Software die Mimik ihres Gesprächspartners erfassen und die emotionalen sowie inhaltlichen Daten der Konversation erfassen, um einen realistischen Dialog aufzubauen. So überzeugend wie die Humanics in »Extant« ist ihr Auftritt selbstverständlich (noch) nicht – ich persönlich fand die Interviews mit Sophia eher unheimlich. Durch ihren durchsichtigen Hinterkopf sieht man die Maschinen-Bestandteile arbeiten, während sie auf die Fragen der Journalisten antwortet. Ihre Augen sind starr, bewegen sich teils ruckartig. Der Mund öffnet und schließt sich beim Sprechen unnatürlich und eher unkontrolliert, eher wie ein Muppet. Lediglich das Lächeln würde man ihr gelegentlich abkaufen.

Doch 2017 ist jetzt auch schon wieder zwei Jahre her und die rasend schnelle Entwicklung von KI und Robotern ist vielversprechend. Bereits im vergangenen Jahr war die Software des Google Assistant so weit entwickelt, dass sie telefonisch einen Friseurtermin oder einen Tisch im Restaurant reservieren konnte – ohne dabei als künstliche Intelligenz enttarnt zu werden. Ganz ehrlich: Ich hätte nicht gemerkt, dass mich gerade Google Duplex anruft. Die Stimme klingt normal, nicht mechanisch blechern und abgehackt, macht natürliche Sprechpausen und sogar Zuhör-Laute wie ein zustimmendes »mh-hm«. Nicht einmal Gesprächspartner mit starkem Akzent oder undeutlicher Aussprache stellen ein Hindernis dar. Alles nur Fake? Wohl kaum. Denn Ende 2018 wurde Duplex für einige US-Nutzer zum Testen freigegeben – und siehe da, der Service funktioniert tadellos. Die User diktieren ihrem Google Assistenten, wo und wann sie eine Reservierung haben möchten und Duplex erledigt den Anruf, ohne als Maschine enttarnt zu werden.

Wenn wir uns jetzt vorstellen, dass ein Roboter wie Sophia die kommunikative Kompetenz von Google Duplex einsetzt, verfeinert und optisch weiterentwickelt wird … das könnte ganz schön lebensnah werden. Denn bestimmt sind künstliche Intelligenzen bald an einem Punkt, an dem sie das Verhalten ihres menschlichen Gegenübers verstehen können. Verständnis im Sinne von Mimik, Gestik und Stimmlage analysieren, mit einer Datenbank eingespeister Empfindungs-»Normen« vergleichen und je nach Ergebnis entsprechend reagieren. Dann können Roboter auch Lügner sofort enttarnen: mit modernen Messtechniken für Körpertemperatur, Puls und Software, die Mikroausdrücke in der Mimik und Gestik erfassen kann – so wie Dr. Lightman aus der Serie »Lie to me«. Nur noch viel verlässlicher.

contentbild-ki-empathie

Aber ist das schon empathisch?

Naja, was ist Empathie denn überhaupt? Die offiziellen Definitionen für den Begriff »Empathie« unterscheiden sich meist durch Nuancen. Ich habe unser offizielles Nachschlagewerk zurate gezogen: Laut Duden ist Empathie die »Bereitschaft und Fähigkeit, sich in die Einstellungen anderer Menschen einzufühlen«. Wenn ich von dieser Definition ausgehe, muss ich ganz klar sagen: Nein, künstliche Intelligenz wird niemals empathisch sein. Denn um etwas fühlen zu können – egal, ob es die eigenen Empfindungen oder die einer anderen Person sind –, muss man ein Lebewesen sein. Wenn ich allerdings genauer auf die Thematik eingehe, muss ich beachten, dass es mehrere Arten der Empathie gibt (die Übergänge sind fließend):

  • Die emotionale Empathie (Gefühle des Gegenübers nicht nur verstehen, sondern mitfühlen – wie im Duden definiert)
  • Die kognitive Empathie (Gefühle des Gegenübers verstehen und daraus Rückschlüsse auf zukünftiges Verhalten ziehen, ohne mitzufühlen)
  • Die soziale Empathie (das Verhalten einer Gruppe/Organisation verstehen oder sich auf Menschen verschiedener Altersgruppen/Kulturen/Temperamente einstellen)

 

Das ändert natürlich einiges. Denn wie oben bereits beschrieben, bin ich überzeugt davon, dass KI bald unsere Gefühle deuten kann, um adäquat zu reagieren – ohne die Emotionen selbst nachzufühlen. Damit wäre sie der kognitiven Empathie fähig.

Allerdings bin ich mir auch sicher, dass selbst eine hochentwickelte KI nicht auf jeden einzelnen Menschen perfekt eingehen kann. Denn wir sind schließlich Individuen, wir verändern uns von Tag zu Tag, von Sekunde zu Sekunde – was mir heute gefällt, finde ich morgen vielleicht schon bescheuert. Eine Millisekunde zu kurzer Augenkontakt, die Stimme ein Dezibel zu laut, die Gestik eine Spur zu hektisch, schon kommt die Reaktion meines Gegenübers anders bei mir an. Empathie kann so komplex sein, dass nicht einmal Menschen hundertprozentig dazu fähig sind – da kann meines Erachtens keine Maschine mithalten oder uns gar übertrumpfen.

Empathie im Digitalmarketing

Emotionen spielen gerade im Marketing eine große Rolle. Denn die Stimmung eines Kunden ist ausschlaggebend dafür, ob er sich für den Kauf eines Produktes entscheidet oder nicht, ohne dass er die Entscheidung überhaupt bewusst wahrnimmt. Wer vom hungrigen Einkaufstrip noch nie mit der Tasche voller unnötiger Süßigkeiten zurückgekehrt ist oder sich die schlechte Stimmung durch spontanes Shopping aufgehellt hat, werfe den ersten Stein. Ein Großteil der Werbekommunikation nutzt heutzutage Storytelling, das Emotionen beim Rezipienten weckt und ihn so empfänglich für die weitere Verkaufsargumentation macht. Allerdings ist die Messung der Werbewirkung solcher emotionalen Kampagnen nicht so einfach umsetzbar wie das Tracking von Klickraten, denn traditionelle Messarten sind kompliziert und leicht zu verfälschen.

Und das ist nicht die einzige Herausforderung emotionalen Marketings im digitalen Zeitalter: Da der Kundenkontakt an immer mehr digitalen Touchpoints stattfindet, sind Unternehmen darauf angewiesen, diese Mensch-Computer-Interaktion möglichst empathisch zu gestalten, damit die Customer Experience nicht unter der Modernisierung leidet.

Als Lösungsansatz für diese Herausforderungen wurde das sogenannte Affective Computing entwickelt. Um unsere Klienten erfolgreich bei diesem Aspekt der Digitalisierung unterstützen zu können, haben wir einen Experten ins Boot geholt: Prof. Dr. Alexander Hahn, Professor für Digital Marketing and Communication an der Munich Business School, klärte uns im Rahmen eines Vortrages bei uns im Haus über das Thema Affective Computing auf. Er definiert diesen Begriff in einer Publikation mit Dr. Marco Maier folgendermaßen:

»Affective Computing zielt auf automatisierte, echtzeitbasierte Messung und Erkennung von Emotionen durch Sensoren und lernende Algorithmen ab, um darauf angepasste Reaktionen von Computern zu ermöglichen.«

 

Viele unserer täglichen Begleiter sind bereits jetzt ideal dafür geeignet, Daten für die Weiterentwicklung des Affective Computing zu sammeln: zum Beispiel Fitness-Armbänder, Smartphones und Smartwatches. Ihre Sensoren können Puls, Beschleunigung, Erschütterungen, Luftfeuchtigkeit, Lichtverhältnisse und vieles mehr erfassen. Auch unser Fingerabdruck, unsere Iris und unser Gesicht werden von unseren Smart Devices oft erkannt.

Google hat 2018 ein Experiment durchgeführt, bei dem KI positive Reaktionen erkennen sollte und ihr Handeln anschließend darauf ausrichtete. Die Versuchspersonen wurden vor eine Webcam gesetzt, dann wurden ihnen Tierbilder gezeigt, die eine KI »gezeichnet« hatte – wenn die Versuchspersonen lächelten, erfasste die KI das als positives Signal. Das Forschungsteam trainierte die KI darauf, sich auf die positiv konnotierten Bilder zu konzentrieren. Ergebnis: Ihre Bilder wurden immer besser. Die Bedeutung dieses Experiments mag auf den ersten Blick klein wirken, wird aber voraussichtlich starke Auswirkungen auf die emotionale Intelligenz von KIs haben. Denn wie cool wäre es, wenn deine Alexa oder Siri sofort merkt, wenn du schlecht gelaunt bist, und dich aufmuntert? Oder sich merkt, welche ihrer Aktionen du nicht so toll fandest, um diese in Zukunft zu vermeiden?

 

Laut der Publikation von Prof. Dr. Hahn und Dr. Maier gibt es vielfältige Einsatzmöglichkeiten für Affective Computing, die momentan bereits genutzt werden oder in Zukunft zur Anwendung kommen werden. Im Marketing gehören dazu die Bereiche Marktforschung, Content Marketing, Marketing Automation und Digital Advertising. Aber auch z. B. beim Gaming, in Bildung, Industrie, Healthcare, Transport oder bei Events kann die Empathie künstlicher Intelligenz gewinnbringend genutzt werden. Allerdings nur, wenn die Technik sich weiterhin so gut entwickelt und von Nutzern angenommen wird. Datenschutzrechtlich gibt es sicherlich auch noch einiges zu klären, bevor die empathischen KI-Services im großen Stil ausgerollt werden können. Aber insgesamt bieten sie für Werbemaßnahmen enorme Chancen, die Customer Experience zu optimieren, Zielgruppen in Echtzeit zu segmentieren und Zielpersonen individuell zu adressieren.