KI für soziale Interaktionen nutzen?

Kann KI für soziale Interaktionen eingesetzt werden? — Die Frage erschien mir erst absurd. Aber… Aktuelle Studien zeigen, dass dies tatsächlich geht. Und schlimmer noch: Die Ergebnisse deuten sogar an, dass wir den Menschen für soziale Interaktionen überflüssig machen.

Zwischenmenschliche Kommunikation entsteht, wenn mindestens zwei Menschen miteinander interagieren und sich gegenseitig mindestens eine Botschaften zukommen lassen. Im einfachsten Fall sprechen wir miteinander. Was zunächst trivial erscheint, ist doch ein bisschen komplizierter.

KI und Sprache

Um miteinander zu sprechen benutzen wir Symbole, also beispielsweise Wörter. Die Bedeutung eines Wortes ergibt sich dabei nicht aus dem Wort selber, sondern weil wir wissen (müssen), worauf sich das Wort in der Realität bezieht. Diese Zuordnung haben wir irgendwann gelernt, beispielsweise haben wir das Wort Baum gelernt und können es nun einsetzen, wenn wir von diesen Pflanzen sprechen. Wir können uns einen Baum vorstellen, wenn jemand uns davon erzählt und wir können dieses Ding identifizieren und benennen, wenn wir daran vorbei gehen.

Sprache besteht aus Symbolen, wir können Symbole Dingen in der Realität zuordnen, z.B. das Wort Baum.

Eine KI kann diese Zuordnung nicht vornehmen, weil ihr die Realität — mindestens im Moment noch — nicht zugänglich ist, d.h. sie geht nicht durch die Welt und benennt Dinge und sie stellt sich auch keinen Baum vor. Die KI stellt anhand des verfügbaren Datenmaterials (in diesem Fall also beispielsweise der deutschen Sprache) fest, aus welchen Wörtern sich der Wortschatz zusammensetzt. Der Sinn hinter diesen Worten spielt dabei keine Rolle.

Menschen wissen ausserdem, wie sie Wörter aneinanderreihen und daraus sinnvolle Sätze bilden können. Das kann eine KI relativ einfach lernen. Sie analysiert dazu das Datenmaterial und leitet daraus ab, welches Wort am wahrscheinlichsten auf das vorhergehende folgen wird. Auf „Der Apfel fällt nicht weit vom…“ folgt mit grösster Wahrscheinlichkeit darum nicht „Baum“ sondern „Stamm“.

Bislang wenig trainiert sind KI allerdings im Umgang mit Sprechhandlungen: Was tun wir eigentlich, wenn wir sprechen? Was meinen wir eigentlich, wenn wir etwas sagen. Wenn ich sage „Jemand müsste noch die reifen Äpfel vom Baum pflücken.“, dann mache ich damit wahrscheinlich nicht nur eine Feststellung über die Welt, sondern verknüpfe damit auch einen Appell, dass nämlich jemand — beziehungsweise mein Gegenüber — diese Äpfel pflücken soll.

Sprechhandlungen sind stark vom Kontext abhängig. Was mit einer Aussage konkret gemeint sein könnte, variiert also stark und kann nicht aus anderem Sprachmaterial hergeleitet werden. Daher ist es für KIs auch schwierig, mit solchen Sprechhandlungen umzugehen. Für die menschliche Kommunikation sind sie aber zentral.

KI und Emotionen

KI sind Computer und Computer empfinden keine Emotionen. Bisher ist diese Aussage noch weitgehend unbestritten. Menschen sind dem hingegen emotionale Wesen. Oft wird ihr Handeln von Emotionen geleitet. Dabei sind aber nicht alle Menschen gleich emotional und nicht alle Menschen können gleich gut Emotionen zeigen und solche bei anderen erkennen. Auch die Reaktion auf Emotionen anderer ist jeweils sehr unterschiedlich. Im Modell der synergetischen Collaboration zeigt sich die emotionale Ebene als Schlüssel für gute Zusammenarbeit. Das heisst nicht, das wir im Umgang mit anderen Menschen übereinstimmende Emotionen haben müssen, sondern dass wir andere ganzheitlich wahrnehmen und respektieren — auch und gerade mit ihren Emotionen.

Was müssen wir dazu tun? — In erster Linie müssen wir respektieren, dass andere Menschen Emotionen haben und wir müssen diese Emotionen wahrnehmen können. Im weiteren hilft es, empathisch darauf zu reagieren. Wir nehmen die Perspektive unseres Gegenübers ein, vollziehen nach, wie es sich gerade fühlen könnten und welche Bedürfnisse es hat und reagieren dann möglichst passend darauf, in dem wir Mitgefühl zeigen und je nach Situation beispielsweise Trost, Verständnis oder Freude anbieten.

Eine KI kann nicht empathisch sein, da sie selbst ja keine Emotionen empfindet. Sie kann Empathie aber durchaus simulieren. Dazu gehört einerseits, Sprachmaterial (Worte, Sätze, mittlerweile teilweise auch Mimik und Gestik) anhand von gelernten Datensätzen zu analysieren und entsprechende Emotionen zuzuordnen und andererseits, mit angemessenen Äusserungen darauf zu reagieren, um die Situation zu deeskalieren. Allerdings bleibt im Moment noch fraglich, ob eine Deeskalation durch eine gefühllose Maschine in jeder Situation angemessen ist und zum eigentlichen Ziel führen wird.

Eine Studie (Elyoseph et al., 2023) kam zum Schluss, dass ChatGPT bei der Identifikation von Emotionen teilweise sogar besser abschneidet als Menschen, wenn es darum geht, Emotionen bei anderen zu identifizieren. Diese neuen Kompetenzen eröffnen KI nun offenbar die Möglichkeit, auch für Zwecke eingesetzt zu werden, in denen nicht nur sachlich Inhalte, sondern vor allem auch die emotionale Ebene wichtig ist. Als Beispiele nennt die Studie den Einsatz von KI zu psychotherapeutischen Zwecken.

Eine grosse Frage ist nun: Wenn es uns als Menschen künftig ausreicht, dass eine gefühllose KI empathisch auf unsere Emotionen reagiert (und wir also eigentlich genau wissen, dass nichts weiter dahinter steht als ein Wahrscheinlichkeitsmodell), brauchen wir dann wirklich noch andere Menschen?

Menschen und KI und Emotionen

Andere Anwendungsfälle sind etwas alltäglicher. Beispielsweise gibt es bei vielen Kurznachrichtendiensten die Möglichkeit, auf automatische Antworten („smart replay“) zurückzugreifen. KI unterstützt hier die Menschen bei der alltäglichen Kommunikation.

Eine Studie (Hohenstein et al., 2023) zeigt hierzu auf: Wenn Menschen solche Antwort-Vorschläge nutzen, wirkt sich dies erst einmal positiv auf die Kommunikationssituation auf. Die Antworten kommen schneller und sie sind positiver formuliert. Letzteres liegt wohl vor allem auch daran, dass beim Training solcher KI-Funktionen auf höfliche Umgangsformen geachtet wird. Kommunikationspartner:innen schätzen dies und reagieren ihrerseits positiv.

Aber: Sobald sie den Verdacht hegen, dass die andere Person Antwort-Vorschläge genutzt haben könnte, dreht sich der Effekt. Mit denselben Antworten werden die Schreiber:innen als weniger kooperativ und als dominanter wahrgenommen. Das Zugehörigkeitsgefühl verschwindet.

Das zeigt einerseits, dass Menschen am Ende doch emotionale Wesen sind und uns mindestens ab und zu Menschen als Interaktionspartner:innen wünschen und dass wir KI als Kommunikations- und Interaktionspartnerin noch nicht völlig akzeptieren.

Eine andere Frage ist dabei auch: Hilft es dem Fortbestehen sozialer Interaktion, wenn die KI meines Telefons freundlich mit der KI des Coiffeurs plaudert, während sie gemeinsam nach einem passenden Termin für meinen nächsten Haarschnitt suchen?

 

Obwohl bei mir beide Fragen — jene nach Pseudo-Empathie von KI und jene nach dem Fortbestehen sozialer Interaktionen — ein etwas ungutes Gefühl auslösen, bin ich immer noch überzeugt, dass es momentan die Menschen noch braucht und dass die Menschen momentan auch noch Kommunikationskompetenzen brauchen.

Quellen

  • Elyoseph, Zohar et al. (2023). ChatGPT outperforms humans in emotional awareness evaluations. In: Frontiers in Psychology, 26. Mai 2023. doi: 10.3389/fpsyg.2023.1199058
  • Hohenstein, J., Kizilcec, R. F., DiFranzo, D. et al. (2023). Artificial intelligence in communication impacts language and social relationships. In: Scientific Reports / natur portfolio 13:5487, S. 1–9. doi: doi.org/10.1038/s41598-023-30938-9