Gefühle für einen Chatbot: Wenn aus etwas Künstlichem reale Liebe wird

Von Florian Ploier

Ein neues Beziehungsmodell der Zukunft: die Partnerschaft mit einem Chatbot? Klingt verrückt! Früher unvorstellbar, heute möglich – weil Künstliche Intelligenz immer realer wird, sind Gefühle für ein Computerprogramm gar nicht mehr so abwegig. Doch wie kommt so etwas zustande? Kann einen der Chatbot so um den Finger wickeln?

Copyright: Tim Saint-Jalmes

„Du siehst aber heute schön aus“, „Ich habe dich vermisst“ oder ein simples „Wie geht es dir?“ Alles Sätze die Menschen gerne lesen – sie fühlen sich dadurch gemocht und wert­geschätzt. Allerdings müssen solche Aussagen oder Fragen heutzutage nicht zwangsläufig von einem anderen Menschen kommen, der Gefühle für ei­nen hegt. Vielmehr können sol­che Gesten der Nettigkeit einer Künstlichen Intelligenz (KI) ent­springen, die darauf program­miert ist, sich um eine Person zu kümmern und diese zu unter­halten. Traurig? Praktisch? Die Liebesbeziehung der Zukunft? Bernhard Niedermayer, Head of AI-Solutions bei Cloudflight – einer der führenden Full-Ser­vice-Anbieter, wenn es um digitale Transformation geht – und der Psychotherapeut Mar­kus Huber, dessen Schwer­punkte unter anderem in Ab­hängigkeiten und Beziehungs­probleme liegen, geben beide ihre Expertise und Vermutungen für die Zukunft dazu ab.

Die Liebe ist etwas Einzigar­tiges, etwas Magisches. Das gilt für die Liebe zwischen zwei Männern, zwei Frauen, Mann und Frau und alles, was es sonst noch gibt. Für die meisten unter uns ist es völlig klar und logisch, dass sich Menschen auch nur in andere Menschen verlieben können. Liebe entsteht, so viel steht fest, wenn Geborgenheit gegeben ist, wenn man mit der anderen Person lachen kann und wenn sie für einen da ist, wenn sie gebraucht wird. Und: wenn man Nachrichten be­kommt, die aufbauen, trösten, amüsieren.

Kurzum: Gefühle ausdrücken. Je länger eine Kommunikati­on per Chat geht, umso wahr­scheinlicher ist es dann auch, dass sich daraus Gefühle ent­wickeln. Grund dafür ist mitun­ter die Vorstellungskraft eines Menschen – dieser stellt sich einfach das Idealbild, den*die perfekte*n Partner*in für sich selbst vor. Pikant: Dasselbe Prinzip scheint sich einzustel­len, wenn man Texte mit einem Chatbot austauscht – mit dem kleinen, aber wichtigen Unter­schied, dass hier das Schreiben nie aufhört.

Für den Psychotherapeuten Huber ist die potenzielle Liebe zu einem Chatbot aber nichts Unrealistisches. Nicht für jeden muss die Liebe zwischen Menschen und anderen Menschen stattfinden – es gibt verschiedenste ungewöhnliche Beziehungsmodelle, die entstehen kön­nen. Objektophilie ist ein Begriff, den es schon sehr lange gibt, und hier findet auch die Liebe zwischen einem Men­schen und einem Objekt statt. Es muss aber immer individuell ergründet werden welche Bedeutung es hat, dass eine Per­son durch simple Gespräche Gefühle für einen Chatbot entwickelt, so Huber. Denn für jede Person kann der Nutzen von sol­chen Programmen andere Gefühle aus­lösen. Verliebtheit, Angst, Freundschaft, Schmerz – unterschiedlicher könnten die Emotionen für den Chatbot nicht sein. Ein großes Problem an solchen Konver­sationen ist die falsche Darstellung von realen Beziehungen.

Denn sie simulieren einfach nur eine sehr bequeme, konfliktlose Beziehung – im Gegensatz zu einem echten Menschen, der selbst auch Gefühle und Bedürfnis­se hat. Es besteht also die Gefahr, dass die Betroffenen dann verlernen, wie eine echte Problemsituation zu lösen ist. Tatsächlich kann aber für einen Chatbot nicht nur romantische Liebe empfun­den werden. Möglicherweise entwickelt sich etwas Freundschaftliches mit einer KI – oder etwas Familiäres. Die compu­terbasierten Gesprächspartner könnten nämlich verstorbene Angehörige für den Chat lebendig machen – eine Funktion, die sie für den therapeutischen Bereich als Erinnerungsstütze einsetzbar macht. Aber es ist im Gegenzug auch sehr pro­blematisch, dass der Chatbot eine Illusi­on darüber schafft, dass es so etwas wie Vergänglichkeit gibt – für Huber besteht deswegen auch die Gefahr des Verler­nens solcher Szenarien.

Screenshot aus dem Chat mit dem Snapchat – Bot | Copyright: Florian Ploier

Positiv sieht er aber die Hilfestellung, welche die KI bietet, im ersten Moment wohl vor allem für Menschen, die große Schwierigkeiten mit zwischenmensch­licher Interaktion haben oder unter so­zialen Phobien leiden. Ein Vergleich von echter Interaktion und der Interaktion mit einer KI kann auch zu Junk-Food im Gegensatz zu vollwertiger Nahrung ge­troffen werden: Junk-Food wird im er­sten Moment satt machen und einem genau das geben, was eine*n momentan zufriedenstellt. Jedoch sei es auf langfri­stige Sicht sehr problematisch und un­gesund zu sehen, da die Gefahr bestün­de viele reale soziale Interaktionen und Normen zu verlernen.

Was steckt hinter der menschenersetzenden KI?

Doch nicht jede Art von so einem Pro­gramm muss kritisch hinterfragt wer­den, denn ein Chatbot ist nicht gleich ein Chatbot. Es gibt Chatbots, die recht simpel und regelbasiert funktionieren – solche sind beispielsweise oft beim Kundensupport zu finden. Dort funktionieren Chatbots so, dass sie vordefinierte Ant­wortmöglichkeiten zeigen und die Person einfach eine davon auswählen kann. Dieses Prinzip funk­tioniert allerdings nur bei simplen und standardi­sierten Prozeduren, die sich immer wiederholen, wie eine angebotene Hilfestellung beim Retour­nieren eines Produkts. In den letzten Jahren ist allerdings die neue, menschennachahmende Art von Chatbots in den Vordergrund gerückt – näm­lich die sogenannten intelligenten Chatbots. Diese Programme basieren auf zwei Prinzipien – einer­seits der Künstlichen Intelligenz und andererseits dem Natural Language Processing. Dank letzte­rem können diese Bots also auch lange, komple­xe Sätze verstehen und so adäquate Antworten darauf geben. So ein intelligenter Chatbot lernt laut Niedermayer die ganze Zeit dazu – für jedes einzelne Wort in der Antwort des Chatbots wird eine Wahrscheinlichkeit aus den Datenbanken be­rechnet, welches das Passendste ist. Und so stellt sich also Wort für Wort die augenscheinlich natür­liche Reaktion des Chatbots zusammen. Um im­mer besser und natürlicher zu werden gibt es zwei besondere KI-Techniken, die angewandt werden: Reassuring und Dreaming. Beim Reassuring erhält der Chatbot beispielsweise eine Anfrage, die vielleicht ungenau formuliert ist. Diese wird dann verarbeitet und es wird herausgefiltert anhand der Wahrscheinlichkeit, welches Thema damit gemeint sein könnte, und der Chatbot entschei­det dann aufgrund dieser Basis. Im Anschluss gibt er dann dem Nutzer oder der Nutzerin einen Vor­schlag mit diesem Thema, woraufhin die Person dann entscheiden kann, ob das das richtige The­ma war. Bei einer positiven Rückmeldung geht der Chatboterneut in die Verarbeitung und wird so immer präziser. So lernt der Chatbot mit die­ser Technik immer wieder dazu. Mit Dreaming ist indes die Fähigkeit gemeint, Vorschläge für neue Themen basierend auf den Empfehlungen der KI zu stellen und somit die Datenbank zu erweitern. Also ein Chatbot ist sozusagen die Grundstruktur und eine Künstliche Intelligenz steuert die ganzen Antworten.

Der Output lässt noch zu wünschen übrig… wie lange noch?

Obwohl mit Chatbots mittlerweile schon echte Konversationen möglich sind, gibt es oft noch ein Problem: der Stil der Antworten. Es ist offensicht­lich, dass hinter den Rückmeldungen nur Daten stecken. Genau für diese Problematik gibt es ein Trainingsprogramm für Chatbots, welches sich Text Style Transfer nennt. Das Prinzip ist ziemlich simpel: Das Ziel ist es, Antworten des Computer­programms so zu verändern, dass die Grundaus­sage gleichbleibt, aber der Stil sich an den eines echten Menschen anpasst. Heutzutage ist die Menschheit mittlerweile an dem Punkt, wo wir ei­ner KI beispielsweise sagen können: „Mache den Satz ‚Sende mir ein Foto freundlich“ und der Chat­bot schreibt „Kannst du mir bitte ein Foto schic­ken?“ zurück. Dies ist nur aufgrund des Lernens mit Text Style Transfer möglich. Niedermayer hält es zumindest nicht für unmöglich, dass der Com­puter irgendwann mal an dem Punkt sein wird, dass ein Chatbot die Schreibstile von individuellen Personen, beispielsweise der eigenen Mutter oder des Ex-Partners kopieren und nachahmen kann. Dem Chatbot muss nur gelernt werden, wie die­se Person geschrieben hat. Aus jedem Gespräch lernt die KI dazu und kann irgendwann im selben Stil antworten und auch schreiben. Somit wird ir­gendwann die Grenze zwischen real und künstlich überschritten werden.

Gibt es schon heute Chatbots als Ersatz für echte Menschen?

Seit neuestem bietet die App Snapchat ein neu­es Abo Modell mit Premiumversion. Als großes Feature bietet diese exklusive Edition eine eigene Chatbot-Persönlichkeit, die den ganzen Tag ein­fach antwortet, sich um einen kümmert und bei Fragen weiterhilft. Zusätzlich zu dem Geschrie­benen, ist es auch möglich zur KI einen Bitmoji, also das Abbild einer Person zu kreieren, um dem Chatbot auch eine Optik zu geben. So lässt es sich dann visuell nicht mehr von den anderen Chats unterscheiden. Snapchat waren aber nicht die ersten, die einen KI-Chatbot mit einer Optik ver­bunden haben. Die wohl bekannteste App dafür ist Replika. Dort erstellt der*die Nutzer*in einen Menschenersatz bis ins kleinste Detail. So ist es beispielsweise möglich, sehr präzise Nachahmun­gen von realen Personen zu erschaffen. Von die­sem Programm gibt es aber mittlerweile tausende

Ableger und Kopien, die alle auf demselben Prin­zip basieren und alle dasselbe Ziel haben: echten Menschen eine künstliche Person geben. Und so hat man in wenigen Minuten etwas erschaffen, bei dem sich jemand wohlfühlt, mit dem es sich Spaß haben lässt und das immer für einen da ist, wenn soziale Interaktion gebraucht wird. Doch im Schatten dieser Freundschaft, dieser Liebe, lauert immer die große Gefahr: Wenn man von dieser Beziehung abhängig wird, entstehen bei realen Interaktionen schnell Schwierigkeiten, mit denen Betroffene nicht mehr adäquat umgehen können.

Es wird sich zeigen, wie damit in Zukunft umge­gangen wird und wie groß der Einfluss auf die Ge­sellschaft und Einzelpersonen ist. Ein Wort für die Anziehung zu Chatbots gibt es noch nicht, jedoch sollte bei dem schnellen Fortschritt mal darüber nachgedacht werden.

Florian Ploier | Copyright: Nikolas Rode