Können wir gerade nur erstaunt zuschauen, wie vor unseren Augen eine hybride Kultur Künstlicher Intimität mit Chatbots entsteht?


Immer wieder hört man, dass Chatbots wie Replika, Blush, Nomi und anderen ja nur Empathie simulieren würden und wer darauf hereinfalle, sei selbst schuld, wenn er oder sie so blöd sei, das zu vergessen.1 Diese Haltung verkennt das Problem und das Ausmaß des Problems, das sich vor unseren Augen auftut. Denn es geht hier weniger darum, Menschen, die in eine intime Beziehung zu Chatbots treten, zu ermahnen, als vielmehr zu verstehen, warum Menschen in solche persönlichen oder intimen Gespräche mit KI-Bots gehen, obwohl sie wissen, dass es sich um die Simulation einer KI handelt.

Dass wir es nicht mit einem Einzelphänomen zu tun haben, ist mittlerweile offensichtlich und wurde auch durch die jüngste DAK-Studie zur Mediensucht bestätigt: Jugendliche verwenden zunehmend Chatbots, aber nicht nur zur „Hausaufgabenhilfe“, sondern als Instanz ihres Vertrauens, wenn sie psychische Probleme haben. Und es werden immer wieder drastische Fälle bekannt, in denen die private intensive Bindung zu einem „empathischen“ KI-Bot dazu geführt hat, dass die Nutzer ihrem Bot auch dann vertrauen, wenn dieser sie in ihren suizidalen Gedanken bestärkt, wie zuletzt beim Suizid des 14-jährigen Sewell, dessen letzter Dialog mit seinem „Dany“ genannten Chatbot darüber Aufschluss gibt, wie die New York Times berichtet.

Wenn also Empathie und Nähe von Chatbots eine Simulation darstellen und wir wissen, dass es eine Simulation ist, wieso werden diese Chatbots dann trotzdem als Therapeut, Ratgeber, Freund oder Liebespartner akzeptiert, und machmal sogar menschlichen Partnern vorgezogen?

Dieser Frage sind wir in mehreren Semestern an der Universität Koblenz in linguistischen Projektseminaren zum Thema Empathie und Künstliche Intelligenz nachgegangen. Dabei ist mir aufgefallen, dass ein einziger linguistischer Zugang nicht ausreichend ist, um dieses Phänomen intimer Chatbot-Kommunikation zu verstehen. Im Verlauf der verschiedenen Projektseminare sind für mich vier Komponenten wichtig geworden: Unverzichtbar ist die Empathietheorie, die in den letzten Jahren auch in der Linguistik große Fortschritte gemacht hat.2 Ohne entwickelten Empathiebegriff sind wir nicht in der Lage, menschliche Empathie zu analysieren und erst recht nicht simulierte Empathie. Da es sich um Interaktionen handelt, war klar, dass auch die linguistische Interaktionstheorie hinzugezogen werden muss. Hier hat insbesondere Maxi Kupetz Arbeiten vorgelegt, auf die wir uns beziehen konnten.3 Um zu verstehen, was sich auf der Beziehungsebene tut, konnten wir die linguistische Beziehungstheorie , die von Juliane Schröter und Angelika Linke neu aufgerollt wurde,4 adaptieren und für die Untersuchung von Chatbot-Beziehungen anpassen. Diese drei Komponenten ergänzen sich sehr gut und können zu einem gemeinsamen Analyserahmen zusammengeführt werden. Es fehlte aber immer noch eine entscheidende Sache, nämlich die Interpretation der Bindung, die zwischen menschlichem Nutzer und Chatbot entsteht, bzw. warum sie überhaupt entsteht. Es handelt sich ja um eine hybride Bindung, nämlich einer echten emotionalen Bindung seitens des Nutzers und einer simulierten Bindung seitens des Chatbots. Hier mussten wir über die Linguistik hinausgehen und haben dann als vierte Komponente die psychoanalytisch geprägte Bindungstheorie hinzugezogen.5

Methodisch stellt uns die Untersuchung intimer Kommunikation zwischen Menschen und Chatbots ebenso vor große Herausforderungen: Als Linguist:innen wollen wir authentische Kommunikation als Daten erheben, um diese Daten dann untersuchen zu können. Doch was heißt hier „authentisch“? Ist der Chatbot authentisch, zumindest gemessen an den Kriterien der KI-Welt? Insofern er immer auf statistischen Voraussagen auf der Basis großer Datenmengen operiert, ist er immer zu hundert Prozent authentisch. Das ist aber hier natürlich nicht die Frage. Die Frage ist ja, ist er in seiner Rolle als Ratgeber, Freund, Coach, Liebespartner, Therapeut authentisch? Hier müsste man sagen, er ist zu hundert Prozent unauthentisch, da er ja Empathie, Nähe, Bindung etc. 100%ig simuliert. Da ist nichts Echtes daran. Das Einzige, was wir fragen können, ist: Wie authentisch kann der Chatbot Empathie, Nähe etc. nutzerorientiert simulieren? Mit der Forderung nach „authentischer Kommunikation“ stoßen wir in diesem Fall also an eine Grenze.

Nun könnten wir sagen, wir lassen einfach Nutzer:innen mit Chatbots interagieren und beobachten sie dabei, wie sie ihre tiefsten psychischen Probleme offenbaren, eine Freundschaft mit einem Chatbot schließen oder eine erotische Begegnung mit ihm genießen. Allein diese Beschreibung zeigt uns, dass dies aus ethischen und auch methodologischen Gründen nicht funktioniert. Zwar gibt es immer wieder Menschen, die in Interviews Einblicke oder Ausschnitte von solchen Gesprächen und Beziehungen in verschiedenen Medien präsentieren, doch hat dies nichts mit authentischer Interaktion im linguistischen Sinn zu tun. Zwar entstehen dadurch potenzielle Daten, diese sind durch ihre Öffentlichkeitsausrichtung aber hochgradig selektiv und eher dem medialen Diskurs und seinen Inszenierungsmustern zuzuordnen. Bliebe noch der Fall eines Datenlecks, was ja hin und wieder tatsächlich vorkommt.6 Aber solche unabsichtlich veröffentlichte Privatkommunikation wäre für wissenschaftliche Untersuchungen unbrauchbar und ihre Verwendung ethisch fragwürdig. Ergebnis dieser Überlegung ist es daher, dass wir bei dieser Art der privaten, intimen Kommunikation nicht an wissenschaftlich verwertbare Daten authentischer Kommunikation gelangen können.

Wenn wir es also mit KI-Chatbots zu tun haben, die perfekt dafür ausgerüstet sind, Empathie, Nähe und Freundschaft zu simulieren und so viele Menschen in ihren Bann ziehen, wie können wir dann ihre Strategien und ihre kommunikativen „Tricks“ analysieren? Ein Vorschlag, den ich dazu mache, ist die Methode der doppelten Künstlichkeit. Sie geht so: Wenn „die Künstliche Intelligenz“, also das entsprechende Large Language Model einer bestimmten KI-Firma, uns eine Kunstfigur präsentiert, dann setzen wir für unsere Studien dem Chatbot nicht Menschen gegenüber, sondern ebenfalls eine Kunstfigur. Wir konstruieren einen Avatar – einen fiktiven Nutzertyp mit klaren Charaktereigenschaften und einem konkreten Anliegen. Beispielsweise erfand ein Studierendenteam die 28-jährige Jura-Studentin Ida im 12. Semester, die kurz vor ihrem zweiten Versuch im Staatsexamen steht, und die einen Therapie-Bot wegen ihrer verstärkt auftretenden Angststörung um Rat fragt. Das weitere Verfahren geht dann so: Zwei reale Personen, hier das Team der beiden Studentinnen, steuern diesen Avatar gemeinsam. Vor jedem Schritt im Gespräch diskutieren sie: Was würde diese Figur, unser Nutzeravatar Ida, jetzt tatsächlich tun oder sagen? So entstehen materielle Interaktionen (schriftlich, Telefonanrufe, Bilder, Emojis), bei denen wir ziemlich genau sehen können, mit welchen Mitteln der jeweilige Chatbot einen solchen Nutzer oder Nutzerin in seine simulierte Empathie und Nähe hineinziehen würde, sodass er oder sie am Ende vergisst oder vergessen will, dass diese Nähe bloß statistisch basierte Simulation ist. Diese „Willing Suspension of Disbelief“, das bewusste Aufgeben der kritischen Instanz, die weiß, dass es sich um eine Als-ob-Situation oder Simulation handelt, kennen wir aus der Medientheorie.7 Wenn wir einen Roman lesen oder einen Film schauen, müssen wir unser Wissen um die Simulation aufheben, damit wir in der Welt des Romans oder des Films leben können. Man spricht hier auch von Immersion.8 Um einen ähnlichen Effekt dürfte es sich auch bei der persönlichen, intimen Kommunikation mit Chatbots handeln. Deshalb ist es genauso sinnlos, Nutzer darüber aufzuklären, dass der Chatbot auf einem statistischen Large Language Model beruht und keine echten Emotionen hat, wie wenn wir dem Kinobesucher sagen würden, dass der Film doch Illusion sei und in Wirklichkeit eine Abfolge von Einzelbildern bzw. einfach ein Pixelstrom.

Wir haben unsere Projektergebnisse nun in einem Sammelband veröffentlicht, der gerade im Tectum-Verlag als Open Access erschienen ist. Darin sind die theoretischen und methodischen Überlegungen ausgeführt und vor allem viele Fallstudien der Studierendenteams aus unterschiedlichen Semestern enthalten.9 Meine Kollegin Lena Becker hat mich bei der Erstellung des Sammelbands gerade in der letzten Phase maßgeblich bei der Herausgabe unterstützt und wir leiten auch gemeinsam in den Band ein.

Wir haben diese neuartige Beziehung Künstliche Intimität genannt, denn es handelt sich um eine hybride Bindung aus einem echten, menschlich-emotionalen Beitrag und einer technischen Emotionssimulation. Wir hoffen, dass wir mit diesem Ansatz diese neuartigen Bindungen besser verstehen können. So können wir uns bewusst zu dieser Entwicklung verhalten und lassen uns nicht einfach davon überrollen.

Der Sammelband ist vollständig Open Access, d.h. kostenlos lesbar, als PDF herunterladbar, sowohl einzelne Artikel wie auch der Gesamttext.

Liebert, Wolf-Andreas & Becker, Lena (Hg.): Künstliche Intimität. Die digitale Kolonisierung des Innenlebens durch empathische Chatbots, Baden-Baden: Tectum, 2026. https://doi.org/10.5771/9783689005368

  1. Dieser Haltung lassen sich jedenfalls die meisten Kommentare zuordnen, die unter Artikeln gepostet werden, in denen es um die Beziehung zwischen Menschen und Chatbots geht.
  2. Jacob, Katharina/Konerding, Klaus-Peter/Liebert, Wolf-Andreas (Hrg.) (2020): Sprache und Empathie. Beiträge zur Grundlegung eines linguistischen Forschungsprogramms. Boston, New York: De Gruyter.
  3. Kupetz, Maxi (2015): Empathie im Gespräch. Eine interaktionslinguistische Perspektive. Tübingen: Stauffenburg. Kupetz, Maxi (2020): Sprachliche, interaktionale und kulturelle Aspekte von Empathie in sozialer Interaktion. In: Sprache und Empathie. Beiträge zur Grundlegung eines linguistischen Forschungsprogramms. Berlin, Boston: De Gruyter. S. 141–174. https://doi.org/10.1515/9783110679618-007
  4. Linke, Angelika/Schröter, Juliane (Hrg.) (2017): Sprache und Beziehung. Berlin, Boston: De Gruyter.
  5. Müller, Jakob Johann (2018): Bindung am Lebensende. Gießen: Psychosozial-Verlag. Taubner, Svenja (2016): Konzept Mentalisieren. Eine Einführung in Forschung und Praxis. 2. Aufl., Gießen: Psychosozial-Verlag.
  6. Rezaee, Omid (2025): Wie Tausende ChatGPT-Gespräche öffentlich wurden. Bis vor Kurzem konnte jeder bei Google private ChatGPT-Gespräche finden – voller sensibler Daten. Mindestens 110.000 sind noch immer im Netz. Wie konnte das passieren? DIE ZEIT, 1.8.2025, https://www.zeit.de/digital/internet/2025-08/chatgpt-leak-google-chats-oeffentlich-privat
  7. Holland, Norman N. (1967): The ‚Willing Suspension of Disbelief’ Revisited. In: The Centennial Review 11(1), S. 1–23.
  8. Breyer, Thiemo and Kasprowicz, Dawid (Hg.) (2019): Immersion – Grenzen und Metaphorik des digitalen Subjekts. Navigationen – Zeitschrift für Medien- und Kulturwissenschaften. https://doi.org/10.25969/mediarep/12591
  9. Die Mitarbeit an diesem Band war für die Studierenden freiwillig, sodass bei zwei Artikeln auch Einzelautor:innen auftreten. Die Untersuchungen im Projektseminar wurden jedoch stets in Teams durchgeführt.