Wenn die Lösung zum Problem wird – Chatbots als Ersatz für menschliche Beziehungen

Künstliche Intelligenz (KI) wird zunehmend zum Gesprächspartner im Alltag – viele suchen bei Chatbots wie ChatGPT sogar emotionale Nähe. Zwei neue Studien zeigen nun: Was als digitale Unterstützung beginnt, kann schnell zur sozialen Isolation führen.

Sprachfähige KI-Systeme wie ChatGPT werden längst nicht mehr nur für Informationsabfragen oder berufliche Unterstützung genutzt. Immer mehr Menschen suchen im Chatbot auch emotionale Entlastung – sei es in einem Moment der Einsamkeit oder gar als längerfristiger Ersatz für soziale Kontakte. Zwei umfangreiche Studien von MIT und OpenAI haben nun erstmals systematisch untersucht, wie sich solche Interaktionen auf unser emotionales und soziales Wohlbefinden auswirken.

Die Ergebnisse sind ambivalent: Zwar können Chatbots kurzfristig Einsamkeit lindern, doch intensive Nutzung führt oft zu gegenteiligen Effekten – insbesondere bei Menschen mit hohem Bindungsbedürfnis.

Was sagen die Studien konkret?

In einer vierwöchigen Langzeitstudie mit 981 Teilnehmer:innen wurden Text- und Sprachinteraktionen mit ChatGPT untersucht. Teilnehmende wurden gebeten, täglich mindestens fünf Minuten über den Advanced Voice Mode, einem bisher nur bei ChatGPT 4o verfügbaren erweiterten Sprachmodus für flüssigere, natürlich wirkende Gespräche in Echtzeit, mit dem Chatbot zu kommunizieren – mal über persönliche, mal über neutrale oder frei gewählte Themen. Dabei zeigte sich, dass gesprochene Interaktionen, vor allem mit emotionaler Intonation, zunächst das Gefühl von Einsamkeit reduzierten.

Bei häufiger Nutzung kehrte sich dieser Effekt jedoch um: Mehr Zeit mit dem Chatbot führte zu mehr Einsamkeit, weniger Sozialkontakten und höherer emotionaler Abhängigkeit von der KI. Besonders gefährdet sind dabei Menschen mit hoher emotionaler Bindungsneigung, Vorerfahrung mit KI-Gefährten (z. B. Replika) und niedrigem sozialen Rückhalt im echten Leben.

Nur ein kleiner Teil ist stark betroffen

Parallel zu dieser kontrollierten Studie wurden über 4 Millionen reale ChatGPT-Konversationen analysiert. Dabei zeigte sich: Der Großteil der Nutzer:innen verwendet ChatGPT funktional – zum Lernen, Arbeiten oder aus Neugier.

Doch ein kleiner Kreis von „Power-Usern“ führt regelmäßig emotionale, teils intime Gespräche mit der KI. Diese Nutzer:innen bezeichnen ChatGPT häufiger als „Freund“, zeigen stärkere emotionale Bindung – und nutzen das System auch deutlich länger als andere. Bei diesen Personen häuften sich Anzeichen emotionaler Abhängigkeit.

Fazit: Zwischen Trost und Trugbild

Chatbots können helfen – aber nur in Maßen und bei bewusstem Umgang. Wer sich einsam fühlt, sollte sich nicht ausschließlich auf KI stützen. Denn was kurzfristig entlastet, kann langfristig echte Beziehungen verdrängen. Entwickler:innen stehen in der Verantwortung, emotionale Funktionen so zu gestalten, dass sie unterstützen, aber menschliche Interaktionen nicht ersetzen.