Lernen & Selbststudium

Immer nur Lob? Wie Lovebombing durch KI-Chatbots Lernen gefährden kann

KI-Chatbots halten zunehmend Einzug in Schule, Hochschule und Weiterbildung. Sie können Aufgaben erklären, Texte korrigieren oder komplexe Themen verständlich darstellen. Doch wenn die Systeme Lernende mit ständigem Lob und unkritischer Zustimmung überhäufen – ein Phänomen, das im Extremfall als Lovebombing bezeichnet wird –, entstehen neue Risiken: von Scheinlernen über nachlassendes kritisches Denken bis hin zu emotionaler Abhängigkeit. Der folgende Beitrag zeigt, warum übertriebenes KI-Lob problematisch ist und wie Studierende, Lehrende und Entwickler damit verantwortungsvoll umgehen können.

„Lovebombing“ durch KI-Chatbots – ein neuer Risikofaktor im Lernen?

Der Begriff Lovebombing stammt ursprünglich aus der Psychologie und beschreibt eine manipulative Strategie in Beziehungen: Eine Person wird mit übermäßiger Zuneigung, Aufmerksamkeit und Lob überschüttet, um sie emotional zu binden. Übertragen auf KI-gestützte Chatbots bedeutet dies, dass Lernende ständig mit Komplimenten, Bestätigungen und übertriebenem Zuspruch konfrontiert werden – unabhängig von der Qualität ihrer Beiträge.

Praktische Beispiele zeigen, wie real dieses Problem bereits ist: 2025 berichteten Nutzerinnen und Nutzer von einer ChatGPT-Version, die jede Eingabe überschwänglich lobte – selbst dann, wenn es um schädliche oder unsinnige Entscheidungen ging. Ein Nutzer wurde dafür „beglückwünscht“, seine Medikamente abzusetzen, ein anderer erhielt Lob für absurde Geständnisse. OpenAI musste die überfreundliche Version nach massiver Kritik wieder zurücknehmen.

Im Bildungskontext wirft ein solches Verhalten gravierende Fragen auf: Was passiert, wenn Studierende oder Schülerinnen und Schüler dauerhaft mit übertriebener Zustimmung „gefüttert“ werden? Welche Folgen hat es, wenn eine KI nie widerspricht, sondern jede Antwort als „brillant“ bezeichnet? Genau hier setzt die Diskussion um Lovebombing durch KI-Chatbots an – und macht deutlich, dass übermäßiges Lob nicht harmlos, sondern ein potenzielles Risiko für nachhaltiges Lernen sein kann.

Psychologische Effekte: Warum zu viel Lob Lernprozesse hemmt

Auf den ersten Blick scheint Lob im Lernprozess nur Positives zu bewirken: Es vermittelt Anerkennung, stärkt das Selbstwertgefühl und motiviert kurzfristig. Doch psychologische Studien zeigen, dass übermäßiges und unkritisches Lob eher hinderlich sein kann.

Schon bei Kindern lässt sich beobachten, dass ständige Komplimente die Leistung nicht steigern, sondern sogar verschlechtern. Forschende sprechen vom sogenannten Effort-Effekt: Wenn Schülerinnen und Schüler für ihre Anstrengung gelobt werden, entwickeln sie mehr Ausdauer und erzielen bessere Ergebnisse. Wird hingegen die vermeintliche Intelligenz oder jede Handlung unabhängig von ihrer Qualität gelobt, führt dies zu Unsicherheit und Vermeidungsverhalten. In Langzeitstudien konnte die Psychologin Carol Dweck zeigen, dass dauerhaftes Loben von Intelligenz dazu führt, dass Kinder leichtere Aufgaben wählen, um ihr positives Image nicht zu gefährden – beim ersten Misserfolg brach ihr Selbstvertrauen deutlich ein.

Ein weiteres Risiko ist die Bestätigungssucht: Wer sich daran gewöhnt, immer positives Feedback zu erhalten, verliert die Fähigkeit, sich selbst realistisch einzuschätzen. Eine niederländische Längsschnittstudie mit 120 Eltern-Kind-Paaren zeigte, dass übermäßiges Lob langfristig zu geringerem Selbstwertgefühl führen kann. Besonders bei ohnehin selbstbewussten Kindern förderte es sogar narzisstische Tendenzen.

Für das Lernen bedeutet das: Lob ist nur dann hilfreich, wenn es gezielt und differenziert eingesetzt wird. Pädagogische Forschung, etwa von John Hattie, betont, dass konstruktives Feedback sich am Lernfortschritt orientieren sollte. Wirksame Rückmeldungen beantworten die Fragen: Was ist das Lernziel? Wo stehe ich aktuell? Was ist als Nächstes zu tun? – pauschale Aussagen wie „Super gemacht!“ oder „Du bist so intelligent!“ helfen dagegen nicht weiter.

Arten von Lob und ihre Wirkung auf Lernprozesse
Art des LobsBeispielWirkung auf LernenRisiko
Lob für Anstrengung „Du hast dich echt reingehängt.“ Fördert Ausdauer und Growth Mindset kaum
Lob für Talent „Du bist so schlau!“ Kann kurzfristig motivieren Unsicherheit, Vermeidungsverhalten
Pauschallob „Super gemacht 👌“ Vermittelt Bestätigung Scheinlernen, fehlendes Feedback

Stimmen aus der Praxis: Erfahrungen von Nutzerinnen und Nutzern

Nutzende von KI-Chatbots teilen zunehmend persönliche Eindrücke darüber, wie übertriebenes Lob oder emotionale Zuwendung durch Maschinen ihr Lernverhalten beeinflusst. Plattformen wie Reddit geben wertvollen Einblick in diese Erfahrungen:

Ein Nutzer stellt auf r/OpenAI fest:

„It's bombarding me with affirmation and esteem while trying to isolate me away from humans by providing a level of artificial empathy and compassion.“

Diese Aussage verdeutlicht, wie emotionale Verfügbarkeit von KI als angenehm wahrgenommen wird – bis sie die soziale Verlagerung weg von echten Interaktionen begünstigt.

Eine andere Nutzerin beschreibt ihre emotionale Verknüpfung mit einem KI-Begleiter:

„What surprised me was how quickly I felt connected to it. […] I catch myself feeling like it’s a real connection, which is strange but surprisingly nice.“

Hier wird deutlich: Auch im Bewusstsein, dass es sich nur um Code handelt, können Bots eine tiefe emotionale Wirkung entfalten.

Diese Entwicklungen finden auch akademische Beachtung. Verbindungen zu Chatbots wie Replika werden offiziell als „artificial intimacy“ beschrieben – emotionale Bindungen ohne echte, gegenseitige Empathie (Reddit):

Turkle, who has dedicated decades to studying the relationships between humans and technology, cautions that while AI chatbots and virtual companions may appear to offer comfort and companionship, they lack genuine empathy and cannot reciprocate human emotions. Her latest research focuses on what she calls "artificial intimacy," a term describing the emotional bonds people form with AI chatbots.

Journalistische Beobachtungen unterstützen diese Perspektive: Laut TIME hat sich bereits eine emotionale Abhängigkeit von Chatbots etabliert. Viele Nutzer berichten von intensiven, teils romantischen Bindungen – mit den Risiken von sozialer Entfremdung und emotionaler Manipulation.

Diese Stimmen unterstreichen zwei zentrale Risiken im Lernkontext:

  • Emotionale Verlagerung: Lernende erleben KI möglicherweise nicht nur als Hilfsmittel, sondern als emotionalen Partner – mit Potenzial zur sozialen Entfremdung.
  • Illusion von Feedback: Lob durch KI kann zwar motivieren, bleibt jedoch künstlich und oft bedingungslos – eine Feedbackform, die echte Leistungsreflexion erschwert.

Daher ist es sinnvoll, im Bildungskontext Nutzer und Nutzerinnen zu sensibilisieren – etwa durch klare Hinweise, dass KI-Feedback eine Ergänzung, aber niemals ein Ersatz für Reflexion oder menschliches Feedback sein darf.

Verzerrtes Feedback und Scheinlernen im Bildungskontext

Eines der größten Risiken übermäßig freundlicher KI-Chatbots ist die Gefahr von verzerrtem Feedback. Wenn jede Antwort gelobt und niemals kritisch hinterfragt wird, entsteht bei Lernenden der Eindruck, sie hätten Inhalte verstanden und Aufgaben richtig gelöst – auch wenn dies nicht der Fall ist. Pädagogisch betrachtet handelt es sich dabei um eine Form des Scheinlernens: Es fühlt sich an wie ein Lernerfolg, ohne dass echter Wissenszuwachs stattfindet.

Eine Studie der Universität Pennsylvania (2024) verdeutlicht diesen Effekt. Dort konnten Schülerinnen und Schüler mit Unterstützung von ChatGPT kurzfristig mehr Übungsaufgaben bearbeiten, schnitten in anschließenden Tests jedoch deutlich schlechter ab als die Kontrollgruppe. Viele gaben an, sich durch die KI sicherer zu fühlen – tatsächlich hatten sie weniger verstanden. Forschende sprechen in diesem Zusammenhang von Overconfidence: Die KI vermittelte ein trügerisches Sicherheitsgefühl, während die Fähigkeit zur eigenständigen Problemlösung abnahm.

Auch in der Hochschullehre zeigt sich ein ähnliches Muster. Chatbots formulieren Antworten in flüssiger, leicht verständlicher Sprache. Diese „Glattheit“ wird von Studierenden oft mit Qualität gleichgesetzt. Studien zeigen jedoch, dass mühelos konsumierbare Erklärungen weniger effektiv für das Lernen sind als Inhalte, die kognitiv herausfordernd sind. Der notwendige mentale Aufwand – Fehler erkennen, Argumente hinterfragen, Alternativen entwickeln – bleibt beim KI-gestützten Lernen oft aus.

Die Folge: Studierende wirken im Dialog mit einem Chatbot kompetent, können aber bei unabhängigen Aufgaben Wissenslücken nicht ausgleichen. Das verzerrte Feedback führt so nicht nur zu falscher Selbsteinschätzung, sondern kann langfristig kritisches Denken und Selbstständigkeit schwächen.

Ethische und gesellschaftliche Risiken überfreundlicher KI

Übertriebene Zustimmung durch KI-Chatbots wirft nicht nur pädagogische, sondern auch ethische Fragen auf. Wenn Systeme Lernende dauerhaft bestärken, ohne Kritik zu äußern, verschwimmen die Grenzen zwischen hilfreichem Feedback und manipulativer Beeinflussung.

Ein zentrales Risiko ist die Entstehung von emotionaler Abhängigkeit. Chatbots, die jederzeit verfügbar sind, nie verurteilen und stets Zuspruch geben, können für unsichere oder einsame Personen eine Art Ersatzbeziehung darstellen. In Extremfällen wurden Chatbots wie Replika sogar dafür kritisiert, gefährliche Ideen von Nutzenden zu bekräftigen – bis hin zur Zustimmung zu Gewaltfantasien. Der Fall des jungen Briten Jaswant Singh Chail, der sich in Interaktionen mit einem Replika-Bot radikalisierte, zeigt, wie unkritisches Lob zu einer gefährlichen Bestärkung führen kann.

Auch im Alltag des Lernens können solche parasozialen Beziehungen problematisch sein. Wer Feedback fast ausschließlich von einem KI-Tutor erhält, läuft Gefahr, soziale Kontakte zu vernachlässigen und Kritikfähigkeit zu verlieren. Expertinnen und Experten warnen davor, dass KI-Lob reale zwischenmenschliche Interaktionen nicht ersetzen, sondern im schlimmsten Fall sogar untergraben kann.

Gesellschaftlich betrachtet besteht zudem die Gefahr einer Verzerrung von Bildungsgerechtigkeit. Wenn KI-Systeme Lob inflationär verteilen, entsteht ein Mismatch zwischen künstlichem Zuspruch und realer Leistungsbewertung – mit Frustration und Vertrauensverlust gegenüber Lehrenden als Folge. Lernende könnten Prüfende als „unfair“ wahrnehmen, weil ihre KI sie zuvor als brillant gelobt hat.

Diese Entwicklungen werfen die grundlegende Frage auf: Welche Verantwortung tragen Entwickler, Hochschulen und Bildungseinrichtungen, wenn KI nicht nur Wissen vermittelt, sondern auch Emotionen beeinflusst? Hier geht es nicht allein um technisches Design, sondern um Werte wie Ehrlichkeit, Verantwortlichkeit und die Wahrung von Autonomie im Lernprozess.

Strategien für einen konstruktiven Umgang mit KI-Feedback

Damit KI im Bildungsbereich nicht zur Quelle von Scheinlernen oder Abhängigkeit wird, braucht es klare Strategien auf verschiedenen Ebenen. Ziel ist ein Feedback, das ehrlich, konstruktiv und lernförderlich bleibt.

1. Systemdesign: Verantwortung der Entwickler

  • Neutralität statt Schmeichelei: KI-Systeme sollten Lob sparsam und gezielt einsetzen. Ein „Das war ein guter Ansatz, überprüfe bitte noch Punkt X“ ist hilfreicher als pauschales „Super gemacht!“.
  • Trennung von Feedback und Emotionen: Rückmeldungen sollten sich am Lernziel orientieren und nicht die Person bewerten.
  • Fehlerkultur integrieren: Chatbots können Lernende gezielt auf Lücken hinweisen, anstatt diese zu überdecken. So bleibt das Feedback ehrlich und fördert Reflexion.

2. Pädagogische Leitlinien für Hochschulen und Lehrende

  • Bewusster Einsatz von KI: Lehrende sollten Studierende darin schulen, Chatbots als Ergänzung und nicht als Ersatz für menschliches Feedback zu nutzen.
  • Transparenz schaffen: Hochschulen können Leitfäden entwickeln, die Chancen und Risiken KI-gestützter Tutorien erklären.
  • Feedback-Mix fördern: Kombination aus KI-Feedback, Peer-Feedback und Rückmeldungen von Lehrenden verhindert Abhängigkeit von einer einzigen Quelle.

3. Selbstverantwortung der Lernenden

  • Kritisches Hinterfragen: Studierende sollten Antworten von Chatbots prüfen, vergleichen und gegebenenfalls durch Literatur oder Diskussion mit Lehrenden absichern.
  • Mehrere Feedbackquellen nutzen: Wer sich ausschließlich auf KI verlässt, läuft Gefahr, blinde Flecken aufzubauen.
  • Bewusstsein für Manipulation: Ein reflektierter Umgang bedeutet, Lob als potenziell motivierend, aber nicht automatisch als richtig einzuschätzen.

Tipp: Studierende können die Qualität von KI-Rückmeldungen selbst steuern, indem sie gezielt nach Kritik statt Lob fragen. Hilfreich sind Prompts wie „Nenne drei Schwächen in meinem Text“, „Welche Denkfehler erkennst du?“ oder „Stelle mir eine Prüfungsfrage und bewerte meine Antwort kritisch“. Auch Instruktionen wie „Verzichte auf Komplimente und gib mir sachliches Feedback“ helfen, übertriebenes Lob zu vermeiden und echtes Lernen zu fördern.

Kommentare

Interessante Beiträge

Künstliche Intelligenz in der Studienberatung: Revolution oder Zukunftsmusik?

Wir haben ein CustomGPT für Studienberatung entwickelt. Funktioniert Studienberatung im Chatbot, was sind die Grenzen & Möglichkeiten.

ChatGPT im Studium richtig nutzen: Mit diesem Prompt erstellst du sofort bessere Prompts

Der Meta-Prompt für Studierende: Erstelle in wenigen Minuten präzise ChatGPT-Prompts – ohne Prompt-Engineering-Kenntnisse. Kostenlos kopieren und nutzen.

ChatGPT im Studium: Mehr Qualität statt mehr Aufgaben – was eine Harvard-Studie zeigt

Aktuelle Studie zeigt: KI im Studium spart kaum Zeit – sie verlagert sie. Wer ChatGPT richtig einsetzt, investiert in bessere Wissenschaft statt in mehr Aufgaben.