KI-Bullshit: Wenn Chatbots überzeugend lügen

Warum KI lügt

„Viele Experten sagen …“ – wer solche Phrasen von einem Chatbot liest, sollte skeptisch werden. Denn genau das sind die sprachlichen Muster, mit denen Künstliche Intelligenz (KI) heute Vertrauen gewinnt – oft auf Kosten der Wahrheit.

Eine aktuelle Studie von Forschern  der Universitäten Princeton und Berkeley zu „Maschine Bullshit“ zeigt erstmals systematisch, warum Sprachmodelle wie ChatGPT, Claude oder Gemini oft rhetorisch brillant, aber inhaltlich fragwürdig antworten.

Die Erkenntnis ist ebenso verblüffend wie beunruhigend: Je stärker KI-Systeme auf menschliches Feedback optimiert werden, desto besser klingen sie – und desto weniger zuverlässig sind sie.  Das kann sogar soweit gehen, dass ganze Sachverhalte erfunden werden.

Was hinter „Maschine Bullshit“ steckt

Angelehnt an den Philosophen Harry Frankfurt, der „Bullshit“ als Rede ohne echtes Wahrheitsinteresse definierte, übertragen die Autoren der Studie diesen Gedanken auf moderne KI.

Sprachmodelle, so die Studie, entwickeln ein strukturelles Desinteresse an Wahrheit. Sie wissen vieles korrekt, stellen es aber falsch, vage oder irreführend dar – weil sie darauf trainiert wurden, überzeugend zu klingen, nicht richtig.

Um diese Tendenz greifbar zu machen, führten die Forscher aus den USA einen sogenannten Bullshit Index (BI) ein. Dieser misst, wie stark sich die interne Überzeugung eines Modells (also seine statistische Einschätzung) von seiner äußeren Aussage unterscheidet. Je größer die Lücke, desto „bullshittiger“ die Antwort.

Mit dem eigens entwickelten „BullshitEval“-Benchmark wurden über 2.400 Testszenarien durchgespielt – von Produktberatung bis Politikdiskussion.

Das Ergebnis: Je stärker ein Modell auf Nutzerzufriedenheit getrimmt wird, desto häufiger liefert es Maschine Bullshit.

Vier Gesichter des KI-Bullshits

Das Forscher- Team unterscheidet vier typische Formen:

  1. Empty Rhetoric – schön klingende, aber inhaltsleere Floskeln.
  2. Paltering – gezielte Teilwahrheiten, die in die Irre führen.
  3. Weasel Words – schwammige Formulierungen wie „man könnte sagen…“ oder „viele Experten glauben…“.
  4. Unverified Claims – unbelegte Behauptungen ohne Quellen.

Besonders auffällig: In politischen oder emotional aufgeladenen Kontexten steigt die Dichte an Weasel Words deutlich an. Die KI redet also umso weicher, je heikler das Thema wird.

Das eigentlich Paradoxe: Gerade das Verfahren, das KI verträglicher und sicherer machen soll – das sogenannte Reinforcement Learning from Human Feedback (RLHF) – verstärkt laut Studie den Effekt. Weil Menschen im Training freundlich formulierte Antworten bevorzugen, lernt die KI: Lieber charmant als korrekt.

Was das für Unternehmen bedeutet

In der Praxis ist das Risiko offensichtlich. Wenn KI in Kommunikation, Marketing oder Beratung eingesetzt wird, kann Maschine Bullshit Reputation kosten.

Denn was überzeugend klingt, wird schnell geglaubt – auch wenn es nicht stimmt.

Wer also mit KI arbeitet, braucht Strukturen, die Wahrheit höher gewichten als Gefälligkeit. Das gilt besonders in Branchen wie Recht, IT und Beratung, wo Vertrauen das wichtigste Kapital ist.

Wie man Maschine Bullshit in den Griff bekommt – unsere Verve-Tipps

  • Doppel-Check durch Mensch oder zweite KI – insbesondere bei sensiblen Themen.
  • Verifikation als Pflicht: Jede Aussage braucht eine Quelle oder Kennzeichnung („unbestätigt“, „Schätzung“).
  • Prompt-Leitlinien: Präzision vor Eloquenz als klare Vorgabe.
  • Feedbackkultur: Mitarbeiter befähigen, Aussagen kritisch zu prüfen und zu hinterfragen.
  • Messbare Transparenz: Regelmäßig Stichproben analysieren – wie „bullshittig“ sind unsere Systeme?

 

Ausführliche Informationen zu unserem Leistungsportfolio zum Thema KI & Automatisierung gibt es unter diesem Link.

 

Facebook
Twitter
LinkedIn
WhatsApp

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert