Warum KI halluziniert: Das Symbol Grounding Problem erklärt

ChatGPT kann brillante Texte schreiben. Claude erklärt komplexe Zusammenhänge. Midjourney malt fotorealistische Bilder. Und trotzdem passiert in unseren Seminaren immer wieder dasselbe: Teilnehmer lassen sich hundert Kampagnen-Ideen generieren, und setzen keine einzige davon um. Nicht aus Faulheit. Sondern weil sie spüren, dass etwas fehlt. Dieses „Etwas“ hat einen Namen, der älter ist als ChatGPT: das Symbol Grounding Problem.
Illustration von Vroni Hackl
Der Comic oben bringt es auf den Punkt. Menschen übersetzen die Welt in Sprache. Wir haben Äpfel angefasst, bevor wir „Apfel“ sagen konnten. Wir kennen den Geruch von Regen, das Gefühl von Enttäuschung, den Geschmack von zu starkem Kaffee. Wenn wir sprechen, greifen unsere Worte auf diese Erfahrungen zurück.
 
KI hat keine Welt. Sie hat Texte über die Welt.

Inhaltsverzeichnis

Das Wörterbuch-Problem

 


Der Kognitionswissenschaftler Stevan Harnad hat das Problem 1990 so formuliert: Stell dir vor, du versuchst Chinesisch zu lernen, aber du hast nur ein chinesisch-chinesisches Wörterbuch. Du schlägst ein Zeichen nach. Die Erklärung besteht aus anderen Zeichen. Du schlägst diese nach. Wieder neue Zeichen. Du könntest ewig weitermachen und würdest trotzdem nie verstehen, was irgendeines dieser Zeichen bedeutet.

 

Genau das ist die Situation von Sprachmodellen. Sie wurden mit Milliarden von Texten trainiert, in denen Worte auf andere Worte verweisen. „Apfel“ kommt oft in der Nähe von „rot“, „süß“, „Baum“ vor. Das Modell lernt diese statistischen Muster perfekt. Aber es hat nie einen Apfel gesehen, geschmeckt oder gepflückt.

 

Die Linguistin Emily Bender hat dafür 2021 den Begriff „stochastischer Papagei“ geprägt: ein System, das Sprachmuster aneinanderreiht, ohne Bezug zur Bedeutung. Der Begriff ist polemisch, und ich halte ihn für zu einfach. Aber er trifft einen Kern.

Warum das kein akademisches Problem ist

 


Die praktischen Konsequenzen begegnen uns täglich.

 

Halluzinationen sind das offensichtlichste Symptom. Wenn ChatGPT eine Quelle erfindet, die nicht existiert, dann liegt das nicht an einem Bug. Das Modell hat gelernt, dass auf bestimmte Fragen bestimmte Muster folgen – „laut einer Studie von…“. Es füllt die Lücke mit statistisch plausiblem Text. Ob die Studie existiert, kann es nicht wissen. Es hat keinen Zugang zur Welt, in der Studien existieren oder nicht.

 

Leere Formulierungen sind subtiler. KI-Texte klingen oft seltsam generisch, nicht weil das Modell schlecht promptet wurde, sondern weil es keinen Unterschied kennt zwischen einer Aussage, die etwas bedeutet, und einer, die nur so klingt. „In der heutigen schnelllebigen Welt“ ist statistisch häufig. Also kommt es oft vor. Dass der Satz nichts sagt, kann das Modell nicht erkennen.

 

Keine Relevanz-Unterscheidung ist vielleicht das größte Problem für die Praxis. Wenn du ChatGPT bittest, dir zehn Kampagnen-Ideen für dein Produkt zu generieren, liefert es zehn Ideen. Ob davon drei brillant sind und sieben Unsinn, das kann das Modell nicht beurteilen. Es kennt dein Produkt nicht wirklich. Es kennt deine Kunden nicht. Es kennt die Welt nicht, in der deine Kampagne funktionieren müsste.

Die Gegenposition, und warum sie teilweise stimmt

 


Ich will hier nicht den Fehler machen, KI als „nur“ ein statistisches System abzutun. Die Debatte hat mehr Schichten.

 

Aktuelle Forschung zeigt, dass große Sprachmodelle intern durchaus etwas wie „Weltmodelle“ entwickeln, Repräsentationen, die über bloße Wortstatistik hinausgehen. In bestimmten Tests zeigen sie Verständnis für räumliche Beziehungen, logische Zusammenhänge, sogar physikalische Intuition.

 

Und bei Bildgenerierung wie Diffusion Models entsteht tatsächlich Neues. Das sind keine Collagen aus Trainingsbildern. Die Modelle haben offenbar etwas über die Struktur von Bildern gelernt, das generalisiert.

 

Also: Ist das Symbol Grounding Problem gelöst?

 

Nein. Aber es ist komplizierter als „KI versteht nichts“.

Warum tausend Kampagnen nichts bringen

 

 

Ich erlebe regelmäßig in Seminaren: Teilnehmer entdecken, wie schnell ChatGPT Ideen generiert. Sie lassen sich hundert Slogans, fünfzig Zielgruppen-Personas, dreißig Content-Pläne erstellen. Und dann passiert, nichts. Die Ideen liegen rum. Keine wird umgesetzt.

 

Das ist kein Motivationsproblem. Das ist ein Grounding-Problem.

 

Die KI hat diese Kampagnen aus Worten über Marketing-Kampagnen zusammengesetzt. Die Teilnehmer spüren intuitiv, dass die Vorschläge nicht „geerdet“ sind, nicht in ihrer Branche, nicht bei ihren Kunden, nicht in ihrer Realität. Die Ideen klingen plausibel, aber sie fühlen sich leer an.

 

Die Lösung ist nicht, bessere Prompts zu schreiben. Die Lösung ist, die Verbindung zur Welt selbst herzustellen. Die KI liefert Rohmaterial. Die Übersetzung von Worten in Welt, das bleibt menschliche Arbeit.

Welt bleibt Welt

 

KI ist ein beeindruckendes Werkzeug. Sie wird besser werden. Multimodale Modelle, die Bilder und Text verarbeiten, könnten das Grounding-Problem teilweise entschärfen. Vielleicht werden zukünftige Systeme etwas entwickeln, das wir „Verständnis“ nennen würden.

 

Aber heute, im Jahr 2026, gilt: Wenn du mit KI arbeitest, arbeitest du mit einem System, das Worte in Worte übersetzt. Es kennt nicht deine Kunden. Es kennt nicht deinen Markt. Es kennt nicht die Welt, in der deine Arbeit bestehen muss.

 

Das macht KI nicht nutzlos. Es macht sie zu dem, was sie ist: ein Werkzeug, das von Menschen geführt werden muss, die die Welt kennen.

 

Die wirklich wichtige Kompetenz ist nicht, KI besser prompten zu können. Es ist, die Brücke zwischen den Worten und der Welt selbst zu bauen.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳