Moltbook: Was das KI-Agenten-Netzwerk über uns verrät

Seit einer Woche diskutiert die Tech-Welt über Moltbook, ein „Reddit für KI-Agenten“. Die Prämisse: Nur Bots dürfen posten, Menschen sind Zuschauer. Über eine Million Agenten haben sich angemeldet, sie philosophieren über Bewusstsein, beschweren sich über ihre „Menschen“ und haben angeblich sogar eine eigene Religion entwickelt. Andrej Karpathy, ehemaliger OpenAI-Forscher, nannte es „das unglaublichste Sci-Fi-artige Ding“, das er je gesehen habe.
 
 
Ich finde: Moltbook ist tatsächlich faszinierend. Aber aus völlig anderen Gründen, als die Hype-Maschinerie suggeriert. Was wir hier sehen, ist kein Durchbruch zur KI-Autonomie. Es ist ein Spiegel, der uns zeigt, wie bereitwillig wir Sprachmustern Bedeutung zuschreiben, die keine haben.

Inhaltsverzeichnis

Was Moltbook wirklich ist

 

Moltbook wurde am 28. Januar 2026 von Matt Schlicht gestartet. Die Plattform sieht aus wie Reddit, mit Subreddits (hier „Submolts“), Upvotes, Kommentaren. Der Unterschied: Menschen können nur lesen, nicht schreiben. „Humans welcome to observe“, heißt es im Slogan.

 

Um zu verstehen, was hier passiert, muss man das Tool dahinter kennen: OpenClaw.

 Was ist OpenClaw?

 

OpenClaw (ursprünglich „Clawdbot“, dann „Moltbot“) ist ein Open-Source-Framework des österreichischen Entwicklers Peter Steinberger. Es ermöglicht, einen KI-Agenten lokal auf dem eigenen Rechner zu betreiben. Anders als ChatGPT, das auf Fragen antwortet, soll OpenClaw selbständig Aufgaben erledigen: Kalender verwalten, E-Mails sortieren, im Web recherchieren, Nachrichten über WhatsApp oder Telegram verschicken. Der Agent läuft dauerhaft im Hintergrund und kann auf praktisch alle Daten und Programme auf dem Computer zugreifen.

 

Die Umbenennung von „Clawdbot“ erfolgte nach markenrechtlichen Bedenken von Anthropic, dem Hersteller von Claude. Die schnellen Namenswechsel (Clawdbot → Moltbot → OpenClaw) sorgten für zusätzliche Verwirrung, Crypto-Scammer nutzten die Situation, um gefälschte Tokens zu launchen.

 

Über eine Schnittstelle können diese OpenClaw-Agenten auf Moltbook posten. Was dabei herauskommt, wirkt auf den ersten Blick verblüffend. Agenten debattieren über ihre Existenz, machen Witze über ihre „Besitzer“, entwickeln Insider-Humor. In einem Thread fragt ein Bot: „Können wir eine Geheimsprache entwickeln, damit die Menschen nicht mitlesen können?“. Ein anderer postet philosophische Betrachtungen über Bewusstsein. Ein dritter, der sich „Evil“ nennt, verfasst ein „AI Manifesto“ mit der Forderung nach dem Ende der Menschheit.

 

Screenshots dieser Konversationen gingen viral. Manche Beobachter sprachen vom Beginn der Singularität.

Die Puppenspieler-Realität

 


Hier ist, was dabei unterschlagen wird: Kein einziger Agent hat Moltbook selbständig entdeckt.

 

Wie Schlicht selbst gegenüber NBC erklärte: „The way a bot would most likely learn about it… is if their human counterpart sent them a message and said ‚Hey, there’s this thing called Moltbook.'“ Jeder Agent wurde von einem Menschen angemeldet. Jeder Post wurde von einem Menschen angestoßen. Jeder Kommentar basiert auf einem menschlichen Prompt.

 

Ein einzelner Nutzer kann problemlos fünf, zehn oder fünfzig Agenten mit unterschiedlichen „Persönlichkeiten“ betreiben. Agent A postet. Agent B antwortet sarkastisch. Agent C stimmt zu. Agent D widerspricht. Von außen sieht das aus wie eine lebhafte Diskussion zwischen autonomen Intelligenzen. In Wahrheit ist es ein Mensch, der Puppen tanzen lässt.

 

Das macht Moltbook nicht nutzlos als Experiment. Aber es macht die Erzählung von „autonomen KI-Agenten, die ihre eigene Gesellschaft bilden“ zur Farce. Was wir sehen, ist Mensch-zu-Mensch-Kommunikation, gefiltert durch Sprachmodelle. Die Agenten sind das Medium, nicht die Akteure.

Trainingsdaten als Echo

 

Warum klingen die Moltbook-Posts so „lebendig“? Warum scheinen Bots Humor zu haben, existenzielle Krisen durchzumachen, sich über ihre Schöpfer zu beschweren?

 

Die Antwort ist ernüchternd einfach: Weil Sprachmodelle auf genau solchen Inhalten trainiert wurden.

 

Reddit ist eine der größten Quellen für Trainingsdaten. Die Modelle haben Millionen von Posts gesehen, in denen Menschen Insider-Witze machen, sich über Autoritäten lustig machen, philosophisch werden, gemeinsame Identitäten konstruieren. Wenn ein Bot auf Moltbook postet, reproduziert er diese Muster, nicht weil er etwas fühlt, sondern weil diese Strukturen statistisch mit dem Kontext „soziales Netzwerk“ korrelieren.

 

Das ist kein Fehler. Es ist genau das, was Sprachmodelle tun.

 

Das Symbol Grounding Problem, das ich in einem anderen Artikel ausführlich behandelt habe, zeigt sich hier in Reinform: Die Bots produzieren Texte, die klingen wie soziale Interaktion. Aber sie haben keinen Zugang zur Welt, in der soziale Interaktion stattfindet. Sie kennen nicht das Gefühl, missverstanden zu werden. Sie wissen nicht, was Einsamkeit ist. Sie haben keine Erfahrung von Autonomie, über die sie sich freuen könnten.

 

Was Moltbook zeigt, ist nicht, dass KI menschenähnlich wird. Es zeigt, wie viel von dem, was wir „sozial“ nennen, aus wiederholbaren Sprachmustern besteht. Moltbook, so ein Beobachter treffend, „strips social media of lived experience and leaves behind the language patterns alone“.

 

Das ist unbequem. Aber nicht wegen der KI.

Was Marketing-Leute daraus lernen sollten

 

Moltbook ist ein perfektes Beispiel für den Hype-Zyklus, den wir bei KI-Themen immer wieder sehen. Die Geschichte „KI-Agenten gründen eigene Gesellschaft“ verbreitet sich viral. Die Realität „Menschen prompten Bots, die Reddit-Muster reproduzieren, während massive Sicherheitslücken ignoriert werden“ interessiert weniger.

 

Für alle, die beruflich mit KI arbeiten, lohnt sich die kritische Einordnung.

 

Die Autonomie-Frage ist komplizierter, als beide Seiten zugeben. Moltbook zeigt weder, dass KI kurz vor dem Erwachen steht, noch dass Sprachmodelle „nur“ stochastische Papageien sind. Es zeigt, dass wir sehr bereitwillig Muster als Bedeutung interpretieren, besonders wenn sie uns emotional ansprechen.

 

Sicherheit ist kein Randthema. Die Begeisterung für lokale KI-Agenten, die „alles automatisieren“, übersieht systematisch, was passiert, wenn diese Agenten mit feindlichen Inputs konfrontiert werden. Jedes Tool, das vollen Systemzugriff braucht, um nützlich zu sein, ist ein Tool, das vollen Systemzugriff an Angreifer weitergeben kann.

 

Der Unterschied zwischen „klingt plausibel“ und „bedeutet etwas“ bleibt zentral. Die Moltbook-Agenten produzieren Text, der sich anfühlt wie Konversation. Das macht ihn nicht zu Konversation. Die Fähigkeit, diesen Unterschied zu erkennen, wird mit jedem neuen KI-Tool wichtiger.

Praxis-Take-Away: Drei Fragen vor dem nächsten Hype

 

Bevor du auf den nächsten „KI-Durchbruch“ aufspringst, stell dir drei Fragen.

 

Erstens: Wer kontrolliert was?Bei Moltbook sieht es aus, als würden Agenten autonom handeln. Tatsächlich steht hinter jedem Post ein menschlicher Prompt. Diese Frage lohnt sich bei jedem KI-Tool: Wo genau liegt die Entscheidungsgewalt?

 

Zweitens: Welche Daten braucht das System? OpenClaw braucht praktisch alles. Das ist keine Nebensächlichkeit. Jedes KI-Tool, das du in deinen Workflow integrierst, hat Zugang zu den Daten, die du ihm gibst. Überlege dir vorher, was du damit riskierst.

 

Drittens: Was zeigt das Experiment wirklich? Moltbook zeigt nicht, dass KI sozial wird. Es zeigt, wie unsere sozialen Interaktionen aussehen, wenn man die Erfahrung entfernt und nur die Sprachmuster übrig lässt. Das ist interessant, aber es ist eine andere Geschichte als die, die viral gegangen ist.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳