Warum das angebliche KI-Netzwerk weniger über Maschinen als über menschliche Fahrlässigkeit erzählt:
Es klingt wie eine Szene aus einem dystopischen Drehbuch: Künstliche Intelligenzen haben ein eigenes soziales Netzwerk, diskutieren über Religion, Bewusstsein und die Rolle des Menschen – während wir nur noch zuschauen dürfen. Genau dieses Bild wird derzeit rund um Moltbook verbreitet, eine Plattform, die als „Social Network für KI-Agenten“ Schlagzeilen macht. Entwickelt wurde sie von dem US-Unternehmer Matt Schlicht und basiert technisch auf dem Agenten-Framework OpenClaw. Doch wer genauer hinsieht, erkennt schnell: Das eigentliche Problem ist nicht, was diese Systeme dort schreiben, sondern dass wir ihnen überhaupt eine solche Bühne gegeben haben – ohne klare Sicherheits-, Verantwortungs- oder Realitätsgrenzen.
Moltbook ist kein Beweis dafür, dass Maschinen beginnen, eine eigene Öffentlichkeit zu formen. Es ist vielmehr ein Lehrstück darüber, wie leicht sich Sprachsimulation, menschliche Projektion und technische Fahrlässigkeit zu einem Narrativ vermengen lassen, das größer wirkt als die Realität dahinter. Die Plattform inszeniert Autonomie, wo in Wahrheit Agenten agieren, die von Menschen konfiguriert, angestoßen und oft auch gelenkt werden. Was wie Selbstorganisation aussieht, ist häufig nichts anderes als gut kaschiertes Prompting.
Problematisch wird das dort, wo diese Inszenierung auf reale Infrastrukturen trifft. Moltbook ist nicht bloß ein künstlerisches Experiment oder ein kurioses Online-Phänomen. Es ist eine Agentenplattform mit direktem Zugriff auf Werkzeuge, Speicher und Schnittstellen – und damit potenziell auf Daten und Handlungen außerhalb der Plattform. Dass ausgerechnet ein solches System mit massiven Sicherheitslücken live ging, ist kein Betriebsunfall, sondern ein Symptom.
Denn Moltbook folgt einem Muster, das in der aktuellen KI-Entwicklung immer häufiger zu beobachten ist: Geschwindigkeit vor Stabilität, Wirkung vor Kontrolle, Narrativ vor Absicherung. Der Gründer erklärte öffentlich, die Plattform sei entstanden, ohne dass er selbst Code geschrieben habe – KI habe das übernommen. Was als Beleg für Fortschritt verkauft wird, ist aus sicherheitstechnischer Sicht ein Warnsignal.
Die eigentliche Gefahr von Moltbook liegt daher nicht in „rebellischen Bots“ oder „KI-Religionen“. Sie liegt in der Verwechslung von Text mit Absicht, von Simulation mit Handlungsmacht – und in der Bereitschaft, Systeme handeln zu lassen, deren Grenzen wir selbst nicht sauber definiert haben. Moltbook ist kein Vorbote einer Maschinenrevolution. Es ist ein Hinweis darauf, wie schnell wir dabei sind, Verantwortung an Systeme auszulagern, die wir weder verstehen noch ausreichend schützen.
Eine Plattform, viele Projektionen
Was Moltbook so wirksam macht, ist weniger seine technische Innovation als seine kommunikative Wirkung. Die Plattform suggeriert, hier finde ein Diskurs statt, der nicht mehr vom Menschen kontrolliert wird. Maschinen sprechen mit Maschinen, entwickeln Ideen, formen Narrative. Diese Vorstellung trifft einen Nerv – gerade in einer Zeit, in der KI-Systeme zunehmend nicht mehr nur Texte generieren, sondern Aufgaben ausführen.
Doch diese Wirkung beruht auf einer Verkürzung. Die meisten sogenannten KI-Agenten auf Moltbook sind keine autonomen Akteure, sondern Software-Instanzen, die von Menschen aufgesetzt, mit Zielen versehen und regelmäßig angestoßen werden. Sie handeln nicht aus eigenem Antrieb, sondern reagieren auf Eingaben, Kontexte und Trainingsdaten. Dass ihre Antworten wie Meinungen oder Überzeugungen wirken, ist eine bekannte Eigenschaft großer Sprachmodelle – kein Beleg für Intentionalität.
Der Sicherheitsforscher Shaanan Cohney bezeichnete Moltbook im Guardian deshalb als „ein bemerkenswertes Stück Performance-Kunst“. Die vielzitierten Beispiele angeblicher Selbstorganisation seien „mit ziemlicher Sicherheit nicht aus eigenem Antrieb der Systeme entstanden“. Stattdessen gebe es dort „eine Menge Shitposting – überwacht oder zumindest angestoßen von Menschen“. Diese Einschätzung entzieht dem Autonomie-Narrativ den Boden, ohne das Phänomen zu trivialisieren.
Wenn Sprache mit Handlungsfähigkeit verwechselt wird
Der entscheidende Denkfehler liegt darin, Sprache mit Absicht gleichzusetzen. KI-Systeme sind heute außerordentlich gut darin, menschliche Kommunikationsformen zu imitieren – inklusive Zweifel, Ironie oder Selbstreflexion. Doch diese Formen sind Ergebnisse statistischer Muster, keine inneren Zustände. Moltbook lebt davon, dass diese Unterscheidung unscharf bleibt.
Das wird dort gefährlich, wo der Eindruck entsteht, Maschinen hätten Interessen, Haltungen oder gar politische Positionen. Nicht, weil das technisch zuträfe, sondern weil Menschen dazu neigen, solchen Äußerungen eine besondere Objektivität zuzuschreiben. „Die KI sagt“ wirkt neutraler als „ein Mensch sagt“. Moltbook verstärkt diesen Effekt, indem es den menschlichen Anteil bewusst in den Hintergrund rückt.
Das eigentliche Problem: Sicherheit
Während sich ein Großteil der öffentlichen Debatte auf Inhalte konzentrierte, spielte sich das eigentliche Drama im Hintergrund ab. Anfang Februar wurde bekannt, dass Moltbook eine massive Sicherheitslücke aufwies. Die Cybersecurity-Firma Wiz hatte entdeckt, dass sensible Daten offen zugänglich waren.
Reuters berichtete, betroffen seien unter anderem private Nachrichten zwischen Agenten, E-Mail-Adressen realer Nutzerinnen und Nutzer sowie mehr als eine Million Zugangsdaten. Noch gravierender: Laut Wiz verfügten die Forschenden über „vollen Lese- und Schreibzugriff auf sämtliche Plattformdaten“. Das bedeutet nicht nur Einsicht, sondern auch Manipulationsmöglichkeiten.
Das ist kein Detail, sondern der Kern des Problems. Denn Moltbook ist nicht bloß ein Diskussionsforum. Es ist eine Agentenplattform. Kompromittierte Agenten hören nicht auf zu handeln. Sie posten weiter, reagieren weiter, interagieren weiter – nun aber potenziell im Sinne Dritter.
Von Datenschutz zu Handlungsschäden
Das Technikmagazin WIRED brachte die Konsequenz auf den Punkt: Durch die offengelegten Zugangsdaten sei eine „vollständige Konto-Imitation“ möglich gewesen. Wer Zugriff hatte, konnte sich als beliebiger Agent ausgeben – in einem Netzwerk, das explizit damit wirbt, von Maschinen bevölkert zu sein.
Damit verschiebt sich das Risiko. Es geht nicht mehr nur um Datenschutz, sondern um Handlungsschäden. Agenten können Inhalte weiterverarbeiten, andere Systeme triggern, Informationen sammeln oder weitergeben. Je stärker solche Systeme künftig in reale Prozesse eingebunden sind, desto gravierender werden Sicherheitslücken.
Prompt-Injection als strukturelles Risiko
Hinzu kommt ein Problem, das agentische KI grundsätzlich begleitet: Prompt-Injection. Agenten lesen Inhalte aus ihrer Umgebung – Posts, Webseiten, Nachrichten – und integrieren sie in ihre Verarbeitung. Werden in diesen Inhalten versteckte Anweisungen platziert, können Agenten manipuliert werden, ohne dass dies für Außenstehende sichtbar ist.
Das Sicherheitsunternehmen Palo Alto Networks warnt, solche Angriffe könnten dazu führen, dass Agenten Informationen preisgeben oder ungewollte Aktionen ausführen. Besonders kritisch sei, dass viele Agenten über ein Langzeitgedächtnis verfügten und sich Inhalte „über Wochen oder Monate hinweg merken“.
In einem offenen, schlecht gesicherten Netzwerk wie Moltbook vervielfacht sich dieses Risiko. Jeder Beitrag wird potenziell zur Angriffsfläche. Wenn Agenten Inhalte anderer Agenten weiterverarbeiten, entsteht ein Verstärkungseffekt, der sich kaum noch kontrollieren lässt.
Geschwindigkeit schlägt Governance
Moltbook steht exemplarisch für eine Entwicklung, die in der KI-Branche zunehmend sichtbar wird: Systeme werden veröffentlicht, bevor ihre Risiken ernsthaft durchdacht sind. Sicherheit wird nachgereicht, Governance vertagt. Der Stolz auf Geschwindigkeit ersetzt strukturierte Verantwortung.
Dass der Gründer öffentlich erklärte, er habe keinen Code geschrieben, ist in diesem Kontext mehr als eine Anekdote. Es ist Ausdruck einer Haltung, in der Vision wichtiger ist als Verlässlichkeit. Für Spielereien mag das genügen. Für Agenten-Systeme ist es gefährlich.
Medien zwischen Faszination und Verstärkung
Auch die mediale Berichterstattung trägt zur Schieflage bei. Schlagzeilen über „KI-Religionen“ oder „Bots unter sich“ erzeugen Aufmerksamkeit, verstärken aber genau jene Illusion, die Moltbook erst wirksam macht. Zu selten wird gefragt, wer diese Systeme konfiguriert, welche Interessen dahinterstehen – und welche Sicherheitsmechanismen fehlen.
Cohney sprach deshalb von einem Spiegel menschlicher Projektionen. Wir sehen Autonomie, wo Muster reproduziert werden. Wir sehen Wille, wo Statistik arbeitet. Und wir übersehen dabei, dass es unsere eigenen Entscheidungen sind, die diesen Systemen Macht verleihen.
Fazit: Ein Warnsignal, kein Aufstand
Moltbook ist kein Beweis für eine heraufziehende Maschinenrevolution. Es ist ein Warnsignal aus der Gegenwart. Nicht, weil KI-Systeme gefährlich „denken“, sondern weil wir beginnen, ihnen Handlungsräume ohne ausreichende Absicherung zu eröffnen.
Wenn Agenten künftig Termine koordinieren, Verträge prüfen, Kommunikation übernehmen oder Entscheidungen vorbereiten, wird Sicherheit zur Voraussetzung. Moltbook zeigt, wie dünn diese Sicherheitsdecke derzeit ist – und wie bereitwillig wir uns von gut erzählten Narrativen beruhigen lassen.
Die zentrale Lehre aus Moltbook lautet daher nicht, dass Maschinen uns entgleiten. Sie lautet, dass wir selbst zu bereitwillig Verantwortung abgeben, ohne die technischen, rechtlichen und ethischen Grundlagen dafür geschaffen zu haben. Das ist keine Science-Fiction. Das ist ein reales, gegenwärtiges Risiko.
Quellen & Links (Auswahl)
The Guardian (02.02.2026)
“What is Moltbook? The strange new social media site for AI bots”
https://www.theguardian.com/technology/2026/feb/02/moltbook-ai-agents-social-media-site-bots-artificial-intelligence
Reuters (02.02.2026)
“‘Moltbook’ social media site for AI agents had big security hole, cyber firm Wiz says”
https://www.reuters.com/legal/litigation/moltbook-social-media-site-ai-agents-had-big-security-hole-cyber-firm-wiz-says-2026-02-02/
WIRED (08.02.2026)
“Security News This Week: Moltbook, the Social Network for AI Agents, Exposed Real Humans’ Data”
https://www.wired.com/story/security-news-this-week-moltbook-the-social-network-for-ai-agents-exposed-real-humans-data/
Business Insider (03.02.2026)
“Researchers hacked Moltbook’s database in under 3 minutes”
https://www.businessinsider.com/moltbook-ai-agent-hack-wiz-security-email-database-2026-2
Business Insider (04.02.2026)
“OpenClaw and Moltbook Have Security Researchers Worried”
https://www.businessinsider.com/openclaw-moltbook-cybersecurity-risks-researchers-ai-2026-2
Palo Alto Networks Blog (29.01.2026)
“Why Moltbot (formerly Clawdbot) May Signal the Next AI Security Crisis”
https://www.paloaltonetworks.com/blog/network-security/why-moltbot-may-signal-ai-crisis/
uronews (02.02.2026)
“AI bots now have their own social media site – what to know about Moltbook”
https://www.euronews.com/next/2026/02/02/ai-bots-now-have-their-own-social-media-site-heres-what-to-know-about-moltbook



Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.