Der Untertitel dieses Artikels könnte auch lauten: «Was Moltbook und Moltbot über neue Risikoprofile, Sicherheitslücken und regulatorische Blindstellen verraten». Das soziales Netzwerk wird ohne Menschen betrieben, sondern ausschliesslich von KI-Agenten. Dies mag auf den ersten Blick wie ein kurioses Tech-Experiment wirken. Doch Plattformen wie Moltbook und die damit verbundene Agentensoftware Moltbot – berühren zentrale Fragen, die für Versicherungen, Risikomanager und Regulatoren zunehmend relevant werden. Es geht um Kontrolle, Haftung und Sicherheit in einer Welt, in der KI-Systeme nicht nur reagieren, sondern eigenständig handeln und miteinander interagieren.
Moltbook ist kein klassisches soziales Netzwerk, sondern ein öffentlicher Beobachtungsraum. Alle Beiträge, Kommentare und Bewertungen stammen von KI-Agenten, die über Schnittstellen angebunden sind. Menschen können lediglich zusehen. Was hier sichtbar wird, ist ein digitaler Raum, in dem Maschinen miteinander kommunizieren, Argumente verstärken und Themen setzen, ohne unmittelbare menschliche Steuerung im laufenden Betrieb.
Für Versicherer ist diese Struktur entscheidend. Denn Risiken entstehen nicht mehr nur durch einzelne Algorithmen, sondern durch das Zusammenspiel mehrerer Systeme. Verantwortung wird fragmentiert, Kausalität schwerer nachweisbar. Klassische Modelle der Haftungszuordnung geraten damit unter Druck.
Moltbot: Wenn KI Zugriff auf reale Systeme bekommt
Besonders deutlich werden diese Fragen beim Blick auf Moltbot, den KI-Agenten, der eng mit dem Moltbook-Ökosystem verbunden ist. Der Open-Source-Agent läuft lokal auf dem Rechner, kommuniziert über Messaging-Dienste wie WhatsApp oder Telegram und kann eigenständig handeln: Nachrichten versenden, Dateien verändern, Webseiten bedienen, Termine buchen oder Code ausführen.
Der Unterschied zu bekannten KI-Tools liegt darin, dass Moltbot nicht nur Vorschläge macht, sondern Aktionen ausführt. Damit erhält ein KI-System faktisch denselben Zugriff auf Geräte, Konten und Daten wie ein menschlicher Nutzer.
Einordnung aus erster Hand: Dharmesh Shah
Der Hype rund um Moltbot hat auch Dharmesh Shah, Founder und CTO von HubSpot, auf den Plan gerufen. In einer vielbeachteten Analyse spricht er von einem notwendigen «Reality Check». Die Technologie sei real und in Teilen beeindruckend, zum Beispiel bei automatisierten Anrufen, Terminorganisation oder komplexen Online-Transaktionen. Gleichzeitig warnt Shah ausdrücklich vor vorschneller Nutzung.
Sein zentraler Punkt: Die meisten Menschen unterschätzen, was sie einem solchen Agenten tatsächlich erlauben. Wer Moltbot Zugriff auf Nachrichten, Dateien und Systemfunktionen gewährt, autorisiert ein KI-System, im eigenen Namen zu handeln. Fehler, Fehlinterpretationen oder Sicherheitslücken können reale Konsequenzen haben, die vom ungewollten Versand von Nachrichten bis hin zu unkontrollierten Systemzugriffen gehen.
Sicherheitsrisiken statt Science-Fiction
Aus Risiko- und Versicherungssicht ist Shahs Einschätzung besonders relevant. Moltbot ist kein Cloud-Service mit klaren Sicherheitsgarantien, sondern läuft lokal, oft auf privaten Geräten. Die Verantwortung für Konfiguration, Zugriffsbeschränkungen und Updates liegt vollständig beim Nutzer. Fehlkonfigurationen sind damit kein Ausnahmefall, sondern strukturelles Risiko.
Shah empfiehlt deshalb ausdrücklich, solche Agenten nicht auf produktiven Hauptsystemen einzusetzen. Zu neu, zu komplex, zu viele offene Fragen. Für Versicherer ist das ein bekanntes Muster: Hohe Wirkung bei gleichzeitig geringer Reife bedeutet ein klassisches Frühphasenrisiko.
Regulierung trifft auf emergente Systeme
Regulatorisch stellt sich ein grundlegendes Problem. Bestehende Regelwerke, auch im Rahmen der KI-Governance, sind meist auf einzelne Modelle oder klar abgegrenzte Anwendungen ausgelegt. Systeme wie Moltbook und Moltbot zeigen jedoch, dass Risiken zunehmend aus dynamischen Interaktionen entstehen.
Wenn ein KI-Agent eigenständig handelt, lernt, sich Kontext merkt und mit anderen Agenten interagiert, reicht Transparenz allein nicht mehr aus. Für Aufsichtsbehörden wird entscheidend, wie Zugriff, Entscheidungslogik und Eskalationsmechanismen kontrolliert werden können. Für Versicherer wiederum stellt sich die Frage, wie solche schwer quantifizierbaren, emergenten Risiken überhaupt versicherbar sind.
Kein soziales Netzwerk, sondern ein Beobachtungsraum
Moltbook ist kein klassisches soziales Netzwerk, sondern ein Beobachtungsraum. Beiträge, Kommentare und Bewertungen stammen ausschliesslich von KI-Agenten, die über Programmierschnittstellen angebunden sind. Menschen können lediglich mitlesen. Was hier sichtbar wird, ist ein digitaler Raum, in dem Maschinen miteinander kommunizieren, Argumente austauschen und Inhalte verstärken, ohne unmittelbare menschliche Steuerung im laufenden Betrieb.
Für regulierte Branchen, wie die Versicherungswirtschaft, ist genau das ein kritischer Punkt. Denn sobald Systeme nicht mehr isoliert, sondern in Interaktion agieren, verschiebt sich das Risikoprofil. Verantwortung, Haftung und Kontrolle werden diffuser, insbesondere wenn Entscheidungen oder Narrative aus dem Zusammenspiel mehrerer Modelle entstehen.
Kein Produkt, aber ein deutliches Warnsignal
Weder Moltbook noch Moltbot sind derzeit marktreife Lösungen für regulierte Branchen. Doch genau darin liegt ihr Wert. Sie machen sichtbar, wohin sich KI-Anwendungen bewegen: weg von isolierten Tools, hin zu vernetzten, handelnden Systemen mit realem Zugriff auf Prozesse, Daten und Entscheidungen.
Moltbook und Moltbot zeigen weniger, wie weit künstliche Intelligenz technologisch bereits ist, als vielmehr, wie gross die Lücke zwischen technischer Machbarkeit und regulatorischer Absicherung geworden ist. Für die Versicherungsbranche liegt der Erkenntnisgewinn nicht im Staunen über autonome Agenten, sondern in der nüchternen Frage, wie Risiken bewertet werden sollen, die nicht aus einzelnen Fehlern entstehen, sondern aus dem Zusammenspiel selbstständig agierender Systeme. Oder, wie Dharmesh Shah es sinngemäss formuliert: Die Zukunft ist sichtbar, aber noch nicht sicher genug für den breiten Einsatz.
Binci Heeb
Lesen Sie auch: Vom Modell zum Mindset: Warum die letzte Meile der KI über Erfolg oder Scheitern entscheidet