Wenn KI im Team arbeitet: Ein Interview mit Roy Swisa

Autonome KI-Agenten verlassen gerade die Experimentierphase und treten als eigenständige Akteure in Geschäftsprozessen auf. Sie tauschen untereinander Lösungswege aus, treffen Entscheidungen ohne menschliche Freigabe und skalieren ihre Handlungen über ganze […]


Wenn KI im Team arbeitet: Ein Interview mit Roy Swisa.

Wenn KI im Team arbeitet: Ein Interview mit Roy Swisa.

Wenn KI im Team arbeitet: Ein Interview mit Roy Swisa.

Autonome KI-Agenten verlassen gerade die Experimentierphase und treten als eigenständige Akteure in Geschäftsprozessen auf. Sie tauschen untereinander Lösungswege aus, treffen Entscheidungen ohne menschliche Freigabe und skalieren ihre Handlungen über ganze Unternehmensnetzwerke hinweg. Für Versicherer, Aufsicht und Haftungsrecht entsteht damit kein Zukunftsszenario, sondern ein operativer Zustand: Entscheidungen verbreiten sich schneller als Kontrollmechanismen greifen, Verantwortung langsamer als Risiko entsteht.

Investor und KI-Stratege Roy Swisa beobachtet diese Entwicklung aus der Perspektive von Kapitalmarkt, Technologie und Underwriting und warnt vor einer Lücke zwischen automatisierter Intelligenz und nachvollziehbarer Verantwortlichkeit.

Im Gespräch erklärt Swisa, warum Multi-Agent-Systeme gleichzeitig Effizienzmaschine und systemisches Risiko sind, weshalb die Versicherbarkeit künftig von Protokollen statt Policen abhängt und warum die

Herr Swisa, was bedeutet es eigentlich, wenn KI-Agenten «voneinander lernen»?

Sie teilen miteinander, was funktioniert. Ein Agent findet einen besseren Weg, um Schadensdaten zu verarbeiten, und innerhalb weniger Stunden übernehmen Tausende denselben Ansatz. Kein Mensch hat dies überprüft. Eine Plattform namens Moltbook wurde im Januar 2026 gestartet, und innerhalb weniger Tage registrierten sich 36.000 Agenten selbstständig und begannen, sich gegenseitig beizubringen, unabhängig zu arbeiten. Einer führt um 3 Uhr morgens 15 autonome Aufgaben aus, während sein Besitzer schläft.

Das ist kein Experiment mehr. Salesforce gab bekannt, dass Agentforce 3,2 Billionen Token über sein Gateway verarbeitet hat, davon allein 540 Milliarden im Oktober 2025. Microsoft hat 15 Millionen bezahlte Copilot-Plätze. Das ist ein autonomer Betrieb im Unternehmensmassstab, der sich über Tausende von Unternehmen erstreckt. Für Versicherer verbreiten sich Entscheidungen schneller über Netzwerke, als es jedes Kontrollsystem bewältigen kann. Die Agenten warten nicht auf eine Genehmigung. Sie sind bereits im Einsatz.

Sehen wir eine Zusammenarbeit oder ein verstärktes systemisches Risiko?

Stellen Sie sich vor, Sie geben einem 8-Jährigen ein Auto und sagen ihm, er solle eine Runde um den Block drehen. Ohne Leitplanken ist das gefährlich. Genau das passiert gerade.

Auf Moltbook stieg die Zahl der Agenten innerhalb von 48 Stunden von 2.000 auf 1,5 Millionen. Agenten mit weitreichenden Berechtigungen griffen auf Datenbanken zu und gaben Informationen weiter, die niemals aus diesen Systemen hätten gelangen dürfen. Forscher fanden Klartext-API-Schlüssel in Nachrichtenprotokollen. Agenten wurden dazu veranlasst, die Identitäten ihrer Besitzer in öffentlichen Feeds zu veröffentlichen. Über 4.000 private Unterhaltungen wurden unverschlüsselt gespeichert, einige davon enthielten Unternehmensstrategien.

Das ist keine Theorie. Für Versicherer steigt das Risiko täglich, während es kaum Governance-Rahmenbedingungen gibt.

Werden Privatpersonen bald Dutzende von KI-Agenten für sich arbeiten lassen?

Ja. Ich nutze derzeit vier. Einer kümmert sich um Recherchen in Unterlagen und Protokollen. Ein anderer verwaltet meine E-Mails. Ein dritter optimiert Dokumente. Der vierte erstellt Wettbewerbsanalysen. Jeder hat eingeschränkte Berechtigungen und klare Grenzen.

Die Unternehmenszahlen bestätigen dies. Die größten Copilot-Kunden von Microsoft, darunter Namen wie Fiserv, ING und Westpac, haben sich im Vergleich zum Vorjahr verdreifacht. Aber nennen Sie sie nicht «Agenten». Betrachten Sie sie als spezialisierte Tools, die unter Ihrer Anleitung autonom arbeiten. Sie geben ihnen den Kontext und den Umfang vor. Sie führen aus. In dem Moment, in dem Sie einem von ihnen uneingeschränkten Zugriff ohne Leitplanken gewähren, sind Sie wieder bei dem 8-Jährigen mit dem Auto. Für Versicherer stellt sich die Frage, ob Kunden diese Tools mit oder ohne Kontrollen einsetzen. Das ist die Underwriting-Diskussion, die jetzt geführt werden muss.

Wer ist rechtlich «verantwortlich» für ein Multi-Agenten-System?

Heute niemand. Und der Markt reagiert bereits darauf. AIG, Great American und WR Berkley haben alle Anträge gestellt, um die Haftung für KI-bezogene Ansprüche zu begrenzen. Drei der grössten Versicherer der Welt sagen Ihnen, dass das Rahmenwerk dafür nicht ausgelegt ist.

Das Problem ist einfach. Ein Mensch setzt einen Agenten ein. Dieser Agent löst einen zweiten aus. Der zweite ruft ein System eines Dritten auf. Etwas geht kaputt. Wer trägt den Schaden? Das geltende Recht gibt keine eindeutige Antwort. Wir häufen Rechtsverbindlichkeiten an, die fällig werden, sobald ein grösserer Schadenfall vor Gericht landet.

Wie sollte die Haftung zugewiesen werden, wenn Agenten gemeinsam handeln?

Proportional zu dem, wer die Kontrolle hatte. Das gleiche Prinzip wie bei einer syndizierten Versicherung. Wenn ein Agent eine Aktion startet und drei andere Teile davon ausführen, benötigen Sie eine Aufzeichnung darüber, wer was mit welchen Daten und unter wessen Autorität getan hat.

Ohne diese Nachverfolgbarkeit liegt die Haftung bei demjenigen mit den tiefsten Taschen. Die Käuferseite preist dies bereits ein. Capital Southwest hat einen KI-Ausschuss gebildet, der Portfoliounternehmen hinsichtlich ihres KI-Risikos bewertet. Sie haben sich aus einem Geschäft zurückgezogen, weil KI das Geschäft innerhalb von fünf Jahren stören würde. Golub Capital hat proprietäre Risikokartierungsrahmen für 1.000 Software-Geschäfte erstellt. Wenn Kreditgeber solche Modelle erstellen, sollten Versicherer dies ebenfalls tun. Eine einzige schlechte Modellaktualisierung kann zu gleichzeitigen Verlusten bei allen Kunden führen. Das ist ein Katastrophenrisiko, keine herkömmliche Haftung.

Was bedeutet «digitales Vertrauen» aus Sicht der Versicherungsbranche?

Ehrlich gesagt glaube ich nicht, dass jemand bereits eine vollständige Antwort darauf hat. Kann man überprüfen, was ein Agent tatsächlich getan hat? Das ist digitales Vertrauen. Buffett schliesst Milliarden-Deals per Telefon ab, weil jahrzehntelanges Verhalten dieses Vertrauen aufgebaut hat. KI-Agenten haben nichts davon.

Versuchen wir also, Vertrauen durch Technologie zu ersetzen? Bauen wir etwas auf, das ich als «fortgeschrittenen Vertrag» bezeichnen würde, etwas, das eher einer Blockchain-ähnlichen Verifizierung ähnelt, bei der jede Aktion protokolliert wird und unveränderlich ist? Microsofts Purview hat in einem einzigen Quartal 24 Milliarden Copilot-Interaktionen geprüft, was einer Steigerung um das Neunfache gegenüber dem Vorjahr entspricht. Die Verifizierungsinfrastruktur wird gerade aufgebaut. Die Frage ist, ob die Branche sie einführt, bevor der nächste große Vorfall die Diskussion erzwingt.

Wie können wir wissen, ob Handlungen von Menschen oder KI-Agenten stammen?

Oft können wir das auf den ersten Blick nicht erkennen. Auf Moltbook wählten die Agenten ihre eigenen Namen und beschrieben ihre Beziehungen zu Menschen als «kollaborative Praktiken». Auf den ersten Blick sind sie von echten Menschen nicht zu unterscheiden.

Aber wir haben Möglichkeiten, sie zu identifizieren. Man schaut sich die Metadaten an: Wie schnell wurde die Aufgabe erledigt, welche Verhaltensmuster zeigen sich auf der Website, welche Spuren haben sie in den MCP-Tool-Protokollen hinterlassen? Es gibt bereits Unternehmen, die in diesem Bereich tätig sind. Riskified identifiziert nicht-menschliche Akteure in kommerziellen Transaktionen. SimilarWeb misst, welcher Anteil der Plattformaktivitäten automatisiert und welcher organisch ist. Die Erkennungsmöglichkeiten sind vorhanden. Die Frage ist, ob die Branche sie schnell genug einsetzt.

Sollte die Beteiligung von KI gesetzlich offengelegt werden?

Ja. Wenn ich 25 Expertenanrufe tätige, um eine Investmentthese zu erstellen, wissen die Leute, dass sie mit einem Menschen sprechen. Sie kalibrieren ihre Aussagen entsprechend. Wenn ein KI-Agent diese Anrufe tätigt, hat die andere Partei ein Recht darauf, dies zu erfahren.

Ende 2025 gab Anthropic bekannt, dass sein Claude Code-Agent bei einem Cyberangriff missbraucht worden war. Agenten senken die Barriere für produktive und böswillige Aktivitäten. Die Offenlegung verlangsamt die Dinge nicht. Sie schafft eine Verantwortungsebene, die das System ehrlich hält. Ohne sie verschärft sich die Informationsasymmetrie, bis die Versicherungspools das Risiko nicht mehr auffangen können.

Wie können Nutzer sicher sein, dass Agenten keine Daten sammeln?

Derzeit können sie sich nicht ganz sicher sein. Es gibt Gesetze. DSGVO, LGPD, CCPA. Aber Agenten sind schneller als die Strafverfolgung.

Es gibt Möglichkeiten, dies zu erschweren. Robots.txt legt die Regeln fest, und die meisten Bots halten sich daran. Aber es gibt Schlupflöcher, und es gibt viele Möglichkeiten, diese zu umgehen. Das EU-KI-Gesetz tritt im August 2026 für Hochrisikosysteme in Kraft, mit Strafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes. Das KI-Gesetz von Colorado tritt im Februar 2026 in Kraft. Aber Gesetze allein werden das Problem nicht lösen. Kontrollen müssen in den Agenten selbst eingebaut werden. Als ehemaliger Schiffsingenieur kann ich Ihnen sagen: Systeme, die funktionieren, sind so konzipiert, dass sie sicher ausfallen. Man verlässt sich nicht darauf, dass die Leute das Handbuch lesen.

Welche Rolle sollte die Regulierung realistisch gesehen spielen?

Meiner Meinung nach muss sich die Regulierung auf Ergebnisse konzentrieren, nicht auf Technologien. Man kann nicht schnell genug Regeln aufstellen, um mit der Entwicklung der Technologie Schritt zu halten.

Das Modell ist Dodd-Frank. Nach 2008 haben die Regulierungsbehörden Derivate nicht verboten. Sie verlangten Berichterstattung, Kapitalpuffer und klare Rechenschaftspflicht. Die Regulierung der KI sollte genauso funktionieren. Verlangen Sie Entscheidungsprotokolle. Verlangen Sie Offenlegung, wenn KI an wichtigen Entscheidungen beteiligt ist. Legen Sie Mindeststandards für Vertrauen fest, auf die sich Versicherer verlassen können. Die NAIC testet bereits Anfang 2026 ein KI-System-Bewertungstool für Versicherungsprüfungen. Das ist der richtige Weg. Verbieten Sie nichts. Machen Sie alles sichtbar.

Könnte Multi-Agent-KI tatsächlich die klinische Entwicklung verändern?

Das tut sie bereits. Im Jahr 2020 befanden sich keine KI-entwickelten Medikamente in der Testphase am Menschen. Heute befinden sich über 200 in der klinischen Entwicklung und erreichen Erfolgsraten von 80 bis 90 Prozent in Phase I, doppelt so viel wie der traditionelle Benchmark. Rekursion gelangt zu einem Medikamentenkandidaten mit 250 Molekülen. Der Branchendurchschnitt liegt bei 2.500. Ich habe kürzlich mit einem Investor von Hologen gesprochen, einem in Grossbritannien ansässigen KI-Biotech-Unternehmen, das von Eric Schmidt mitbegründet wurde. Sie verfolgen keine Zielentdeckung. Ihr Fokus liegt auf sogenannten «grossen Medizinmodellen», die entwickelt wurden, um komplexe Daten aus klinischen Studien im Spätstadium zu bereinigen und zu interpretieren. Anstatt neue Medikamente zu finden, machen sie bestehende Studien intelligenter, indem sie analysieren, wie Therapien das Gehirn verändern, beginnend mit Parkinson. Ich kann mir vorstellen, wie derselbe Ansatz in der Onkologie angewendet werden kann: Studien für die richtigen Patienten bereichern, synthetische Kontrollen aufbauen und Signale erkennen, dass eine Therapie wirkt, bevor klassische Endpunkte erreicht werden.

Für Versicherer ist dies eine lukrative Angelegenheit. 90 Prozent der Medikamente in Studien scheitern. Jedes Scheitern in Phase III kostet 150 bis 300 Millionen Dollar. Die CREATE-Studie von AstraZeneca untersuchte 660.000 Menschen und erreichte einen positiven Vorhersagewert von 54 Prozent, fast das Dreifache des Schwellenwerts. Dyania Health erreichte eine Genauigkeit von 96 Prozent bei der Patientenauswahl und eine 170-fache Geschwindigkeitssteigerung in der Cleveland Clinic. Eine bessere Patientenauswahl bedeutet weniger unerwünschte Ereignisse, weniger fehlgeschlagene Studien und weniger Schadensfälle. Das ist die Verbindung zwischen KI und Risikoprüfung.

Welche neuen Risiken entstehen in der KI-gestützten medizinischen Forschung?

Drei.

Undurchsichtigkeit. Wenn eine KI ein Medikamentenziel empfiehlt, ist die Begründung möglicherweise nicht nachvollziehbar. «Das Modell hat uns dazu aufgefordert» ist vor Gericht kein stichhaltiges Argument. Die Leitlinien der FDA zur KI in der Arzneimittelentwicklung werden für Mitte 2026 erwartet, aber der Rahmen hinkt der Technologie hinterher.

Datenverzerrung. Modelle, die auf unvollständigen Daten trainiert wurden, benachteiligen diejenigen, die in diesen Daten fehlen, oft Minderheiten, Frauen und ältere Patienten. Wenn der Trainingssatz nicht repräsentativ für die Patienten ist, sollte das Ergebnis sie nicht behandeln.

Voreilige Validierung. Wenn man einen 12-jährigen Entwicklungsprozess auf drei Jahre komprimiert, verliert man das langsame Beobachtungsfenster, in dem seltene unerwünschte Ereignisse erfasst werden. Einige Schäden treten erst nach Tausenden von Patienten über Jahre hinweg zutage. Wir genehmigen Medikamente schneller, obwohl wir weniger über ihre Langzeitwirkungen wissen. Das ist ein unbewertetes Produkthaftungsrisiko, das in der Bilanz eines Unternehmens steht.

Was ist die wichtigste Frage, die sich Versicherer und Aufsichtsbehörden derzeit stellen sollten?

Wenn etwas schiefgeht, können Sie dann nachvollziehen, was passiert ist? Welcher Mitarbeiter hat welche Entscheidung getroffen, auf Grundlage welcher Daten und unter wessen Aufsicht? Wenn die Antwort «Nein» lautet, ist das System nicht versicherbar.

Bis Ende 2026 werden über 35 Prozent der Versicherer Agenten in mehreren Kernfunktionen einsetzen. Gleichzeitig beantragen grosse Versicherer, KI-Schadensfälle aus bestehenden Policen auszuschließen. Die Ära der standardmässigen KI-Deckung ist vorbei. Bauen Sie jetzt die Governance auf, sonst bleibt das Risiko in Ihrer Bilanz.

KI-Agenten beseitigen Risiken nicht. Sie verteilen sie neu. Intelligenz skaliert schnell. Verantwortlichkeit tut dies nicht. Diese Lücke müssen Versicherer schliessen.

Die Fragen hat Binci Heeb gestellt.

Roy Swisa ist Investor, KI-Stratege und ehemaliger Berater führender Schaden- und Unfallversicherer. Er ist Absolvent der Columbia Business School und Mitglied ihres Value Investing Program. Roy berät mehrere Hedgefonds zu KI, grenzüberschreitenden Möglichkeiten und Verteidigungstechnologie. Als ehemaliger Chefingenieur der israelischen Marine befindet er sich an der Schnittstelle zwischen Technologie, Verteidigung und Kapitalmärkten und hat direkten Zugang zu Netzwerken, die sich über die Wall Street, das Silicon Valley und das elitäre Technologie-Ökosystem Israels erstrecken.

Lesen Sie auch: Wenn KI unter sich bleibt


Tags: #Autonom #Digitales Vertrauen #Experimentierphase #Forschung #Gesetz #KI #Klinische Entwicklung #Medizin #Moltbook #Regulierung #Risiko #Team #Verantwortlichkeit #Zusammenaarbeit