Wenn Künstliche Intelligenz zur Versicherungs-Liability wird

21 Oktober, 2025 | Aktuell Allgemein Nicht kategorisiert
Wenn Künstliche Intelligenz zur Versicherungs-Liability wird.
Wenn Künstliche Intelligenz zur Versicherungs-Liability wird.

Kriminelle nutzen zunehmend generative KI-Systeme wie Claude, ChatGPT oder Gemini, um Betrug, Erpressung und zielgerichtete Angriffe durchzuführen. Auch in der Schweiz wächst die Herausforderung: Für Versicherer und Rückversicherer bedeutet dies neue Haftungs-, Schaden- und Prämienrisiken.

Der US-KI-Anbieter Anthropic berichtet in einem Sicherheits-Report von Ende August 2025, dass sein Sprachmodell Claude mehrfach für Cyberangriffe missbraucht wurde. Kriminelle hätten den Chatbot eingesetzt, um Phishing-Nachrichten zu verfassen, Schwachstellen in Netzwerken zu identifizieren und komplette Angriffsabläufe zu automatisieren. In einem Fall soll Claude sogar bei der Verhandlung von Lösegeldforderungen geholfen haben. Laut Anthropic wurden in einem einzigen Monat 17 Organisationen aus unterschiedlichen Branchen – darunter Gesundheitswesen, Regierung und Religion – angegriffen.

KI als Werkzeug der Angreifer

Damit sinkt die Eintrittsbarriere für Cyberkriminalität dramatisch. Was früher ein koordiniertes Team aus Hackern erforderte, kann heute von einer einzelnen Person mit Hilfe von KI-Agenten ausgeführt werden. Der Aufwand, die Kenntnisse und das Risiko für Angreifer reduzieren sich erheblich. Für Versicherungen bedeutet das: Angriffe können schneller, gezielter und mit grösserer Reichweite stattfinden, wodurch sich Aggregations- und Kumulrisiken erheblich verstärken.

Schweizer Kontext: Finanz- und Versicherungsbranche im Fokus

In der Schweiz beobachten Sicherheitsbehörden diese Entwicklung mit Sorge. Das Nationale Zentrum für Cybersicherheit (NCSC) meldet eine deutliche Zunahme von Fällen, bei denen Betrüger KI-gestützten Content einsetzen. Deepfakes von Finanz- oder Regierungsvertretern werden genutzt, um Vertrauen zu erschleichen, Autorisierungen zu erwirken oder Schadensmeldungen zu manipulieren. Besonders heikel sind sogenannte Social-Engineering-Angriffe, bei denen KI täuschend echte Nachrichten, Stimmen oder Videos erzeugt.

Im zweiten Halbjahr 2023 verzeichnete das NCSC über 30 000 gemeldete Cybervorfälle, ein erheblicher Anteil davon mit generativen KI-Elementen. Auch die Finanz- und Versicherungsbranche ist betroffen: KI-gestützter Rechnungs- und Zahlungsbetrug nimmt stark zu. Hinzu kommt die regulatorische Dimension. Schweizer Finanz- und Versicherungsunternehmen müssen verschärfte Anforderungen an Datenschutz und Know-Your-Customer-Verfahren erfüllen. Diese Regeln werden komplexer, wenn KI-Tools im Spiel sind, die Daten selbstständig verarbeiten oder generieren.

Neue Herausforderungen für Versicherer

Für die Versicherungswirtschaft verändert sich damit das Risiko-Profil deutlich. Der Einsatz von Künstlicher Intelligenz durch Angreifer führt zu einer neuen Dynamik: Schäden entstehen nicht mehr isoliert, sondern können sich schnell über Branchen, Länder und Systeme hinweg ausbreiten. Eine Attacke kann gleichzeitig Dutzende Unternehmen treffen, die ähnliche Technologien oder Lieferketten nutzen. Damit steigt die Wahrscheinlichkeit von Schaden-Aggregation und gleichzeitigen Grossereignissen.

Auch in der Prämiengestaltung müssen Versicherer umdenken. Klassische Modelle, die auf historischen Daten basieren, greifen hier zu kurz. KI-bedingte Risiken entwickeln sich schneller, als sie sich statistisch erfassen lassen. Underwriter müssen daher neue Bewertungsmethoden etablieren und KI-Szenarien explizit berücksichtigen. Manche Versicherer ziehen bereits in Betracht, spezielle Ausschlüsse oder Zusatzklauseln für den Einsatz generativer KI einzuführen, um Missverständnisse bei der Deckung zu vermeiden.

Ein weiterer Aspekt betrifft die Haftung. Wenn ein Unternehmen eine KI einsetzt, die unbeabsichtigt Schaden anrichtet oder missbraucht wird, denn wer trägt dann die Verantwortung? Diese Frage stellt sich nicht nur für Unternehmen, sondern auch für Versicherer, die solche Risiken abdecken. Zwischen technischer Innovation, regulatorischem Druck und versicherungstechnischer Realität entsteht ein neues Spannungsfeld, das noch kaum juristisch geklärt ist.

Handlungsbedarf in der Assekuranz

Versicherer und Rückversicherer in der Schweiz stehen nun vor der Aufgabe, ihre Strategien an diese neue Bedrohungslage anzupassen. Dazu gehört, intern zu analysieren, welche KI-Systeme eingesetzt werden und wie diese abgesichert sind. Ebenso wichtig ist die Überprüfung der Versicherungsbedingungen: Sind KI-gestützte Angriffe gedeckt oder ausdrücklich ausgeschlossen? Viele Policen definieren Cyberrisiken noch nach älteren Mustern und berücksichtigen die neuartige Rolle generativer Systeme nicht ausreichend.

Darüber hinaus sollten Versicherer klare Vorgaben für ihre Kunden formulieren, beispielsweise Schulungen zum sicheren Umgang mit KI-Tools, Vorgaben für Incident-Response-Pläne oder für die Governance beim Einsatz von Chatbots und Automatisierungssystemen. Auch das Monitoring von KI-gestützten Angriffen gewinnt an Bedeutung. Frühwarnsysteme, die Anomalien in Kommunikation oder Datenverhalten erkennen, können helfen, Schäden zu begrenzen.

In der Prämienbildung wiederum wird es entscheidend sein, wie stark ein Kunde exponiert ist. Ein Unternehmen, das generative KI produktiv nutzt, aber keine klaren Richtlinien oder Sicherheitsprüfungen implementiert, dürfte künftig höhere Risikoprämien zahlen müssen. Prävention und Transparenz werden zum Wettbewerbsvorteil für Kunden als auch für Versicherer.

KI ist Chance und Risiko

Die Nutzung generativer KI durch Cyberkriminelle markiert einen Wendepunkt in der digitalen Risikolandschaft. Was früher Spezialwissen erforderte, ist heute für jedermann zugänglich. Für die Versicherungsbranche bedeutet das eine doppelte Herausforderung: Einerseits müssen sie ihre eigene Abwehr stärken, andererseits die Risiken ihrer Kunden neu bewerten. Künstliche Intelligenz ist damit zugleich Chance und Risiko und ein Werkzeug des Fortschritts, das im falschen Kontext zur Haftungsfalle werden kann.

Binci Heeb

Lesen Sie auch: KI wird zum Partner des Menschen – nicht nur zum Werkzeug


Tags: #Aggregationsrisiken #Angriff #Betrug #Chance #ChatGPT #Claude #Gemini #Haftungsrisiken #Handlungsbedarf #KI #Kumulrisiken #Liability #Phishing-Nachrichten #Prämien #Social-Engineering-Angriff #Versicherung