Vergessen Sie Ihren Job: KI könnte Ihre Sicherheit gefährden
25 September, 2025 | Aktuell Allgemein Blog
Alle reden davon, dass KI Arbeitsplätze vernichtet. Das ist verständlich. Aber was, wenn das nicht das dringlichste Risiko ist?
Dieser Artikel wurde ursprünglich auf finsurtech.ai veröffentlicht, wo ich ungefilterte Einblicke in Führung, Innovation und die Zukunft der Versicherungsbranche teile.
Während die Welt über Automatisierung und Beschäftigung debattiert, entwickelt sich eine weitaus gefährlichere Bedrohung: KI-gestützte Cyberangriffe.
Im heutigen digitalen Wettrüsten ist KI mehr als nur ein Werkzeug, sie ist eine Waffe, und zwar eine potenziell verheerende. Was früher von menschlichen Analysten erledigt wurde, wird heute von intelligenten, selbstlernenden Systemen übernommen, die in der Lage sind, Angriffe schneller, intelligenter und in einem noch nie dagewesenen Ausmass durchzuführen.
Die gleiche Technologie, die wir zu unserer Verteidigung entwickelt haben, wird nun gegen uns eingesetzt.
In diesem Artikel tauchen wir ein in die dunkle Seite der KI: den Aufstieg automatisierter Bedrohungen, die Schwachstellen, die sie ausnutzen, und die Auswirkungen, die sie auf unsere Wirtschaft, unsere Institutionen und unser Leben haben könnten.
Eine neue Generation von Bedrohungen
KI beschleunigt zweifellos viele Dinge, aber nicht immer zum Besseren. Die Cyberangriffe von heute sind ausgefeilter, zielgerichteter und, was am alarmierendsten ist, automatisierter. Was früher monatelange Erkundungen und manuelle Arbeit erforderte, kann heute mit Hilfe generativer KI in wenigen Minuten ausgeführt werden.
Angreifer nutzen KI mittlerweile, um hochgradig personalisierte Phishing-Nachrichten zu verfassen, oft in mehreren Sprachen. Durch die Nachahmung von Schreibstilen und Kontexten wirken diese E-Mails täuschend echt, was ihre Erfolgsaussichten erheblich erhöht.
Sie nutzen KI auch, um die Stimmen und Gesichter von Führungskräften zu klonen, was Deepfake-Betrug ermöglicht. Ein gefälschter Videoanruf eines «CEO» kann Mitarbeiter dazu verleiten, betrügerische Transaktionen zu genehmigen.
Polymorphe Malware ist eine weitere Waffe. Dabei handelt es sich um einen bösartigen Code, der sich ständig verändert, um einer Entdeckung zu entgehen. Herkömmliche Antiviren-Programme können mit diesen sich ständig verändernden Bedrohungen nicht Schritt halten.
KI beschleunigt die Entdeckung von Zero-Day-Schwachstellen, also um unentdeckte Fehler in der Software. Diese sind wie Geheimtüren in ein System, die Angreifern offen stehen, bis sie entdeckt und gepatcht (geschlossen) werden.
Schliesslich vergiften Angreifer KI-Trainingsdaten und korrumpieren damit die Systeme, die uns schützen sollen. Indem sie der KI falsche Eingaben zuführen, sorgen sie dafür, dass sie echte Bedrohungen ignoriert oder harmlose Aktionen als gefährlich kennzeichnet.
Allein im Finanzsektor schlagen Führungskräfte Alarm. Ein Bericht von Business Insider aus dem Jahr 2025 ergab, dass sich 80 Prozent der Führungskräfte im Bereich Cybersicherheit im Bankwesen trotz jährlich steigender Budgets nicht auf die Zunahme KI-gesteuerter Angriffe vorbereitet fühlen.
Auswirkungen auf verschiedene Branchen
Die Auswirkungen dieser Bedrohungen sind sowohl weitreichend als auch tiefgreifend.
Im Bereich der Finanzdienstleistungen hat der Aufstieg der generativen KI zu einem Anstieg von Betrugsfällen geführt. Deepfake-basierte Betrugsmaschen haben bereits zu hohen Verlusten geführt, und Analysten warnen, dass KI-gestützte Betrugsfälle die weltweiten Schäden bis 2027 vervierfachen könnten.
Im Bereich der kritischen Infrastruktur hat die Konvergenz von Betriebstechnologie (OT) und IT-Systemen Angreifern die Möglichkeit eröffnet, KI für Angriffe auf Energienetze, Transportsysteme und sogar Wasserversorgungsunternehmen zu nutzen. Forscher drängen nun auf hybride Mensch-KI-Reaktionssysteme, um diesen sich entwickelnden Bedrohungen zuvorzukommen.
Im Bereich Versicherungen und Risiken stellen KI-generierte synthetische Identitäten eine Herausforderung für Underwriting- und Schadensregulierungssysteme dar. Da Identitäten immer leichter zu fälschen sind, wird es immer schwieriger, Vertrauen zu überprüfen. Stellen Sie sich die Auswirkungen auf die Risikobewertung oder Versicherungsbetrug vor. Als Branche hatten wir bereits Schwierigkeiten, grundlegenden Betrug zu verhindern. Werden wir mit KI-gestütztem Betrug Schritt halten können?
Und in allen Branchen sind bestehende kryptografische Systeme einer doppelten Bedrohung ausgesetzt: KI-gestützte Entschlüsselungstechniken heute und Quantencomputer-Bedrohungen in naher Zukunft. Dies hat das Interesse an Post-Quanten-Kryptografie beschleunigt, sodass Institutionen viel früher als erwartet von der Forschung zur Umsetzung übergehen.
Die Vertrauenslücke
Trotz des offensichtlichen Bedarfs an KI in der Cybersicherheit bleibt eine bemerkenswerte Lücke bestehen: die Vertrauenslücke zwischen Cybersicherheitsverantwortlichen und denjenigen an der Front.
Eine aktuelle Studie von TechRadar Pro ergab, dass zwar mehr als die Hälfte der Führungskräfte der Meinung ist, dass KI die Produktivität verbessert, aber nur 10 Prozent der Sicherheitsanalysten darauf vertrauen, dass KI-Systeme ohne menschliche Aufsicht funktionieren. Tool-Fragmentierung, Black-Box-Modelle und mangelnde Erklärbarkeit schränken weiterhin die Akzeptanz und Skalierbarkeit ein.
Ohne Vertrauen laufen selbst die besten Tools Gefahr, zu Schrankware zu werden.
Die regulatorische Aufholjagd
Der rasante Fortschritt der KI hat auch die Regulierungsbehörden überrascht. Da es nur wenige klare Rahmenbedingungen für die KI-Governance gibt, sehen sich Unternehmen eingeschränkt. Viele zögern, umfassende KI-Erkennungs- oder Präventionsmodelle einzusetzen, aus Angst vor unbeabsichtigten Folgen oder zukünftigen rechtlichen Risiken.
Angreifer hingegen unterliegen keinen solchen Einschränkungen.
Dieses Ungleichgewicht ist untragbar. Um gleiche Wettbewerbsbedingungen zu schaffen, müssen Unternehmen, politische Entscheidungsträger und Cybersicherheitsfirmen zusammenarbeiten, um agile, risikobasierte Rahmenbedingungen zu entwickeln, die Innovationen ermöglichen, ohne die Aufsicht zu beeinträchtigen.
Was sich ändern muss
Cybersicherheit im Zeitalter der KI kann nicht allein mit mehr Tools gelöst werden. Was benötigt wird, ist ein Umdenken und eine Veränderung der Architektur.
Die Zusammenarbeit zwischen Mensch und KI muss zur neuen Norm werden. KI soll Cybersicherheitsanalysten nicht ersetzen, sondern ihre Fähigkeiten erweitern. Ein gut ausgebildeter Analyst, der KI einsetzt, kann Tausende von Bedrohungssignalen in Sekundenschnelle durchforsten, echte Bedrohungen priorisieren und schneller als je zuvor reagieren. Plattformen wie IBM QRadar oder Microsoft Sentinel nutzen beispielsweise bereits KI, um die Alarmmüdigkeit zu reduzieren und kritische Anomalien aufzudecken. Allerdings sind sie nach wie vor auf menschliches Urteilsvermögen angewiesen, um zu validieren und zu handeln.
Zweitens muss eine einheitliche Bedrohungsanalyse institutionelle und geografische Silos durchbrechen. Die Angreifer von heute respektieren keine Grenzen – daher sollten auch unsere Abwehrmassnahmen dies nicht tun. Eine sektor- und grenzüberschreitende Zusammenarbeit ist entscheidend, um die Entwicklung KI-gestützter Kampagnen zu verfolgen. Initiativen wie das Global Forum on Cyber Expertise und EU-weite Plattformen zum Austausch von Bedrohungsinformationen sind Schritte in diese Richtung, aber um vorne zu bleiben, ist ein offenerer Datenaustausch in Echtzeit erforderlich.
Drittens muss robuste Kryptografie vom Pilotprojekt zur Serienreife gelangen. Angesichts der zunehmenden Verbreitung von KI und der Annäherung des Quantencomputings reichen traditionelle Verschlüsselungsmethoden wie RSA und ECC nicht mehr aus. Post-Quanten-Kryptografiealgorithmen, die einst als übertrieben vorsichtig galten, werden nun schnell dringend notwendig. Regierungen und Institutionen testen bereits NIST-zugelassene Standards, aber die Einführung verläuft weiterhin uneinheitlich und langsam.
Schliesslich müssen Governance und Transparenz von Anfang an in jede KI-Sicherheitsimplementierung integriert werden. Black-Box-Systeme sind in Umgebungen mit hohem Risiko gefährlich. Wenn Analysten und Regulierungsbehörden nicht erklären können, wie ein Modell funktioniert – oder warum es eine bestimmte Entscheidung getroffen hat –, untergräbt dies das Vertrauen und öffnet Manipulationen Tür und Tor. Erklärbarkeit ist nicht nur eine Compliance-Anforderung, sondern eine Voraussetzung für langfristige Widerstandsfähigkeit.
Kurz gesagt: Die Abwehr von KI-gestützten Bedrohungen erfordert mehr als nur intelligente Tools. Sie erfordert intelligentere Strategien, gemeinsame Verantwortung und Systeme, die auf Anpassungsfähigkeit und Vertrauen ausgelegt sind.
Die Einsätze steigen
Cybersicherheit war schon immer ein Wettlauf, aber die Ziellinie verschiebt sich ständig. Im Zeitalter der KI entwickeln sich Geschwindigkeit, Umfang und Raffinesse der Angriffe schneller als unsere Fähigkeit, darauf zu reagieren.
Wir bekämpfen nicht mehr nur Malware, wir verteidigen uns gegen intelligente Systeme, die lernen, sich anzupassen und präzise zuzuschlagen.
Um dieses Rennen zu gewinnen, müssen Verteidiger die gleiche Denkweise annehmen: intelligent, anpassungsfähig und proaktiv. KI ist nicht der Feind. Aber schlecht gesteuerte, nicht vertrauenswürdige oder unzureichend genutzte KI könnte sehr wohl unser Untergang sein.
Die Zukunft wird nicht dadurch gesichert, wer über die beste Technologie verfügt, sondern wer sie mit Weisheit, Vertrauen und Schnelligkeit integrieren kann.
Mirela Dimofte
Lesen Sie auch: Über Pilotprojekte hinaus: KI in der Versicherungsbranche