Wenn Versicherer KI sprechen lassen

3 Oktober, 2025 | Aktuell Allgemein
Wenn Versicherer KI sprechen lassen: Sind Patientendaten Gold und Stolperfalle zugleich?
Wenn Versicherer KI sprechen lassen: Sind Patientendaten Gold und Stolperfalle zugleich?

Krankenkassen wie Helsana und CSS setzen zunehmend auf KI, ob als automatisierte Rechnungsfilter, verpflichtender Symptom-Checker oder digitaler Assistent. Doch mit den Einsparungsversprechen wachsen Fragen nach Haftung, Transparenz und Eigenverantwortung: Wer zahlt, wenn KI falsch liegt?

Versicherer stehen unter Druck: Prämien steigen, Budgets sind knapper. KI verspricht Effizienz: CSS verhindert so laut eigener Angabe jedes Jahr rund CHF 800 Millionen an Leistungskosten, die als unwirtschaftlich eingeschätzt werden. Doch der Ärger lauert bei Fehlinterpretationen: Eine falsche Filterung, eine mangelhafte Datenbasis oder unerkannte Bias können dazu führen, dass Leistungen zu Unrecht verweigert oder verspätet ausbezahlt werden.

Patientendaten: Gold und Stolperfalle zugleich

Ohne massenweise Daten funktioniert nachhaltige KI kaum. Aber Krankenkassen arbeiten mit hochsensiblen Gesundheitsdaten. Entscheidend ist, wie diese Daten gesammelt, verarbeitet und geschützt werden. Verzerrte Stichproben, mangelnde Datenvielfalt (z. B. nach Alter, Geschlecht, Herkunft) erhöhen das Risiko, dass KI-Empfehlungen systematisch benachteiligen. Zudem: Patienten müssen wissen, wem ihre Daten gehören, wer Zugriff hat, wie sie anonymisiert werden und ob sie widersprechen können.

Konkrete Fälle: Helsana & CSS nutzen KI bereits
AkteurAnwendungWirkungsweise / Bemerkenswertes
CSS und HelsanaRechnungsprüfung mit KICSS prüft über 85% aller Rechnungen automatisiert und nutzt KI, um Auffälligkeiten bei Abrechnungen zu erkennen (z. B. überhöhte Mengen, Unfallzuordnungen). So verhindert das System jährlich ca. CHF 800 Mio. an Leistungskosten, die für Versicherte und System keinen Nutzen bringen.

Bei Helsana gehen mehr als 80% der rund 26 Millionen Rechnungen pro Jahr elektronisch ein. Von diesen Rechnungen werden gut 95% ohne menschliches Zutun kontrolliert, auch mithilfe von KI.
CSSKundenservice / Chatbot-Piloten & Advanced AnalyticsCSS pilotiert KI-Modelle, um Kundenanliegen effizienter zu bearbeiten und in den administrativen Prozessen schneller und günstiger zu werden. Auch Präventionsprogramme werden datenanalytisch unterstützt, um massgeschneiderte Angebote zu machen. KPMG
HelsanaSymptom-Checker via App für Produkt «BeneFit PLUS Flexmed»Für Erwachsene ist in diesem Tarif ein digitaler Symptom-Checker verpflichtend, der als Medical Device klassifiziert ist und via Compassana-App eine KI-basierte Ersteinschätzung liefert. Die eigentliche Diagnose stellt weiterhin der Hausarzt, der Symptom-Checker gibt lediglich Ersthinweise, was die Ursachen der Symptome sein könnten.
HelsanaÜbernahme eines Softwaredienstleisters (Adcubum)Die Helsana-Gruppe übernimmt Adcubum, ein Unternehmen, das Softwarelösungen für Versicherer bereitstellt. Das unterstreicht das Interesse, stärker digital und datengetrieben zu operieren, inklusive KI-/Automatisierungsoptionen. Netzwoche
Verantwortlichkeit & Angreifbarkeit – was daraus folgt

Diese Beispiele zeigen, wie Versicherer in der Schweiz KI schon einsetzen. Daraus ergeben sich konkrete Risiken und Potenziale in Bezug auf Verantwortung:

  • Transparenz gegenüber Versicherten: Wenn ein Versicherer wie Helsana verlangt, zuerst einen als Medical Device klassifizierten AI-Symptom-Checker zu nutzen, muss klar sein: Wie funktioniert dieser? Auf welcher Datenbasis trifft er Empfehlungen? Was passiert bei Fehl-Einschätzungen? Ohne Transparenz steigt das Risiko von Regressansprüchen oder Vertrauensverlust.
  • Automatisierungs-Bias & Fehlentscheidungen: Wenn Versicherte sich zu sehr auf eine KI-Empfehlung verlassen oder wenn Schadenfällen Abweisungen oder Verzögerungen wegen automatisierten KI-Filtern auftreten, können Versicherer haftbar gemacht werden – sei es rechtlich oder politisch.
  • Haftungsaufteilung: Die EU und die Schweiz diskutieren bereits, wie gesetzliche Rahmenbedingungen aussehen müssen: Wer haftet, wenn ein KI-Tool falsche Empfehlungen abgibt? Ist es der Versicherer, der das System einsetzt, der Entwickler, der Betreiber, oder der Patient?
  • Datenschutz & Datenqualität: Versicherer arbeiten mit sensiblen Gesundheitsdaten. Fehlerhafte, unausgewogene oder veraltete Daten können zu Verzerrungen führen (Bias). Zudem muss der Umgang mit Daten gesetzeskonform sein – z. B. in Hinblick auf das Datenschutzgesetz (DSG in der Schweiz) und kantonale Vorgaben.
  • Patientenrechte & Wahlfreiheit: Selbst wenn Versicherer KI-Tools einführen, dürfen Patienten und Versicherte nicht gezwungen werden, auf menschliche Begutachtung oder klassische Wege zu verzichten.
Ausblick: Zwischen Innovation und Kontrolle

Schweizer Versicherer zeigen, wie KI Vorteile bieten kann, aber das System muss kontrolliert eingebettet werden. Einige Ansatzpunkte:

  • Einführung von Prüfstellen für KI-Systeme, analog zu Swissmedic für Medikamente.
  • Gesetzliche Klarheit: Wer haftet, wenn KI-Tools in Versicherungsprodukten Entscheidungen beeinflussen?
  • Förderung von unabhängigen Datenpools/Forschungsdaten, damit nicht der einzelne Versicherer oder Anbieter bestimmt, welche Daten-Qualität verwendet wird.
  • Verpflichtende Information der Versicherten über KI-Einsatz, sowie Mechanismen zur Anfechtung oder Beschwerde bei Fehlurteilen.

Am Ende steht die Erkenntnis: KI kann für Schweizer Versicherer ein mächtiges Instrument sein, um Kosten zu senken und Prozesse zu beschleunigen. Doch je stärker Algorithmen in die Versorgung eingreifen, desto wichtiger werden Transparenz, Datenqualität und klare Verantwortlichkeiten. Nur wenn Versicherer offenlegen, wie ihre Systeme funktionieren, Patientendaten wirksam geschützt bleiben und die letzte Entscheidung bei Menschen liegt, wird KI das Vertrauen stärken, statt es zu gefährden.

Binci Heeb

Lesen Sie auch: Daten, Diagnosen, Durchbrüche – Wie KI das Gesundheitswesen revolutioniert


Tags: #Automatisierungs-Bias #Beschwerde #Daten-Qualität #Datenpool #Datenschutz #Eigenverantwortung #Fehlurteil #Forschungsdaten #Haftungsaufteilung #KI #Krankenkassen #Patientendaten #Prüfstelle #Transparenz #Versicherer