Netskope-Report: Gesundheitswesen besonders anfällig für KI- und Cloud-Datenschutzverstöße
Threat Labs warnen vor sensiblen Patientendaten in generativen KI- und Cloud-Anwendungen
Die Forscher von Netskope Threat Labs haben in ihrem aktuellen Threat Report für das Gesundheitswesen eine deutliche Zunahme von Datenschutzverstößen im Zusammenhang mit Cloud- und generativen KI-Anwendungen festgestellt. Grundlage der Analyse sind anonymisierte Nutzungsdaten von Netskope-Kunden aus dem Gesundheitssektor weltweit im Zeitraum vom 1. Dezember 2024 bis 31. Dezember 2025.
Im Zentrum der Untersuchung steht die Nutzung generativer KI-Anwendungen (genAI) durch Beschäftigte im Gesundheitswesen. Laut Report entfallen 89 Prozent aller Verstöße gegen Datenschutzrichtlinien im Zusammenhang mit genAI auf regulierte Daten wie Patientenakten und medizinische Informationen. Branchenübergreifend liegt dieser Anteil bei 31 Prozent. Damit sind regulierte Gesundheitsdaten signifikant häufiger betroffen.
Persönliche GenAI-Konten als Risikofaktor
Erschwerend kommt hinzu, dass Beschäftigte weiterhin persönliche GenAI-Konten am Arbeitsplatz nutzen. Zwar sei in den vergangenen dreizehn Monaten ein Rückgang zu verzeichnen, dennoch verwenden laut Report noch 43 Prozent der Mitarbeitenden im Gesundheitswesen private KI-Konten für berufliche Zwecke. Diese seien häufig nicht in die unternehmensseitige Sicherheitsüberwachung eingebunden.
Parallel dazu steigt die Nutzung organisatorisch verwalteter GenAI-Anwendungen deutlich an. Der Anteil entsprechender Anwendungen erhöhte sich im Beobachtungszeitraum von 18 auf 67 Prozent und liegt damit über dem branchenübergreifenden Durchschnitt (26 auf 62 Prozent). Gesundheitsorganisationen versuchen demnach, Risiken durch genehmigte und kontrollierte KI-Lösungen zu begrenzen.
API-Integration externer KI-Modelle weit verbreitet
Der Report zeigt zudem eine starke Einbindung externer KI-Dienste über Programmierschnittstellen (APIs). Im Gesundheitswesen erkennen laut Analyse 63 Prozent der Organisationen API-Verkehr zu OpenAI, 62 Prozent zu AssemblyAI und 36 Prozent zu Anthropic. Auch intern eingesetzte KI-Tools seien häufig cloudbasiert angebunden.
Die Abhängigkeit von API-basierten Integrationen unterstreiche die wachsende Bedeutung eingebetteter KI-Dienste in klinischen, administrativen und betrieblichen Systemen. Gleichzeitig steige der Bedarf an Transparenz und Kontrolle über Datenflüsse.
Cloud-Anwendungen als Einfallstor
Neben KI-Anwendungen rückt die Nutzung persönlicher Cloud-Dienste in den Fokus. 82 Prozent der Datenschutzverstöße im Zusammenhang mit persönlichen Cloud-Anwendungen betreffen laut Bericht regulierte Daten. Mehr als die Hälfte der Gesundheitsorganisationen (56 Prozent) mit entsprechenden Sicherheitsrichtlinien untersagen inzwischen das Hochladen von Dateien auf private Google-Drive-Konten. Weitere häufig betroffene Dienste sind Google Gmail (39 Prozent) und OneDrive (30 Prozent).
Zudem würden Cloud-Plattformen weiterhin zur Verbreitung von Schadsoftware missbraucht. Im Gesundheitswesen seien insbesondere Azure Static Web Apps, GitHub und Microsoft OneDrive als Verbreitungswege identifiziert worden.
Stimmen aus Praxis und Forschung
Tobias Hunger, Abteilungsleiter Informations- und Medizintechnik der KLINIKUM MAGDEBURG gGmbH, warnt vor einem „Risiko-Vakuum“, wenn nicht autorisierte KI-Anwendungen parallel zum Klinikbetrieb eingesetzt würden. Es sei essenziell, „Schatten-KI“ zu identifizieren und durch abgesicherte Infrastrukturen zu ersetzen, um Innovation und Patientensicherheit in Einklang zu bringen.
Ray Canzanese, Direktor von Netskope Threat Labs, betont im Bericht, dass neben externen Bedrohungen auch interne Risiken stärker adressiert werden müssten. Unternehmen ohne angemessene Sicherheitsvorkehrungen für Cloud- und KI-Nutzung riskierten regulierte Datenlecks und potenziell hohe regulatorische Sanktionen.
Der vollständige Bericht enthält weitere Detailanalysen und statistische Auswertungen zur Bedrohungslage im Gesundheitswesen.






