Netskope Threat Labs: Mitarbeiter im Gesundheitswesen senden bei der Arbeit regelmäßig sensible und regulierte Gesundheitsdaten an persönliche Cloud- und generative KI-Konten
Netskope-Report warnt vor gravierenden Datenschutzverstößen durch den unkontrollierten Einsatz generativer KI im Gesundheitswesen – fast jede zweite Verletzung betrifft regulierte Patientendaten
Die zunehmende Nutzung generativer KI-Anwendungen wie ChatGPT oder Google Gemini am Arbeitsplatz hat auch im Gesundheitswesen eine neue Risikodimension eröffnet. Laut dem aktuellen Research Report von Netskope Threat Labs kommt es in Gesundheitseinrichtungen immer häufiger zu Datenschutzverstößen, weil Beschäftigte regulierte und besonders schützenswerte Gesundheitsdaten über persönliche Cloud-Konten und genAI-Tools teilen.
Die Analyse basiert auf aggregierten und anonymisierten Nutzungsdaten von Kunden im Gesundheitswesen und zeigt ein klares Bild: 81 Prozent aller Datenschutzverletzungen im letzten Jahr betrafen regulierte Gesundheitsdaten – darunter medizinische Befunde, klinische Dokumentation und andere sensible Informationen. In 88 Prozent der untersuchten Organisationen werden generative KI-Anwendungen bereits eingesetzt, oftmals ohne ausreichende Sicherheitsmaßnahmen.
Generative KI als Risikofaktor im Klinikalltag
Besonders alarmierend: In mehr als zwei Drittel der Fälle verwenden Mitarbeiter ihre privaten genAI-Konten am Arbeitsplatz und senden darüber sensible Daten. Dieses Verhalten erschwert nicht nur die Überwachung durch IT-Abteilungen, sondern führt auch dazu, dass Daten außerhalb des organisatorischen Einflussbereichs gelangen. 44 Prozent der KI-bedingten Datenschutzverstöße betrafen regulierte Daten, 29 Prozent Quellcode, 25 Prozent geistiges Eigentum und 2 Prozent Zugangsinformationen wie Passwörter oder Schlüssel.
„Generative KI bietet enormes Potenzial zur Prozessoptimierung und Wissensgenerierung – doch ohne klare Leitplanken entstehen neue Einfallstore für Datenschutzverletzungen“, warnt Gianpietro Cutolo, Cloud Threat Researcher bei Netskope. Insbesondere in einem Hochrisikoumfeld wie dem Gesundheitswesen, in dem schnell reagiert werden muss, sind Sicherheitslücken gravierend.
Strategien zur Schadensbegrenzung: Was Kliniken jetzt tun sollten
Um diesen Risiken zu begegnen, empfiehlt der Bericht eine Kombination aus technischen, organisatorischen und kulturellen Maßnahmen:
- Zentralisierung der KI-Nutzung durch die Genehmigung bestimmter genAI-Tools. Der Anteil der Mitarbeiter, die private KI-Anwendungen nutzen, konnte so bereits von 87 % auf 71 % gesenkt werden.
- Lokaler Betrieb generativer KI-Anwendungen, sodass keine sensiblen Daten in externe Cloudsysteme gelangen. 43 % der untersuchten Organisationen nutzen bereits lokal installierte genAI-Lösungen.
- Einführung strenger DLP-Richtlinien (Data Loss Prevention), die die Nutzung und den Austausch sensibler Daten kontrollieren. Die Verbreitung solcher Richtlinien stieg von 31 % auf 54 % innerhalb eines Jahres.
- Echtzeit-Coaching für Mitarbeiter, bei dem vor dem Teilen sensibler Daten Warnhinweise eingeblendet werden. Studien zeigen: In 73 % der Fälle bricht der Nutzer daraufhin den Vorgang ab.
Klinik Magdeburg setzt auf ganzheitliche Strategie
Ein Beispiel für einen proaktiven Umgang mit der Thematik liefert die Klinikum Magdeburg gGmbH. Tobias Hunger, Abteilungsleiter Informations- und Medizintechnik und Certified Healthcare CIO, erklärt: „Cybersicherheit ist für uns nicht nur ein technisches Thema, sondern eine lebenswichtige Voraussetzung für den sicheren Klinikbetrieb. Wir haben moderne Cloud-Technologien und generative KI-Anwendungen bereits erfolgreich in viele unserer Prozesse und Arbeitsabläufe integriert, um die Effizienz und Qualität in der Versorgung zu steigern. Dieser technologische Fortschritt bringt jedoch gleichzeitig neue, komplexe Herausforderungen mit sich – insbesondere im Hinblick auf die Cybersicherheit, den Datenschutz und die stetige Anpassung an sich wandelnde regulatorische Anforderungen. Um diesen Anforderungen gerecht zu werden, verfolgen wir einen ganzheitlichen Ansatz, der technologische Innovation, rechtliche Compliance und IT-Sicherheit systematisch miteinander verbindet.“
Der Netskope-Report macht deutlich: Der Innovationsschub durch generative KI bringt das Gesundheitswesen voran, erfordert aber eine ebenso konsequente Sicherheitsstrategie. Nur durch unternehmensweit koordinierte Maßnahmen lassen sich die Risiken eindämmen – andernfalls drohen gravierende Verstöße gegen Datenschutzgesetze und eine Schwächung des Vertrauens in digitale Gesundheitsdienste.