Direkt zum Inhalt

Elektronische Patienakte: Wie sicher sind die digitalen Gesundheitsdaten der Deutschen?

Ab Januar 2025 bekommen alle gesetzlich Versicherten eine elektronische Patientenakte. Doch ungewiss ist, wer alles Zugriff auf die Daten hat. Auch KI-Konzerne könnten profitieren.
Ein Schrank voller Aktenordner
Dieses Bild soll ab Januar 2025 der Vergangenheit angehören. Dann nämlich bekommen alle in Deutschland gesetzlich Versicherten eine elektronische Patientenakte – wenn sie nicht ausdrücklich widersprechen.

Röntgenbefunde, OP-Berichte, Arztbriefe – im Lauf eines Patientenlebens sammeln sich viele medizinische Dokumente an. Bislang liegen all diese Ergebnisberichte in den Aktenschränken des jeweiligen behandelnden Arztes und in Kopie bei den Betroffenen zu Hause, oft als lose Zettelwirtschaft. Ist eins der Dokumente erneut relevant, geht die Sucherei und – weil es der Datenschutz in Deutschland so vorgibt – die Faxerei los. Da erscheint es sinnvoll, all diese Gesundheitsdaten in einem virtuellen Aktenordner an einem Ort zu sammeln und bei künftigen Arztbesuchen den Medizinern unkompliziert zur Verfügung stellen zu können.

Dort setzt das bundesweite Großprojekt der »elektronischen Patientenakte« an. In der ePA können ab dem 15. Januar 2025 Befunde, Laborwerte, Röntgenbilder und vieles andere mehr zentral gespeichert werden. Die Patienten sollen anschließend entscheiden dürfen, welche Informationen sie mit welchen Ärzten teilen. So hat es der Bundestag im Jahr 2023 beschlossen. Wenn man nicht explizit widerspricht, richtet die Krankenkasse die ePA automatisch ein.

Besonders stolz auf das Projekt ist Bundesgesundheitsminister Karl Lauterbach (SPD). Er sieht die Einführung der elektronischen Patientenakte als einen der großen Erfolge seiner dreijährigen Amtszeit an.

Nicht nur zur persönlichen Dokumentation

Doch medizinische Befunde zur persönlichen Dokumentation zu sammeln, ist nur eine Funktion der ePA. Ein weiterer Zweck der virtuellen Akte ist viel brisanter: Erstmals wird davon abgewichen, dass Patientendaten nur zwischen Betroffenen, behandelnden Ärzten und Krankenkassen kursieren dürfen. Es soll künftig möglich sein, dass auch Wissenschaft, Industrie und IT-Konzerne sie anonymisiert und unter Datenschutzauflagen auswerten und nutzen können, sofern sie ein gesetzlich erlaubtes Vorhaben verfolgen.

Ende November 2024 geriet Gesundheitsminister Lauterbach in Berlin vor Vertretern der deutschen Informations- und Telekommunikationsbranche bei der »Digital Health Conference« regelrecht ins Schwärmen darüber: Ein »Kosmos von Möglichkeiten« eröffne sich durch die elektronische Patientenakte, sagte er.

Künftig liefen die Informationen aus rund einer Milliarde Arzt-Patient-Kontakten sowie 16 Millionen Aufenthalten in deutschen Kliniken pro Jahr in einer einzigen digitalen Infrastruktur zusammen. Und mehr noch: Diese Patientendaten ließen sich mit den Ergebnissen genetischer Sequenzierungen kombinieren, mit Daten aus wissenschaftlichen Studien sowie mit den Abrechnungsdaten der Krankenkassen, betonte der Minister bei der Gelegenheit.

So entstehe ein täglich wachsender »Datenschatz«, der »in dieser Form noch nie dagewesen ist«. Er umfasse Informationen von der Kindheit bis ins Greisenalter, vom Erbgut bis zur Arztrechnung. Daraus ergebe sich über die Zeit »einer der größten Gesundheitsdatensätze weltweit«. Um den Schatz zu hüten, wurde am Bundesamt für Arzneimittel und Medizinprodukte ein eigenes »Forschungsdatenzentrum« (FDZ) eingerichtet. Es soll Daten aus der ePA verschlüsselt erhalten und diese für Wissenschaft und Industrie aufbereiten.

»Wir sind im Gespräch mit Meta, OpenAI und Google – alle sind daran interessiert, diesen Datensatz für ihre Sprachmodelle zu nutzen«Karl Lauterbach, Bundesgesundheitsminister

Dass Arzneimittelhersteller an solchen Daten interessiert sind, liegt auf der Hand. So führt die Bundesregierung es unter anderem auf die Aussicht auf die Gesundheitsdaten zurück, dass die Pharmabranche im Gegensatz zum Rest der deutschen Wirtschaft wächst und sich sogar neue Firmen ansiedeln. An erster Stelle nannte Lauterbach in seiner Rede in Berlin jedoch einen ganz anderen Wirtschaftszweig als Profiteur: Für die deutschen Gesundheitsdaten interessierten sich »auch die Hersteller aller großen KI-Systeme«. »Wir sind im Gespräch mit Meta, OpenAI und Google – alle sind daran interessiert, diesen Datensatz für ihre Sprachmodelle zu nutzen«, sagte er.

KI-Unterstützung beim Arztbesuch

Schon 2023 entwarf Lauterbach in einem Interview mit dem Nachrichtenmagazin »Spiegel« eine aus seiner Sicht positive Vision eines Gesprächs zwischen Patient und Arzt: »Wenn ich als Arzt mit einem Patienten spreche, habe ich bereits seine alten Befunde im Computersystem. Ich frage: Wie fühlen Sie sich? Was tut Ihnen weh? Die gesamte Zeit hört eine Spracherkennungssoftware zu und überträgt die Stichpunkte, die wichtig sind, aus dem Gespräch in die elektronische Patientenakte. Der Smalltalk wird automatisch rausgefiltert. Dann schreibt, während wir noch reden, die künstliche Intelligenz die notwendige Überweisung an die Orthopädin.«

Regelmäßig und mit großer Begeisterung zitiert der Minister Studien, denen zufolge KI-basierte Systeme bereits heute bessere und genauere Diagnosen stellen können als Ärzte. Für die Medizin würde er sich wünschen, »dass wir nicht mehr nur auf amerikanische KI-Lösungen angewiesen sind«.

Bekämen Konzerne wie Meta, OpenAI, Google oder auch xAI Zugang zu Gesundheitsdaten, könnten sie damit zum Beispiel die Antworten verbessern, wenn ein erkrankter Nutzer seine Symptome eingibt und die KI nach einer möglichen Diagnose fragt. Auch könnten die Auskünfte präziser werden, wenn jemand wissen will, was Laborwerte oder MRT-Bilder besagen. Es wäre aber auch möglich, dass die Firmen den deutschen »Datenschatz« für Zwecke nutzen, die noch gar nicht bekannt sind.

Mit welchen Informationen IT-Konzerne ihre KI-Systeme trainieren, wird weltweit kontrovers diskutiert – und auch, welche Ziele sie damit verfolgen. Medienhäuser wie die »New York Times« möchten unterbinden, dass aufwändig erstellte, urheberrechtlich geschützte Inhalte abgegriffen werden. Andere sorgen sich, dass ganze Berufsgruppen ersetzt werden könnten. Zudem gibt es die Befürchtung, dass die großen US-amerikanischen IT-Konzerne viel zu viel Macht erhalten, wenn sie über all dieses Wissen verfügen – vor allem dann, wenn sie eng mit der rechtspopulistischen Regierung von Donald Trump kooperieren.

»Es wäre durchaus denkbar, dass in den KI-Modellen nach dem Training Datenstrukturen existieren, die eine Re-Identifizierung oder Klassifizierung einer Person ermöglichen«Ulrich Kelber, Datenethiker

Speziell für medizinische Daten gibt es eine weitere Sorge: Selbst wenn diese anonymisiert oder unter Pseudonym in eine KI eingespeist werden, wie es in Deutschland vorgesehen ist, könnten die einzelnen Puzzleteile zusammengesetzt werden und dennoch ein so umfassendes Bild ergeben, dass man damit die Person re-identifizieren kann. Zudem könnten Informationsschnipsel aus vertraulichen Unterlagen plötzlich in Antworten von ChatGPT oder Gemini auftauchen.

Risiko des Scoring

»Es wäre durchaus denkbar, dass in den KI-Modellen nach dem Training Datenstrukturen existieren, die eine Re-Identifizierung oder Klassifizierung einer Person ermöglichen, wenn deren pseudonymisierte Daten Bestandteil der Trainingsdaten waren«, bestätigt Ulrich Kelber, Honorarprofessor für Datenethik an der Hochschule Bonn-Rhein-Sieg, der bis Juli 2024 Bundesdatenschutzbeauftragter war. Eine weitere ethisch heikle Frage sei auch, ob mit Gesundheitsdaten trainierte KI-Systeme anschließend eine ausgefeilte Beurteilung von Menschen vornehmen könnten. Ein solches Scoring ließe sich dann beispielsweise nutzen, um für Vorerkrankte schlechtere Vertragsbedingungen durchzusetzen. Unter autoritären oder populistischen Regierungen bestehe auch das Risiko, sagt Kelber, dass mithilfe von KI bestimmte Bevölkerungsgruppen identifiziert oder vermeintliche Erkennungsmerkmale etwa für Homosexualität entwickelt würden.

Die Unternehmen OpenAI und Google äußerten sich auf Nachfrage nicht zu der Aussage des Ministers, dass bereits konkrete Gespräche geführt würden. Eine deutsche Vertreterin von Meta teilte mit, es gebe zu einer geplanten Nutzung von deutschen Gesundheitsdaten »aktuell keine Infos, die ich teilen könnte«.

Der Bundesverband der Verbraucherzentralen kritisiert, dass viele Krankenkassen ihre Versicherten nicht umfassend über die elektronische Patientenakte aufklären würden, obwohl sie gesetzlich dazu verpflichtet seien. Eine Untersuchung zeige, dass die Krankenkassen in ihren Schreiben insbesondere über die Vorteile der ePA informierten. »Wichtige und teils umstrittene Aspekte, beispielsweise des Datenschutzes, werden nicht angesprochen«, monieren die Verbraucherschützer. Manch eine Krankenkasse schreibe ihre Versicherten gar nicht an, sondern verweise auf Nachfrage nur auf ihre Internetseite.

In der Tat erlaubt der Gesetzgeber ausdrücklich, dass künftig Gesundheitsdaten für KI-Anwendungen genutzt werden. Zu den legitimen Verwendungszwecken gehören laut Gesetz »Entwicklung, Weiterentwicklung und Überwachung der Sicherheit von Arzneimitteln, Medizinprodukten, Untersuchungs- und Behandlungsmethoden, Hilfs- und Heilmitteln, digitalen Gesundheits- und Pflegeanwendungen sowie Systemen der Künstlichen Intelligenz im Gesundheitswesen einschließlich des Trainings, der Validierung und des Testens dieser Systeme der Künstlichen Intelligenz«. Verboten sind dagegen Marktforschung, Werbung und Vertriebstätigkeiten für Arzneimittel, Medizinprodukte und sonstige Produkte.

»Ein nicht generalisierbarer Datensatz wäre eine verlorene Chance«Karl Lauterbach, Bundesgesundheitsminister

Bei der elektronischen Patientenakte gilt ein »doppeltes Opt-out«-Verfahren. Wer keinen Widerspruch einlegt, dem wird automatisch eine digitale Akte angelegt. Und wer dann in der dazugehörigen App nicht ausdrücklich der Datennutzung durch Forschung und Unternehmen widerspricht, gibt auch dazu automatisch seine Zustimmung. Die Regierung ist vom alternativen Opt-In, also einer explizit nötigen Zustimmung, auch deshalb abgerückt, weil dann weniger nutzbare Gesundheitsdaten zusammenkommen würden, sagt Lauterbach offen. »Wenn wir einen Opt-In-Datensatz hätten, wäre der nicht generalisierbar«, weil dann insgesamt weniger Menschen und nicht alle vom Kind bis zum Greis mitmachen würden, führte der Minister in Berlin aus. »Ein nicht generalisierbarer Datensatz wäre eine verlorene Chance.«

Nutzung von persönlichen Daten ist streng geregelt

Das Bundesgesundheitsministerium und das Bundesamt für Arzneimittel und Medizinprodukte betonen auf Nachfrage, die Nutzung von persönlichen Daten sei streng geregelt. Niemand außer den Patienten und freigeschalteten Ärzten komme an Daten aus der elektronischen Patientenakte direkt heran. Für die »Sekundärnutzung« von Informationen etwa durch Wissenschaft und Unternehmen müssten Interessenten beim Forschungsdatenzentrum Anträge stellen, in denen sie einen konkreten wissenschaftlichen oder medizinischen Zweck beschreiben und darlegen sollen, wie die dafür erforderlichen Datensätze so klein wie möglich gehalten werden können. Die Digitalisierungsstrategie für das Gesundheitswesen sehe vor, dass bei solchen Projekten nur »gemeinwohlorientierte Zwecke« verfolgt werden könnten, hebt ein Sprecher des Gesundheitsministeriums hervor.

Das Bundesamt für Arzneimittel und Medizinprodukte benennt selbst konkrete Bedenken. »Das FDZ ist sich potenzieller Re-Identifikationsrisiken von großen KI-Modellen bewusst und optimiert derzeit einen Prozess zur KI-basierten Nutzung«, erklärt eine Sprecherin der Behörde. Dafür werde aktuell nach Lösungen gesucht. Eine Möglichkeit wäre, den KI-Unternehmen nicht die pseudonymisierten Daten zu übermitteln, sondern solche, die von den Mitarbeitern des FDZ noch stärker verfremdet wurden. Von »synthetischen Daten« ist in dem Zusammenhang die Rede. Bevor große KI-Firmen Zugang bekommen, könnte zuerst ein digitaler Sandkasten »ohne sensible Echtdaten« gebaut werden. Nur Informationen, die vom Personal des Forschungsdatenzentrums auf das Risiko hin geprüft worden seien, dass Menschen trotz Pseudonymen identifizierbar sind, würden das FDZ verlassen.

Die schärfste Kritik daran, Daten mit KI-Konzernen zu teilen, übt die »Freie Ärzteschaft«, ein vergleichsweise kleiner und junger Verband von Haus- und Fachärzten: Die Werbekampagnen für die ePA suggerierten, dass es bei der künftigen Gesundheitsdatensammlung nur darum gehe, die medizinische Behandlung zu verbessern. »Dabei zeigt sich jetzt gerade, dass eher der Verkauf unserer Daten an die Monopolisten Meta, OpenAI und Google das vorrangige Ziel ist«, sagt Silke Lüder, Vizevorsitzende des Verbands.

»Nach derzeitiger Einschätzung gewährleisten die gesetzlichen Grundlagen zum einen den maximalen Schutz von Patientendaten und fördern zum anderen den legitimen Zweck der Gesundheitsforschung«Louisa Specht-Riemenschneider, Bundesdatenschutzbeauftragte

Die neue Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider kommt dagegen zu einem positiven Fazit: »Nach derzeitiger Einschätzung gewährleisten die gesetzlichen Grundlagen zum einen den maximalen Schutz von Patientendaten und fördern zum anderen den legitimen Zweck der Gesundheitsforschung«, teilte ihr Sprecher auf Anfrage mit. Eine Bewertung der Sorge, ob und wie große IT-Konzerne Daten nutzen könnten, »wäre spekulativ und liegt außerhalb unserer aufsichtsrechtlichen Zuständigkeit«. Um Vertrauen und Akzeptanz aufzubauen, sei es »erforderlich, für Gesundheitsdaten immer eine sichere Verarbeitung zu gewährleisten«, erklärte der Sprecher.

Daria Onitiu hält die bisher gültigen Bestimmungen für viel zu vage. Die KI-Forscherin am Internet Institute der University of Oxford spricht sich dafür aus, dass ähnliche Regelungen wie in Deutschland künftig in der ganzen EU gelten sollen. Ihr zufolge ist allerdings noch völlig offen, ob die KI-Anwendungen nicht auch den Menschen nützen, deren Daten verwendet werden: »Ohne klare Richtlinien, was eine sekundäre Datennutzung für individualisierte und optimierte Gesundheitsangebote tatsächlich bringt, kann man nicht sagen, ab wann Training und Erprobung dieser Technik wirklich Vorteile für die Patienten erzeugt«, sagt sie.

Der Spitzenverband der gesetzlichen Krankenkassen in Deutschland, abgekürzt GKV, befürwortet es grundsätzlich, die Gesundheitsdaten auch zu Forschungszwecken und für eine bessere Versorgung zu nutzen. Aber »Zugriffsmöglichkeiten für außereuropäische Industrieunternehmen halten wir zum jetzigen Zeitpunkt für problematisch in Unkenntnis konkreter Anwendungsfälle«, zumal »ein Missbrauchspotential besteht«. Es brauche deshalb auch »wirksame Sanktionsmechanismen im Falle von Verstößen, um die Persönlichkeitsrechte der Betroffenen zu wahren und zu schützen«, betont der Krankenkassenverband.

Und noch eine Frage muss aus Sicht der Krankenkassen geklärt werden, wenn der Gesundheitsminister schon mit Google, OpenAI oder Meta spricht: »Welche Datenbeiträge wird die Industrie ihrerseits leisten, und werden auch ökonomische Mechanismen für eine angemessene Kompensation zugunsten der datengebenden Versichertengemeinschaft entworfen?« Falls die großen KI- und IT-Konzerne Zugang zum deutschen Datenschatz bekommen, so die Haltung des GKV, sollen sie dafür auch bezahlen.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.