Mediziner der Zukunft
Foto: iStock/ mediaphotos

Forschung versus Geschäft - Wie sicher sind Patientendaten?

Die Medizin der Zukunft ist auf große Datenmengen angewiesen, nicht zuletzt auf persönliche Daten. Doch wie geht die Forschung mit der Aufgabe um, die Rechte von Patienten im Auge zu behalten und gleichzeitig Forschung voranzutreiben?

2016 bekam die Google-Tochter DeepMind Akten mit Patientenfotos, Krankheitsverläufen und Röntgenbildern aus drei englischen Krankenhäusern übermittelt – von rund 1,6 Millionen Patienten, die sich dort jährlich behandeln lassen. Das belegt ein vom Wissenschaftsmagazin New Scientist veröffentlichter Vertrag zwischen DeepMind und dem Royal Free NHS Foundation Trust, einem der größten Krankenhausverbände Großbritanniens.

DeepMind nutzt die Patientendaten für seine App-Streams. Es ist ein Big-Data-Projekt, das Ärzten und Klinikpersonal die Diagnose und Behandlung von Patienten mit akuter Nierenerkrankung erleichtert – und zwar mithilfe von künstlicher Intelligenz (KI). Wie New Scientist berichtete, gehen die übermittelten Daten aber weit über das hinaus, was die Vertragspartner öffentlich bekannt gaben. Der KI-Spezialist DeepMind erhalte beispielsweise auch Informationen über HIV-positive Patienten, Drogenabhängige oder Frauen, die einen Schwangerschaftsabbruch vorgenommen hatten.

Die britische Datenschutzbeauftragte Elizabeth Denham rügte im Sommer 2017 nach längeren Ermittlungen schließlich die Datenweitergabe: Diese sei nicht verhältnismäßig gewesen und habe mit den rechtlichen Bestimmungen zum Datenschutz „nicht voll übereingestimmt“. Denham betonte zwar das große Potenzial einer kreativen Datennutzung für die Patientenbetreuung und den klinischen Fortschritt; der Preis für Innovation dürfe aber nicht die Erosion von fundamentalen Persönlichkeitsrechten sein. 

Recht auf Nichtwissen

Ohne Frage – der Datenschutz im Gesundheitsbereich wird im Big-Data-Zeitalter immer aufwändiger. Gleichzeitig verspricht die auf Datenanalysen und innovative Big-Data-Tools ausgerichtete Medizin große Fortschritte. Das unterstreicht auch das vom Stifterverband mitinitiierte Hightech-Forum. Dieses Forum beriet die Bundesregierung seit 2015 bis zum Ende der aktuellen Legislaturperiode 2017 zur Hightech-Strategie. Im Abschlussbericht heißt es: Eine solche Medizin könne nicht nur die Prävention von veranlagungsbedingten Krankheiten verbessern, sondern auch potenzielle Krankheiten feststellen – und zwar noch bevor sie ausbrechen. Seien Menschen bereits erkrankt, könnten diese Methoden wirksame, individualisierte Therapien an den jeweiligen Patienten anpassen.

Will man dies erreichen, braucht es künftig intensive Forschung auf dem Feld der Präzisionsmedizin. Dies wird aber ohne die Auswertung gesundheitsrelevanter Daten wie beispielsweise genetischer und molekularer Daten, bildgebender Befunde, Labordaten oder pharmakologischer Kausalzusammenhänge kaum gelingen. Die Experten des Hightech-Forums raten deshalb auch, ethische Aspekte bei der Präzisionsmedizin keinesfalls außen vor zu lassen, wie Abwägungen zur Privatheit und Transparenz sowie zur Nutzung technischer Möglichkeiten oder das „Recht auf Nichtwissen“. 

Peter Schaar
Foto: Wikipedia / Tobias Klenze CC-BY-SA 4.0
"Der Einzelne muss wieder mehr Kontrolle über die Daten haben." Datenexperte Peter Schaar

Ärzte, Kliniken, Wissenschaftler, Wirtschaft und Institutionen müssen die ihnen anvertrauten sensiblen Gesundheitsdaten schützen. In welchem Rahmen dies passieren soll, geben weltweit Datenschutzgesetze und Ethikleitlinien vor. Gleichzeitig bringen Grenzüberschreitungen aber auch enorme Innovations- und Wettbewerbsvorteile ein. Für einige Akteure ist dies Grund genug auszuloten, welche Spielräume in weniger regulierten Ländern oder datenschutzrechtlichen Grauzonen möglich sind, die durch den rasanten digitalen Fortschritt immer wieder entstehen.

Gerade Gesundheitsdaten hätten ein großes wirtschaftliches Potenzial, sagt Datenexperte Peter Schaar von der Europäischen Akademie für Informationsfreiheit und Datenschutz: „Insbesondere wenn es um die Identifikation von Patienten mit schweren Krankheiten geht, bei denen sehr teure Medikamente und hochpreisige Behandlungsmethoden infrage kommen.“

Technischer Fortschritt dürfe Grund- und Menschenrechte nicht einschränken oder gar ignorieren, fordert Schaar. „Wir müssen rechtliche und technische Verfahren entwickeln und einsetzen, die dem Einzelnen und der Gesellschaft wieder mehr Kontrolle über die Daten geben.“ Der Datenschutzexperte nennt hierfür eine rote Linie, die niemand überschreiten dürfe: „Es ist nur erlaubt, individualisierte Gesundheitsdaten mit dem Wissen des Betroffenen und bei Vorliegen einer expliziten, auf die jeweilige Verwendung bezogenen Einwilligung zu verarbeiten.“

Problembewusstsein steigt

In Deutschland ist diese Vorgabe den meisten wissenschaftlichen Akteuren auch mehr als bewusst. Unabhängig vom Forschungsgebiet gelten für die Forschung mit personenbezogenen Daten generell strikte Datenschutzvorgaben. „Das schützt natürlich nicht vor schwarzen Schafen, die die Anforderungen nicht im nötigen Maß beachten, meist eher aus Unkenntnis“, sagt Urs-Vito Albrecht von der Medizinischen Hochschule Hannover (MHH). Dort gehört er als geschäftsführender Arzt der Ethikkommission der MHH an. Er ist überzeugt, dass alle Beteiligten zunehmend mehr Wert auf die Einhaltung von Datenschutz oder ethischen Aspekten legen. Verlage fragten beispielsweise entsprechende Statements bei der Publikation von Forschungsergebnissen ab; Datenschutzbeauftragte, Ethikkommissionen oder Drittmittelgeber forderten entsprechende Planungen von Antragstellern für Forschungsvorhaben ein. Das Problembewusstsein steige hier allgemein.

Geht die deutsche Wissenschaft vorbildlich mit Daten um oder tut sie sich doch schwer damit? Teils, teils. Das ist die Einschätzung von Klaus Pommerening von der Universität Mainz. Er ist einer der Autoren des im Mai 2017 veröffentlichten Memorandums zum Datenschutz in der medizinischen Forschung.

Pommerening kennt sich bestens mit den rechtlichen Hürden im medizinischen Wissenschaftsalltag aus. Zwar wollten Forscher am liebsten mit der Arbeit an ihren Ideen loslegen und empfänden deshalb alle Arten von „bürokratischen“ Auflagen als hinderlich, doch in sehr vielen, meist großen Forschungsprojekten würden die vorbildlichen Datenschutzkonzepte der TMF umgesetzt, meint Pommerening. TMF ist die Abkürzung für Technologie- und Medienplattform für die vernetzte medizinische Forschung. Die Plattform entwickelte ihre Konzepte speziell für die öffentlich geförderte medizinische Forschung, einschließlich Biobanken, und stimmte dabei alle Details mit den Datenschutzbeauftragten des Bundes und der Länder ab. 

Hintergrund

Cover: Hightech-Forum

Prävention, Früherkennung und exzellente medizinische Versorgung: Das sind nur einige Themen des High-Tech-Forums der Bundesregierung gewesen. Zentrale Aufgabe des Gremiums war es, die Hightech‐Strategie der bisherigen Bundesregierung mit konkreten Handlungsempfehlungen zu begleiten. Der Präsident des Stifterverbandes, Andreas Barner, hatte den Vorsitz inne (gemeinsam mit dem Präsidenten der Fraunhofer-Gesellschaft). 

Ein Schwerpunkt war das Fachforum „Digitalisierung und Gesundheit“.  Für den Einzelnen und das Gemeinwesen insgesamt hat die exzellente medizinische Versorgung einen hohen Stellenwert. Zudem ist der Gesundheitsbereich weiterhin ein wichtiger Wirtschaftsfaktor und nicht zuletzt durch die zunehmende Entwicklung digitaler Lösungen ein Innovationstreiber in Deutschland. Deshalb setzte auch das Hightech-Forum auf Themen wie Prävention, ambulante Versorgung, personalisierte Therapieplanung und Nachversorgung.

Zum Hightech-Forum

Die deutsche Wissenschaft kann auch in Sachen IT-Sicherheit punkten, die eine wesentliche Grundlage für den Datenschutz ist. Der Informatiker Fabian Prasser von der TU München ist der Meinung, Deutschland sei hier gut aufgestellt. Er ist auf Methoden zum Schutz medizinischer Daten spezialisiert. Dort entwickelt ein Team unter Prassers Federführung die Anonymisierungssoftware ARX, welche personenbezogene Daten in der Wissenschaft noch besser schützen soll. Grundsätzlich sei es natürlich schwierig, sich in einem so herausfordernden und sich stetig wandelnden Themenfeld zurechtzufinden, beschreibt der Datenspezialist. „In der Praxis erlebe ich es häufig, dass Forscher mit Datenschutzfragen überfordert sind. Hier ist Expertenwissen gefordert und das Thema sollte deshalb auch in Forschung, Entwicklung und Lehre gestärkt werden.“

Was genau wird herausfordernder? Eine wesentliche Voraussetzung für die Verarbeitung personenbezogener Daten für Forschungszwecke ist die informierte Einwilligung. Die war verhältnismäßig einfach in der Umsetzung, als Befunde und Daten in der Regel bloß bei einem bestimmten Forschungsprojekt eingesetzt wurden, im Rahmen einer Dissertation beispielsweise, wo der jeweilige Forschungsleiter sozusagen noch die Hand darauf und den Überblick hatte. Im Big-Data-Zeitalter dagegen gilt diese Handhabung als überholt. So fordern deutsche und europäische Geldgeber zunehmend, dass gerade mit Steuergeldern finanzierte Forschungsdaten auch für andere Auswertungen verwendet werden sollten. 

Es ist schwer für Wissenschaftler, von vornherein zu wissen, welche Fragen zukünftig mit den Daten noch beantwortet werden könnten.
Foto: Katrin Schaar/ Leistenschneider

Katrin Schaar

Psychologin und Bildungsforscherin

Transparenz gegenüber den Betroffenen gefordert

Katrin Schaar hat dieses Feld am Institut für Psychologie an der Humboldt-Universität zu Berlin (HU Berlin) und am Max-Planck-Institut für Bildungsforschung (MPIB) genauer untersucht. „Durch die Mehrfachnutzung erhofft man sich, dass aus den Daten mehr und auch neue Fragestellungen beantwortet werden können.“ Bei Veröffentlichungen in internationalen Journalen bestehe zudem die Anforderung, dass die Analysen durch andere Forscher wiederholt werden können, um so die Ergebnisse zu überprüfen. „All dies hat allerdings den Haken, dass Teilnehmer von Forschungsvorhaben nicht mehr genau wissen, wie mit ihren Daten eigentlich geforscht wird“, sagt Katrin Schaar. Es bestehe die Gefahr, dass sie die Kontrolle über ihre Daten verlören.

Es gebe eine zentrale Hürde, sagt  Katrin Schaar. „Es ist schwer für Wissenschaftler, von vornherein zu wissen, welche Fragen zukünftig mit den Daten noch beantwortet werden könnten.“ Nichtsdestotrotz müssten Forscher Informationen über die Datennutzung wirklich einfach darstellen und dabei auch mögliche Risiken verständlich vermitteln. „Menschen sollten auch in der Lage sein – und das ist an sich auch eine Grundlage aller medizinischen Ethikrichtlinien –, ihre Zustimmung zur Teilnahme an einer Studie widerrufen zu können. Wenn man aber gar nicht mehr vollständig nachvollziehen kann, wer welche Daten nutzt, kann das nicht mehr gewährleistet werden.“

Und es kommt noch ein Risiko dazu: die Deanonymisierung. Wenn von der Wissenschaft anonymisierte Daten von Dritten mit anderen Datengruppen verknüpft werden, wie Facebook-Einträge oder Ortsangaben, können Patienten mit seltenen Krankheiten schnell identifiziert werden. Dieses Risiko wird mit genetischen Daten weiter verschärft. Forscher stehen also in der Verantwortung zu hinterfragen, welche technischen Innovationen womöglich eine eigentlich gut durchdachte Anonymisierung oder Pseudonymisierung in Zukunft aushebeln könnten. Pseudonymisierung meint dabei, dass der Name und andere Identifikationsmerkmale durch ein Kennzeichen ersetzt werden. So lassen sich später Daten wieder zurückverfolgen, falls der Wissenschaftler beispielsweise eine neue Einwilligung des Datengebers braucht oder aber Erkenntnisse gewinnt, die eine betreffende Person unbedingt wissen sollte.

Vermeintlich anonymisierte Daten, die zum allgemeinen Gebrauch freigegeben werden, also zum public use, müssten Deanonymisierungsangriffe für alle Zukunft und weltweit ausschließen, gibt Klaus Pommerening zu bedenken. Das sei schlichtweg aussichtslos. Er plädiert deshalb für ein Konzept eines scientific use, also für eine kontrollierte wissenschaftliche Nutzung, bei der Daten nur an vertrauenswürdige Wissenschaftler abgegeben werden dürfen: „Mit dem Verbot einer weiteren Verbreitung und dem Gebot zur absoluten Transparenz gegenüber den Betroffenen und der Öffentlichkeit.“ Genau das sei auch wesentlicher Bestandteil der Datenschutzkonzepte der TMF.