Ethik in der datenbasierten Medizin

Datenräume können Klarheit und Transparenz schaffen

Krankenversorgung und biomedizi­nische Forschung werden personalisierter und digitaler. Damit gehen nicht nur technische und medizinische Herausforderungen einher. Bei der datenbasierten Forschung stellen sich auch mannigfaltige ethische und erkenntnistheoretische Fragen. Judith Simon und Mark Schweda sind Mitglieder des Deutschen Ethikrats, der u. a. mit Stellungnahmen zu Künstlicher Intelligenz, Big Data und Pflegerobotik Akzente gesetzt hat. Ihr Plädoyer: Transparenz, Kommunikation und Partizipation schaffen Vertrauen.

In Gesundheitswesen und Ge­sund­heitsforschung entstehen derzeit Datenräume, die es so bisher nicht gab – die elektro­nische Patientenakte, der Euro­pean Health Data Space (EHDS) und ein durch das Gesund­heits­daten­nutzungs­gesetz abgesteck­ter, deutscher Forschungsdaten­raum. Welche ethischen Fragen stellen sich dabei?

Simon: Wichtig ist natürlich die Frage: Was ist ein guter und auch gerechter Zugang zu den Daten? Daran hängen ganz viele Fragen wie informierte Zustimmung, Datenschutz, aber auch Schutz der Privatsphäre. Zusätzlich stellen sich erkenntnistheoretische Fragen. Denn Daten in Datenräume zu stellen, ist alles andere als trivial. Die Art und Weise, wie ich Daten auswähle, sie annotiere und verschlagworte, hat massive Auswirkungen darauf, was später mit den Daten gemacht werden kann – auch vor dem Hintergrund, dass das Datensammeln und -annotieren in der Wissenschaft nicht sehr honoriert wird. Wir brauchen ein Umdenken über die Wertigkeit von Arbeit an den Daten.

Schweda: Mich interessiert auch noch, was die ganze „Datafizierung“ eigentlich mit uns macht. Dringen wir damit wirklich zum Kern dessen vor, was Gesundheit und gute medizinische Versorgung sind? Ich glaube, wir müssen aufpassen, dass wir nicht einer zu naiv-euphorischen Haltung gegenüber Daten anheimfallen. Daten kommt von „datum“, wörtlich „das Gegebene“. Diese Vorstellung gibt es tatsächlich – dass Daten einfach objektiv gegeben seien.

Daten fallen nicht vom Himmel, sie werden gemacht, und zwar in bestimmten sozialen, kulturellen und auch ökonomischen Kontexten.

Aber Daten fallen nicht vom Himmel, sie werden gemacht, und zwar in bestimmten sozialen, kulturellen und auch ökonomischen Kontexten. Das dürfen wir nicht ausblenden. Es ist schon wichtig, dass wir auch in den Maschinenraum der Datenfabrikation hineinschauen. Wir brauchen eine kritische Data Science, um nicht ohnehin existierende gesellschaftliche Biases in Gestalt vermeintlich objektiver Daten wieder auferstehen zu lassen.
 

Was heißt das für die Umsetzung eines Datenraums oder einer KI-Anwendung? Was müssen insbe­sondere Wissenschaftlerinnen und Wissenschaftler beachten?

Simon: Sie müssen sich der Präkonfiguration der Entscheidung durch die Art der Datenaufbereitung bewusst sein. Annotation und Verschlagwortung setzen Limitationen in Bezug auf das, was man mit den Daten machen kann. Das ist umso wichtiger, als die Idee der Datenräume ja gerade darin besteht, Daten unterschiedlicher Herkünfte auch zu anderen Zwecken als jenen der ursprünglichen Dokumentation einzusetzen. Auch die, die Daten einstellen, haben eine Verantwortung:

Je besser dokumentiert ist, auf welchen Vorannahmen die Daten beruhen, umso besser sind sie später verwendbar. Nötig ist möglichst viel Transparenz.

Aber Transparenz bedeutet viel Arbeit. Solange sich damit in der Wissenschaft kein Blumentopf gewinnen lässt, ist es schwierig.
 

Es gibt in der datenbasierten medizinischen Forschung ein Span­nungs­feld zwischen dem Wunsch nach bestmöglichem Schutz der Daten einerseits, und der Erwartung, dass Fortschritt auch einem selbst zugute­kom­men möge, andererseits. „Recht auf Gefunden­werden“ ist ein Stichwort. Lässt sich dieses Spannungsfeld auflösen?

Schweda: Es lässt sich jedenfalls nicht einfach nach der einen oder anderen Seite hin auflösen. Wir haben in Deutschland eine Tradition, Datenschutz sehr ernst zu nehmen. Allerdings gibt es zugleich viel Unsicherheit darüber, welche Anforderungen der Datenschutz im Einzelfall tatsächlich stellt. Das führt dann mitunter zu einer unnötig restriktiven Handhabung, um bloß auf der sicheren Seite zu sein. Ich glaube, Entwicklungen wie der EHDS können hier mehr Klarheit und Transparenz schaffen und einen besseren Ausgleich bringen zwischen Weiterentwicklung der Medizin und Anforderungen des Datenschutzes.

Simon: Sehr schade finde ich, dass es oft eine polarisierte Debatte wird: Patientenwohl versus Datenschutz oder gar Aussagen wie „Datenschutz kostet Menschenleben“. Das ist der Komplexität der Abwägungen nicht angemessen. Was richtig ist: Wir haben sicher zum einen eine Diskrepanz zwischen Datenschutzrecht und Datenschutzpraxis – oft wäre rechtlich mehr möglich als getan wird. Mehr Einheitlichkeit und Klarheit würde hier der Forschung helfen. Was man sich aber auch klar machen muss: Menschen, die den Datenschutz hochhalten, tun das nicht, weil sie Daten schützen wollen, sondern sie wollen die Privatsphäre und Autonomie von Menschen schützen, oder haben Fragen von Gerechtigkeit im Blick – und das sind wichtige Aspekte.
 

Wie stehen Sie zu dem Argu­ment, dass es in einem solida­rischen Gesundheitswesen auch eine Art moralische Pflicht für Datenfreigabe bzw. Teilnahme an Forschung gebe?

Schweda: Wir alle wollen profitieren von einer guten medizinischen Versorgung. Das setzt medizinische Forschung voraus, die heute nur als datenintensive Forschung funktioniert. Dass daraus eine gewisse moralische Verantwortung entsteht, halte ich schon für bedenkenswert. Aber das Recht des Individuums, in irgendeiner Form über seine Daten zu verfügen, eine „Datensouveränität“ auszuüben, wie das der Deutsche Ethikrat mal genannt hat, muss im Zweifel immer stechen. Die starke Betonung individueller Freiheitsrechte in der medizinischen Forschung kommt hierzulande ja nicht von ungefähr. Dahinter steht die historische Erfahrung einer kollektivistischen Vereinnahmung von Individuen für Forschung.

Simon: Ich sehe das auch so, zumal von den „Kosten“ und dem „Nutzen“ des Datenteilens nicht alle gleichmäßig betroffen sind. Ein Beispiel: Wenn ich gesund und fit bin und ein hohes Einkommen habe, dann bringt Datenteilen für mich oft viele Vorteile mit sich, weil ich nämlich bessere Konditionen bekomme, während für andere, die schlechter gestellt sind, das genaue Gegenteil gilt. Entsprechend können Menschen gute Gründe haben, ihre Daten nicht teilen zu wollen, wenn ihnen – berechtigterweise – das Vertrauen fehlt, dass die Daten für sie und in ihrem Sinne verwendet werden. Natürlich beißt sich die Katze da manchmal in den Schwanz, das ist mir klar. Gerade marginalisierte Gruppen wären ja u. U. medizinisch besser versorgt, wenn es mehr Daten über sie gäbe. Auflösen lässt sich das nur, indem man versucht, Vertrauen und Transparenz zu schaffen.
 

Das konkrete Umsetzungs­vehikel für Datensouveränität ist im Zusammenhang mit den Gesundheitsdatenräumen die Opt-out-Regel. Wie ordnen Sie dieses Konstrukt ein? Wir reden ja von Daten, die initial nicht für die Forschung, sondern für die Versorgung erhoben wurden. Da gab es eine einwilligungsfreie Forschung bisher nur sehr begrenzt bei einigen wenigen Public-Health- Auswertungen.

Schweda: Zunächst mal ist tatsächlich festzuhalten, dass das eine sehr grundlegende Veränderung der Art und Weise ist, wie wir bisher medizinisch geforscht haben. Traditionell wurde in der Regulation und auch der ethischen Bewertung unterschieden zwischen dem Versorgungskontext, der auf den Einzelnen und seine Gesundheit abzielt, und dem Forschungskontext, in dem es primär um die Generierung von Wissen geht. Bisher stellte hier ein ganz klar punktuell gedachter Informed Consent, bezogen auf ein konkretes Forschungsvorhaben, die notwendige Bedingung für die Teilnahme an Forschung dar. Das ist ein Grundsatz, von dem wir jetzt im Zeichen datenintensiver Forschung abrücken. Ich bin zumindest überrascht, wie geräuschlos diese Entwicklung in Deutschland bisher vonstattengegangen ist. Und ich bin sehr gespannt, wie die öffentliche Diskussion dazu in Zukunft verlaufen wird.

Simon: Ich bin da ein bisschen ambivalent. Wir haben während der Pandemie gemerkt, dass uns Daten an vielen Stellen fehlten. Aber gerade wenn es zu so einer Umkehr der Einwilligung kommt, muss man sich umso stärker Gedanken über zukünftige Verwendungsweisen der Daten und über den Schutz der Bürgerinnen und Bürger machen. Natürlich gibt es für bestimmte Forschung auf Populations- und Gruppenebene einen großen Mehrwert, aber das kann auch kippen. Da liegt der Teufel im Detail: Wie gut sind die Personen aus unterschiedlichen Arten von Daten reidentifizierbar? Und welche möglichen Schäden gibt es für Individuen, aber auch Gruppen, durch die weitere Verarbeitung dieser Daten?
 

Sollte die Kommunikation darüber stärker angestoßen werden?

Schweda: Definitiv. Was wir brauchen, ist eine echte Einbindung von Bürgerinnen und Bürgern in die entsprechenden Debatten und auch in die entsprechende Forschung.

Wir sollten den Gedanken der Partizipation ernst nehmen und ihn im Sinne einer echten, auch politischen Mitsprache­möglich­keit verstehen.

Die Einbindung der Bürgerinnen und Bürger muss im Grunde schon auf der Ebene des Agenda-Settings stattfinden: Zu was soll geforscht werden? Sie kann stattfinden, wenn es um das Design von Forschungsprojekten geht, bei der Datenerhebung, bei der Auswertung.
 

Wie kann eine Organisation wie die TMF bei Debatten zu den ethischen Dimensionen der datenbasierten Forschung unterstützen?

Simon: Es braucht Akteure, die in der Lage sind, zu den relevanten Debatten nuanciert beizutragen, ohne in die Polarisierungsfalle zu tappen. Das ist für die TMF, die ja Eigeninteressen in diesem Feld hat, auch eine Verpflichtung. Ich sehe auch eine Rolle für die TMF bei dem Thema Vertrauen schaffen, gerade bei den Communities und Individuen, die weniger Vertrauen haben.

Schweda: Ich denke, dass die TMF sich vielfältig betätigen kann. Sie tut das ja bereits, aber das ist sicher noch ausbaubar. Ein Beispiel wäre die stärkere Einbindung der Öffentlichkeit in die Diskussionen um den EHDS. Die TMF kann sich auch beteiligen bei der Weiterentwicklung kritischer „Data Science“-Approaches, die stärker auf den bereits angesprochenen Maschinenraum der Datengenerierung fokussieren. Es gibt da sehr viele Möglichkeiten, in Judith Simons Sinn vertrauensgenerierend zu wirken. Und es gibt auch nicht so viele Akteure, die solche Diskussionen in der nötigen inhaltlichen Tiefe und Nuanciertheit führen können.

Über die Interviewpartnerin

Über die Interviewpartnerin

Prof. Dr. phil. Judith Simon ist Professorin für Ethik und Informationstechnologie an den Fachbereichen Informatik und Philosophie der Universität Hamburg. Sie beschäftigt sich u. a. mit ethischen und erkenntnistheoretischen Fragen, die sich rund um KI und Big Data stellen, wobei sie nicht spezifisch auf Medizin fokussiert, sondern sich unterschiedliche Branchen und Anwendungsgebiete ansieht. Simon ist stellvertretende Vorsitzende des Deutschen Ethikrats.

Über den Interviewpartner

Über den Interviewpartner

Prof. Dr. phil. Mark Schweda leitet die Abteilung für Ethik in der Medizin am Department für Versorgungsforschung der Fakultät VI – Medizin und Gesundheitswissenschaften der Carl von Ossietzky Universität Oldenburg. Ein Schwerpunkt seiner Arbeit liegt auf der Digitalisierung in der Gesundheitsversorgung. Der Philosoph und Medizinethiker beschäftigt sich z. B. mit technischen Assistenzsystemen in der Pflege, außerdem mit KI in der Medizin. Ein aktuelles Thema: Was macht Machine-Learning mit dem Selbstverständnis der Psychiatrie? Schweda ist Mitglied des Deutschen Ethikrats.