"Es ist wichtig, dass man in Forscherteams einheitliche Datenformate und eindeutige Datenbeschreibungen verwendet"
© Zubada - stock.adobe.com
"Wissenschaftler müssen wissen, wie sie an die archivierten Daten wieder herankommen. Da sie häufig in Forschungsverbünden, interdisziplinär und an verteilten Standorten arbeiten, reicht ein einfacher FTP-Server als Speicherort für Forschungsdaten nicht aus. Neben einem abgesicherten Datenzugriff ist es außerdem wichtig, dass man in Forscherteams einheitliche Datenformate und eindeutige Datenbeschreibungen verwendet."
Am 9. Juni 2011 fand unter Leitung von Frank Dickmann bei der TMF in Berlin der Kickoff-Workshop zu dem von der DFG geförderten Projekt "Langzeitarchivierung biomedizinischer Forschungsdaten" statt, an dem auch die TMF beteiligt ist.
Das Interview zu diesem Thema führte Beate Achilles im Juni 2011.
Warum ist Langzeitarchivierung aktuell ein wichtiges Thema?
In der Forschung werden immer mehr digitale Daten erzeugt, die auch nach Zeiträumen jenseits von 30 Jahren noch einfach, verlässlich und schnell zugänglich sein müssen. In der medizinischen Forschung sind das neben Messwerten auch Quelldaten wie Laborberichte, Krankenakten, Identifizierungs- und Pseudonymisierungslisten etc. Digitale Medien unterliegen einem schnelleren Lebenszyklus als analoge „Speichermedien“, wie man sie in früheren Zeiten hatte. Was vor hunderten von Jahren auf Lumpenpapier geschrieben wurde, ist heute noch oftmals gut erhalten und lesbar.
Denken Sie beispielsweise an die Gutenberg-Bibel. Wenn Sie diese mit einer Datei vergleichen, die lediglich auf einer Diskette gespeichert ist, wird das Problem der digitalen Archivierung deutlich: Kaum ein Rechner hat heute noch ein Diskettenlaufwerk, um diese Datenträger zu lesen. Mit anderen elektronischen Datenträgern verhält es sich ähnlich. Wenn Sie als Bibliothek oder Forschungseinrichtung digitale Publikationen und andere Daten zur langfristigen Nachnutzung aufbewahren wollen, stehen Sie also vor einer technischen Herausforderung. Deshalb ist Langzeitarchivierung in allen Forschungsbereichen ein wichtiges und zunehmend schwieriges Thema.
Welche besonderen Herausforderungen bestehen bei den medizinischen Forschungsdaten?
Durch die immer bessere Technologie entstehen in der Medizin gigantische Datenmengen. Beispielsweise bei bildgebenden Verfahren wie MRT (Magnetresonanztomographie) und CT (Computertomographie) werden heute bereits vierdimensionale Daten aufgenommen. Die Geräte erzeugen aus Schnitten durch Gewebeschichten nicht nur 3D-Daten, sondern zeichnen als vierte Dimension auch Veränderungen im Zeitablauf auf. Pro Sekunde werden 25 Bilder erzeugt – das ergibt eine Datenmenge von ca. einem Gigabyte (= 1024 MB) pro Bilddatensatz für einen einzigen Patienten.
Weltweit bewegt man sich in der medizinischen Bildgebung bei den jährlich erzeugten Datenmengen in Größenordnungen von Petabytes, das entspricht einer Eins mit 15 Nullen. Der Medizininformatiker Barry Robson prognostizierte 2009¹ nur für diesen Bereich weltweit ein Aufkommen von 150 Petabyte pro Jahr. Archiviert man solche Datenmengen über mehrere Jahre, gelangt man in Größenordnungen von Exabytes - das entspricht einer Eins mit 18 Nullen. Dass es schwierig werden könnte, in solchen Datenmengen noch Inhalte gezielt wieder zu finden, kann man sich unschwer vorstellen.
Welche Lösungen gibt es dafür momentan?
An den Universitäten erfolgt die Langzeitarchivierung derzeit in den Rechenzentren. Dort liegen häufig genutzte wissenschaftliche Daten auf schnellen Festplatten und sind leicht abrufbar. Weniger frequentierte Daten liegen auf Bandspeichergeräten. Sie bieten sehr viel Speicherplatz, sind preiswerter aber auch deutlich langsamer als Festplatten. Wenn man Daten von einem Bandspeicher auf einen anderen bzw. neuen migrieren möchte, kann das leicht mehrere Monate dauern.
Momentan sind spezielle Arbeitsgruppen und Institutionen im Aufbau, die sich mit der Langzeitarchivierung von Forschungsdaten beschäftigen. Häufig sind dabei die Uni-Bibliotheken mit einbezogen.
Wie sehen die Anforderungen der Wissenschaftler an die Langzeitarchivierung aus?
Wissenschaftler müssen wissen, wie sie an die archivierten Daten wieder herankommen. Da sie häufig in Forschungsverbünden, interdisziplinär und an verteilten Standorten arbeiten, reicht ein einfacher FTP-Server als Speicherort für Forschungsdaten nicht aus. Neben einem abgesicherten Datenzugriff ist es außerdem wichtig, dass man in Forscherteams einheitliche Datenformate und eindeutige Datenbeschreibungen verwendet.
Dateien müssen technische Metadaten mitführen, wie z.B. einen Zeitstempel und Informationen über das Programm und das Messgerät, mit dem die Nutzdaten erzeugt wurden. Mit intellektuellen Metadaten muss zusätzlich in standardisierter Form beschrieben werden, was die Datei enthält. Mit einer solchen intellektuellen Beschreibung bleiben Daten auch nach Jahrzehnten noch interpretierbar. Bei medizinischen Daten müssen außerdem natürlich die Anforderungen des Datenschutzes erfüllt sein.
Auch die Grid-Technologie kommt beim Thema Langzeitarchivierung ins Spiel. Warum?
Grid² ermöglicht die Verarbeitung sehr großer Datenmengen und den Zugriff auf diese Daten – also genau das, was in der Langzeitarchivierung gefordert ist. Ein Grid beinhaltet mit der „Public Key Infrastructure“ (PKI) auch Sicherheitsinfrastrukturen, die den Datenschutz gewährleisten. Nutzer müssen sich beispielsweise über elektronische Zertifikate, authentifizieren, das ist ähnlich wie bei der Online-Steuererklärung über Elster. Über diese Authentifizierung mit so genannten X.509-Zertifikaten weiß das System, wer man ist und welche Daten man einsehen und nutzen darf.
Welche Fragestellungen und Ziele sollen in dem Projekt "Langzeitarchivierung biomedizinischer Forschungsdaten" bearbeitet werden?
Zielrichtung unseres Projekts, an dem unter anderem auch die TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. und die Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) beteiligt sind, ist eine Laborimplementierung auf Basis vorhandener Grid-Technologie. Bis April 2013 sollen anhand von zwei Nutzungsfällen speziell die Aspekte Metadaten und Formatstandard für die biomedizinische Forschung adressiert werden. Hierfür werden wir exemplarisch mit Bilddaten vom Universitätsklinikum Magdeburg und mit Genomdaten vom Universitätsklinikum Schleswig-Holstein in Kiel arbeiten. Das Projekt wird auch das Problem bearbeiten, wie man Daten aus wissenschaftlichen Rechenzentren effizient wieder herausholt.
Ein weiterer Aspekt wird die Entwicklung eines Betriebskonzeptes zur Sicherung der langfristigen Finanzierung von virtuellen Langzeitarchiven sein. Forscher sollten idealerweise in Zukunft schon bei der Antragstellung den Finanzbedarf für die Langzeitarchivierung berücksichtigen.
¹ Barry Robson, „The engines of Hippocrates, John Wiley & Sons Inc. (2009), S.17
² Unter dem Begriff Grid verbirgt sich eine Infrastruktur, die es auch wenig geübten und unerfahrenen Nutzern gestatten soll, Ressourcen jedweder Art (Hardware, Software, Datenbanken, Laborgeräte und Wissen) in einfacher, sicherer und transparenter Weise nutzen zu können.