In der Experimentierhalle L05-03 der Technischen Universität Darmstadt zeigt Grigorios Hatzissawidis ein Video, das er mit einer Hochgeschwindigkeitskamera aufgezeichnet hat: Wasser strömt um ein Profil des Tragflügels eines Boots, Wirbel und Blasen bilden sich. "Pro Sekunde nimmt die Kamera bis zu 20 000 Bilder auf", sagt der wissenschaftliche Mitarbeiter - ein Beispiel dafür, wie datenintensiv Forschung sein kann. Am Institut für Fluidsystemtechnik wollen Hatzissawidis und seine Kollegen diese Datenflut auch anderen zugänglich machen.
Denn potenziell nutzen Forschungsdaten nicht nur denen, die sie erheben. Andere können sie verwenden, mit ihren Ergebnissen vergleichen, neue Schlüsse daraus ziehen, auch Jahre später. Beispielsweise können die Daten der Hochgeschwindigkeitskamera eine künstliche Intelligenz trainieren, die die Bildung von Blasen vorhersagt. Damit lassen sich dann auch Aufnahmen von einfachen Kameras analysieren, die mit normaler Geschwindigkeit aufzeichnen.
Diese Veredelung von Forschungsdaten zum Allgemeingut für die Wissenschaft ist die Idee der Nationalen Forschungsdateninfrastruktur (NFDI). Rund tausend Forscher diverser Fächer bauen dieses Netz derzeit auf.
"Das sollte nicht nur ein Strohfeuer gewesen sein"
York Sure-Vetter, Direktor der NFDI, beschreibt die Situation so: "Wir ertrinken in Daten, können sie aber nicht finden." Es fehlten miteinander verknüpfte Datenräume für die Wissenschaft, sagt er, und meint geschützte virtuelle Orte, die den Austausch von Daten über Fachgrenzen hinweg erleichtern. Wenn zum Beispiel Kunsthistoriker anhand der Farbe auf einem Bild herausfinden wollen, wie alt dieses ist, könnten sie dort materialwissenschaftliche Daten zu den verwendeten Pigmenten finden.
Seit 2020 entstehen nun solche Datenräume, vorerst innerhalb einzelner Fachgebiete, 26 Konsortien haben sich gebildet. Bei ihnen geht es weniger um die Hardware, sondern um die Daten und den kompetenten Umgang damit. Die Daten bekommen eine Art Personalausweis, sagt Sure-Vetter. Neben einer eindeutigen ID-Nummer sind das sogenannte Metainformationen. "Daten haben einen Kontext, ohne den sie ein anderer Forscher nicht verstehen kann", sagt Sure-Vetter. "Ähnlich wie eine Excelspalte ohne Überschrift." Metadaten beschreiben diesen Kontext mit Zusatzinformationen, etwa Typ und Seriennummer des Messgerätes, die Unsicherheit von Messwerten oder die Zielsetzung einer soziologischen Umfrage.
Die Realität ist davon noch weit entfernt. Laborbücher zum Beispiel werden oft noch handschriftlich geführt. Dabei enthalten sie wichtige Informationen, ohne die die Ergebnisse eines Experiments kaum zu verstehen sind. Für Chemiker hat das Konsortium "NFDI4Chem" ein elektronisches Laborbuch entwickelt, in dem die experimentellen Daten mit Kommentaren, Bildern, Diagrammen oder die Zusammensetzung der Proben ergänzt werden.
Obwohl die Vorteile auf der Hand liegen, ist es für Wissenschaftler derzeit noch wenig attraktiv, ihre Daten zu teilen, weshalb sie diese kaum für diesen Zweck aufbereiten. Die Reputation eines Forschers hängt vor allem an Publikationen in klassischen Fachmagazinen. Zudem identifizieren sich Forscher mit ihren Daten, sie nennen sie oft ihr "eigenes Gedankengut" oder "Herzblut", wie die Soziologin Eva Barlösius von der Universität Hannover im April bei einer Tagung sagte, die vom Rat für Informationsinfrastrukturen in Zusammenarbeit mit der Volkswagenstiftung veranstaltet wurde. Auch das hemmt den Eifer zum Datenteilen.
Die Bereitschaft dafür dennoch zu schaffen, nennt Sure-Vetter die "größte Hürde". Es brauche einen Kulturwandel. Dazu gehöre, dass ein geteilter Datensatz genauso zur Reputation eines Forschers beiträgt wie eine herkömmliche Fachpublikation.
Wissenschaft:Immer mehr Studien, immer weniger Durchbrüche
Große Entdeckungen und einflussreiche Erfindungen werden laut einer Analyse immer seltener. Schwindet die Innovationskraft der Menschheit?
Aber auch Datensicherheit, Datenschutz, lizenz- und urheberrechtliche Aspekte seien zentral, damit die Forscher Vertrauen in die neue Infrastruktur entwickeln, betont Canan Hastik, Expertin für Forschungsdaten an der TU Darmstadt. "Das Prinzip der Forschungsfreiheit fordert, dass niemand mit kommerziellem Interesse Zugriff auf die Daten haben darf", sagt die Datenmanagerin, die an zwei NFDI-Konsortien beteiligt ist. Personenbezogene Daten, etwa aus sozialwissenschaftlichen Erhebungen, würden nur über "komplexe Zugangsmodelle" zugänglich gemacht, die etwa Anonymisierung und andere Datenschutzrichtlinien berücksichtigen, erklärt Hastik.
Genauso wichtig sei es, Forschern die digitalen Kompetenzen zu vermitteln, Forschungsdaten so aufzubereiten, dass sie auffindbar sind, betont Sure-Vetter. An der TU Darmstadt fangen sie damit schon in den Bachelorstudiengängen an. In einem "Praktikum Digitalisierung" bauen Studenten das digitale 3-D-Modell eines Legoautos. Jedes digitale Bauteil ist mit Daten angereichert: Was kostet es, wie viel wiegt es, welche Farbe hat es? "Die Studenten lernen, wie man aus der Verknüpfung dieser Daten einen Mehrwert erzeugt", erklärt der wissenschaftliche Mitarbeiter Philipp Wetterich. Zum Beispiel, wie sich ein möglichst preisgünstiges Leichtbaufahrzeug zusammenstellen lässt.
Doch der Kulturwandel ist tiefgreifend und wird sich kaum innerhalb weniger Jahre vollziehen. Das könnte für die NFDI zum Problem werden. Denn Bund und Länder fördern das Projekt vorerst nur bis 2028. Die Forscher, die die Infrastruktur aufbauen, sorgen sich um die Verstetigung. "Die Konsortien haben in den ersten drei Jahren enorme Aufbauarbeit geleistet", sagt Sure-Vetter. "Das sollte nicht nur ein Strohfeuer gewesen sein."
Anmerkung de Redaktion: In einer früheren Version dieses Textes stand, dass die Tagung im April von der NFDI ausgerichtet wurde. Tatsächlich wurde diese Veranstaltung vom Rat für Informationsinfrastrukturen (RfII) ausgerichtet. Wir haben die Passage korrigiert.