Statt mit Spitzkelle und Pinsel suchen Archäologen heute auch mit Maus und Tastatur nach Hinweisen auf das Leben unserer Vorfahren. Nicht in südeuropäischen Lehmgruben stöbern sie dann nach Zeugnissen menschlicher Zivilisationen, sondern in großen Datensätzen. Die Altertumswissenschaft steht damit symptomatisch für eine Entwicklung in vielen wissenschaftlichen Disziplinen: Daten sind in immer größerer Zahl verfügbar, spielen selbst in den Geisteswissenschaften mittlerweile eine große Rolle - mitunter sogar als Trainingsdaten für maschinelles Lernen, einen Teilbereich der künstlichen Intelligenz. Big Data heißt das Schlagwort. Manche, denen dieser Begriff nicht bildungssprachlich genug ist, sprechen gar etwas hochtrabend von einer empirischen Revolution.
Die stärksten Korrelationen nützen nichts, wenn sie nicht richtig interpretiert werden
Experten fordern deshalb immer wieder, dass sich auch die wissenschaftliche Ausbildung in vielen Fächern verändern muss. Archäologen müssten nicht nur Latein, sondern auch die Datenbanksprache SQL sprechen, heißt es dann sinngemäß. Auch in einem kürzlich veröffentlichten Positionspapier der Plattform Lernende Systeme, eines vom Bundesforschungsministerium gegründeten Expertengremiums, regen Wissenschaftler an, in Studiengängen jenseits der Informatik vermehrt "Fähigkeiten im Datenmanagement" zu vermitteln. Der "Data Literacy" müsse schon in der Schule "ein breiter Raum eingeräumt werden".
Bei der Debatte um Big Data entsteht bisweilen der Eindruck, dass sie vor allem schräge Sprachbilder statt neuer Server hervorbringt. Nicht bei archäologischen Ausgrabungen, sondern in Sonntagsreden werden "Datenschätze geborgen", und weil Daten angeblich das Öl des 21. Jahrhunderts sind, wird Umweltschutz absurderweise mit Datenschutz verglichen. Vor diesem Hintergrund ist das jüngste Positionspapier erst einmal zu begrüßen - die Autoren bemühen keine abgedroschenen Phrasen, sondern machen konkrete Vorschläge: Studierende sämtlicher Fächer müssten sich damit befassen, wie man Daten erschließt, sammelt, deren Qualität bewertet, sie schließlich verarbeitet, eventuell transformiert und speichert.
Doch halt, fehlt da nicht etwas? Richtig, ausgewertet werden müssen die Daten auch noch. Die statistische Analyse ist aber nicht - wie im Positionspapier suggeriert - eine von vielen, sondern die Kernkompetenz schlechthin, wenn belastbare wissenschaftliche Erkenntnisse gewonnen werden wollen. Einfach agnostisch in den Daten herumzuwühlen mag in der Industrie helfen, Probleme zu lösen. In der Wissenschaft aber geht es um mehr: strukturelle Zusammenhänge, die über den Datensatz - und sei er noch so groß - hinausreichen.
Hierfür müssen Forscher ihr statistisches Handwerk beherrschen, was oft genug nur bedingt der Fall ist, aber vor allem geballtes Fachwissen mitbringen. Um beim Beispiel der Archäologie zu bleiben: Die stärksten Korrelationen zwischen Fundorten nützen nichts, wenn sie nicht in den historischen Kontext eingebettet werden. Natürlich schadet es nicht, wenn eine Archäologin Queries (Datenbankabfragen) selbst schreiben kann. Doch das können ihr auch benutzerfreundliche Programme abnehmen - die Interpretation und Einordnung der statistischen Ergebnisse nicht.