Außerdem können Neurodaten spezifisch für den Kontext sein, in dem sie gesammelt wurden. Gehirnwellenmuster können sich aufgrund von Umweltbedingungen, der Stimmung der Person und im Laufe des Lebens eines Einzelnen verändern. Was in der einen Situation "genau" sein mag, kann in einer anderen ganz anders aussehen. Und wie könnte jemand das Recht in Anspruch nehmen, seine auf Näherungswerten basierenden Daten einzusehen und zu korrigieren - wenn die Erzeugung der Daten komplexes wissenschaftliches und technisches Fachwissen voraussetzt? Und um das Ganze noch verwirrender zu machen: Wie kann ein Mensch die Genauigkeit von Daten in Frage stellen, wenn sich diese auf Aspekte seiner Person beziehen, die ihm unbewusst sind?
Bestimmte Formen von Daten sind besonders anfällig für Diskriminierung und andere Eingriffe in das allgemeine Persönlichkeitsrecht. Das derzeitige Datenschutzrecht berücksichtigt dies und definiert besondere Arten von Daten wie etwa Gesundheitsdaten als "sensibel"'. Es gibt strengere Vorschriften zu deren Verarbeitung, die zudem im Voraus von einer Aufsichtsbehörde auf ihre Verhältnismäßigkeit hin geprüft werden muss. Auf der einen Seite scheint es offensichtlich, dass Neurodaten - insbesondere solche zu Gedanken und Gefühlen - von sehr privater Beschaffenheit sind und daher als "sensibel" betrachtet werden müssen. Die Liste der sensiblen Daten ist jedoch sehr exklusiv, und Neurodaten gehören bislang noch nicht dazu. Nach derzeit geltendem Recht unterlägen Neurodaten den gleichen Vorschriften wie Schuhgrößenmessungen.
Könnte man den Mangel also dadurch beheben, dass man die Liste der sensiblen Daten um Neurodaten erweitert? Nein, so einfach ist es leider nicht. Wie erwähnt, hat das Datenschutzrecht nicht nur den Schutz des Individuums, sondern gleichzeitig auch die Legalisierung der Verarbeitung personenbezogener Daten unter bestimmten Voraussetzungen zum Ziel. Dabei geht es um einen Ausgleich von Interessen bei der Datenverarbeitung. Gibt es womöglich Fälle, in denen ein solcher Ausgleich prinzipiell nicht möglich ist?
Die Verarbeitung von Neurodaten ist höchst problematisch
In der UN-Menschenrechtscharta und der Europäischen Menschenrechtskonvention werden der Geist und damit verbundene Begriffe wie etwa persönliche Gedanken, Gefühle und emotionale Zustände als Kern der Privatsphäre eines jeden verstanden. Dieses sogenannte forum internum ist untrennbar verbunden mit der Würde, Persönlichkeit und Autonomie des Menschen. Während das Datenschutzrecht bei einem "berechtigten Grund" jedwede Verarbeitung personenbezogener Daten legalisiert, sollte aber das forum internum - die innere geistige Welt des Einzelnen - bedingungslos geschützt bleiben.
Die Freiheit der Gedanken hat absolute Gültigkeit. Falls es einen physiologischen Bezugspunkt für den Geist gibt, dann ist dies das Gehirn. Falls Gedanken eine physische, messbare Existenz haben sollten, dann sind wir mit dem Aufzeichnen von Neurodaten wohl so nah wie nie zuvor an diese herangekommen. So betrachtet, ist die Verarbeitung von Neurodaten höchst problematisch.
Aber was genau sind eigentlich Gedanken? Und wie werden diese durch Neurodaten reflektiert? Der Rechtswissenschaftler Jan-Christoph Bublitz beschreibt den aktuellen Zustand so: "Ich vermute, dass Rechtsgelehrte und Gerichte nicht übermäßig ambitioniert sind, sich mit diesen Fragen zu befassen, und sich lieber an den Glauben klammern, dass die Freiheit der Gedanken nicht nur juristisch, sondern tatsächlich unantastbar ist, da Gedanken und der Geist (. . .) jenseits der Reichweite von Interventionen sind." Aber was ist, wenn Neurodaten in Verbindung mit bestimmten Anwendungen tatsächlich einen Übergriff auf das forum internum darstellen? Kann es dann legitim sein, ihre Verarbeitung zu verbieten?
Neue Technologien berühren unsere Grundrechte
Noch sind neurodatenverabeitende Technologien kaum verbreitet. Aber schon jetzt muss man in den Blick nehmen, dass wir es in Zukunft überall mit einer neuen Qualität von Daten zu tun haben werden - sei dies durch die schiere Quantität und Kopplung von großen Datensätzen (Big Data) oder durch neue Formen wie Biometrie-, Gen- oder eben Neurodaten bedingt. Das klassische Datenschutzrecht - mit seiner Logik von einfachen und besonderen Arten personenbezogener Daten - greift hier zu kurz und wird den neuen Herausforderungen nicht mehr gerecht. Hinzu kommt, dass Neurodaten auch als Grundlage für Statistiken und darauf aufbauende Annahmen und Modelle dienen werden. Diese Wissensgenerierung betrifft dann nicht mehr nur den Datenschutz, sondern auch ganz allgemein die Persönlichkeitsrechte und die Privatsphäre.
Problematische neue Technologien und Überwachung berühren unsere Grundrechte. Zwar stehen Persönlichkeitsrechte immer auch im Spannungsverhältnis zu anderen gesellschaftlichen Zielen. Aber bei der künftigen Nutzung von bestimmten Neurodaten darf es keinen Ausgleich mit anderen Interessen geben, wie ihn das geltende Datenschutzrecht durch eine Vielzahl von Ausnahmen häufig vorsieht. Grundrechte wie die Menschenwürde oder eben jene Gedankenfreiheit sind unveräußerlich und gelten absolut. In einer freiheitlichen demokratischen Grundordnung stehen sie nicht für den Staat oder für Unternehmen zur Disposition.
Dara Hallinan, Philip Schütz und Michael Friedewald arbeiten am Fraunhofer-Institut für System- und Innovationsforschung ISI, Paul de Hert an der Vrije-Universität Brüssel.