Künstliche Intelligenz:So lassen sich private Daten vor der KI schützen

Lesezeit: 3 Min.

Menschen geben in KI-Programme wie Chat-GPT oft Anweisungen ein wie: „Formuliere ein freundliches Anschreiben“ – und teilen dabei auch diverse persönliche Daten. (Foto: Dmitrii Marchenko/IMAGO/Zoonar)

Wer einer KI Fragen stellt oder Anweisungen gibt, teilt oft viele persönliche Daten. Das geht auch anders.

Von Mirjam Hauck

Sie heißen Chat-GPT, Copilot und seit Neuestem Deep Seek – KI-Anwendungen, die einem das Leben leichter machen sollen, indem sie Anschreiben freundlicher formulieren, Bewerbungen für einen besseren Job schreiben oder ganz einfach Fragen beantworten. Doch nicht jeder will, dass die in den Texten verwendeten persönlichen Daten, wie Namen, Adressen, Telefonnummern, E-Mails oder auch Kreditkartennummern, bei den Anbietern in den USA oder China landen. Wo sie dann gespeichert werden und die KI-Systeme, die großen Sprachmodelle, quasi weiter mit ihnen trainiert werden. Wer Wert auf den Schutz seiner Daten legt, muss sich also etwas überlegen, wenn er künstliche Intelligenzen nicht mit persönlichen und sensiblen Information füttern will.

So ging es Frank Börncke. Der promovierte Münchner Informatiker und Computerlinguist beschäftigt sich beruflich mit künstlicher Intelligenz, und dabei ist ihm aufgefallen, dass viele Menschen Chat-GPT wie Google nutzen: „Sie geben da Fragen und Daten ein und drücken auf Absenden.“  Das habe er auch gemacht, aber in dem Moment des Absendens immer ein großes Unwohlsein empfunden, vor allem wenn das Projektanträge waren, in denen auch persönliche Daten standen, und sei es nur im Briefkopf. „In dem Moment, in dem ich auf den Knopf drücke, ist die Kontrolle weg.“

Zwar liefern die Anbieter bei ihren KI-Anwendungen Datenschutzerklärungen mit, aber die sind oft so unklar gehalten, dass sie selbst für Datenschützer eine undurchschaubare Blackbox sind. So war Chat-GPT in Italien wegen Datenschutzverstößen zeitweise gesperrt, und deutsche Behörden und Cybersicherheitsfachleute warnen vor KI-Tools wie Deep Seek, weil nicht klar ist, wie die Daten verwendet und ob sie nicht auch für mögliche chinesische Spionage genutzt werden. Manche Firmen verbieten ihren Mitarbeitern auch, solche Tools auf Arbeitsrechnern zu installieren, und auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) hält die chinesische Anwendung „für sicherheitskritische Bereiche für bedenklich“.

Weil er KI-Tools aber für durchaus nützlich und sinnvoll hält, sie jedoch nicht mit seinen privaten Daten füttern will, hat Börncke „Private Prompts“ entwickelt und gebaut. Das Programm ist Open Source, kann auf der Website privateprompts.org also kostenlos für Windows, Mac und Linux heruntergeladen werden. „Mit Private Prompts können Nutzer sensible Daten vor einer unerwünschten Weiterverwertung schützen, wenn sie KI- und Webdienste nutzen“, sagt Börncke.

Er habe ein halbes Jahr an dem Tool gearbeitet: „Ich habe bei meinen Prompts zunächst persönliche Daten manuell gelöscht und dann wieder eingefügt“, sagt Börncke, aber zufrieden war er mit dem Verfahren nicht, immer wieder habe er dann doch Namen übersehen. Genauso wenig gelungen fand er die Anonymisierungsdienste, die es im Netz gibt. „Es ist ja widersinnig, wenn ich anderen meine privaten Daten schicke, die sie für mich anonymisieren sollen.“

Private Prompts (Foto: Instagram)

Aus dem eigenen Namen wird ein Max Mustermann

Es musste also ein lokales Verfahren her, das auf dem eigenen privaten Rechner läuft. Und der freiberufliche Software-Entwickler wollte seine Texte nicht anonymisieren, sondern pseudonymisieren – also die Daten nicht einfach herausstreichen, sondern etwa seinen Namen durch „Max Mustermann“ ersetzen oder die Telefonnummer durch „0815 4711“. Die Anwendung sollte persönliche Daten erkennen und durch zufällige andere Daten ersetzen und die dann gleich weiter per virtuellem Knopfdruck zu Chat-GPT schicken. Und sie auch wieder zurückübersetzen, sodass Open AI, die Firma hinter Chat-GPT, weder Frank Börnckes persönliche Daten noch die seiner Kunden zu Gesicht bekommt und sie auch nicht speichern und weiterverarbeiten kann.

Ein weiterer Wunsch von Börncke war, dass sich mit der Anwendung auch die Prompts, also die Anweisungen an die KI, verwalten lassen, sodass er sie nicht immer neu eingeben muss. Zudem lässt sich das Programm auch für Übersetzungsdienste wie Google Translate und DeepL nutzen. In einer zukünftigen Version „Private Prompts 2.0“ will der Münchner Software-Entwickler die Anwendung weiter ausbauen, weitere KI-Dienste per Knopfdruck zugänglich machen und auch noch Methoden zur Verschlüsselung integrieren.

Gefördert wurde Börnckes Arbeit vom Prototype Fund – einer Initiative, mit der die Bundesregierung innovative IT-Projekte unterstützt, die dem Gemeinwohl dienen und Open Source sind. Das heißt, deren Programmcode ist öffentlich, jeder mit IT-Kenntnissen kann ihn überprüfen und die Macherinnen und Macher auf Fehler hinweisen. Zu den bekannteren Projekten, die im Rahmen der Initiative entstanden sind, gehört der Leerstandsmelder, der leer stehenden Wohnraum öffentlich macht und so die Stadtpolitik zum Handeln bringen will.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: