Allmächtige Algorithmen:"Google sollte seine Nutzer bezahlen"

Lesezeit: 4 min

Google Facebook

Die Entscheidungen von Google und Facebook betreffen Milliarden Menschen - doch ihre Algorithmen hüten sie wie Staatsgeheimnisse.

(Foto: dpa)

Facebook und Google bestimmen, wie Menschen ihre Welt wahrnehmen. Doch ihre Algorithmen halten sie streng geheim. Juraprofessor Frank Pasquale fordert mehr Transparenz - und staatliche Regulierung.

Von Hakan Tanriverdi

Frank Pasquale ist Jura-Professor an der University of Maryland. Am Dienstag wird er auf einer Konferenz an der Forschungsstelle Internet und Menschenrechte in Berlin über die "Ethik der Algorithmen" reden. In seinem Buch "Black Box Society" befasst er sich damit, wie Algorithmen von Unternehmen eingesetzt werden - und was getan werden muss, damit Nutzer stärker mitreden können.

SZ.de: Herr Pasquale, Sie haben Ihr Buch "Black Box Society" genannt. Warum?

Frank Pasquale: Dafür gibt es zwei Gründe. Da ist zuerst einmal der Begriff, so wie wir ihn heute gebrauchen. Jedes Flugzeug hat eine Black Box. Kommt es zu einem Crash, gehört die Box zu den wichtigsten Gegenständen, denn sie zeichnet immense Datenmengen auf. 90 Prozent aller Autos in den USA haben eine solche Black Box.

Auch Start-ups und ihre Entwickler nutzen so ein System. Sie bekommen Datensätze von uns und arbeiten damit. Aber wir erfahren nicht, was mit den Daten passiert. Das ist der zweite Grund - und das, was ich meine, wenn ich von einer Black Box rede.

In Ihrem Buch kritisieren Sie vor allem zwei Bereiche: Werbetreibende und Unternehmen wie Google oder Facebook.

Wir reden hier von Unternehmen, deren Entscheidungen Hunderte Millionen Menschen betreffen. Es geht für diese Unternehmen um viel Geld. Das verdienen sie mit Algorithmen, in denen unsere Informationen enthalten sind. Die Algorithmen aber sind geheim. Wir können so gut wie nichts dagegen tun.

Eine Frau, die ihren eigenen Vornamen gegoogelt hat, bekam in den Werbeanzeigen über den Ergebnissen eine Frage gestellt: "Verhaftet?". Sie hat in einer Studie überprüft, ob es einen Bezug zwischen Namen und Werbung gibt und kam zu dem Schluss, dass Google-Suchen nach klassisch afrikanisch-amerikanischen Namen zu negativeren Werbungen führten.

Der Algorithmus ist also rassistisch programmiert?

Das wissen wir nicht. Google hat das kategorisch dementiert. Es sind viele Modelle denkbar, die zu so einem Ergebnis führen könnten. Wir können nur mutmaßen - und das ist ein Problem. Ein weiteres Beispiel: Als in Ferguson ein schwarzer Jugendlicher von einem weißen Polizisten erschossen wurde, dominierte dieses Thema Twitter. Auf Facebook war das Thema aber überhaupt nicht präsent. Das beeinflusst direkt, wie Menschen ihre Welt wahrnehmen.

Das liegt daran, dass Twitter sich auf das konzentriert, was gerade jetzt passiert und damit ein Echtzeit-Medium ist. Facebook hingegen analysiert, ob Menschen über ein Thema reden. Die Verzögerung ist also gewollt.

Ja, aber wir können uns ohne größere Probleme eine Welt vorstellen, in der Facebook Twitter aufkauft. Das war zumindest mal im Gespräch. Twitter übernimmt die Algorithmen von Facebook - und filtert negative Nachrichten fortan stärker. Vor allem bei Facebook reden wir von einem Unternehmen, das gewisse Handlungen belohnt. Nehmen wir Emerson Spartz ...

... den Unternehmer, der vor allem Geld damit macht, Schlagzeilen generieren zu lassen, die beim Leser gut ankommen sollen, aber im Zweifel übertrieben sind, und damit unwahr.

Genau. Dafür hat sich der Begriff "Clickbait" eingebürgert. Spartz selbst sagt, dass er ohne Facebook niemals so erfolgreich wäre. Er sagt auch, dass positive Geschichten sich stärker verbreiten als negative. Sein Unternehmen hat einen Algorithmus entwickelt, der analysiert, welche Überschriften auf Facebook wie gut geklickt werden. Für Nutzer ist das, was sie zu sehen bekommen, absolut nicht nachvollziehbar. Mich besorgt das.

Zur SZ-Startseite

Lesen Sie mehr zum Thema