Es war keine gute Woche für Google. Letzten Dienstag wurde seinem glücklosen sozialen Netzwerk der Stecker gezogen, und auch die Mail-App "Inbox" wurde eingestampft. Für etwas gute Nachrichten sorgte allerdings die Gründung eines externen Beratergremiums zur Ethik in Sachen künstlicher Intelligenz. Eine Gruppe von acht Vertretern aus Wirtschaft, Politik und Philosophie sollte dafür sorgen, dass die Konzerntätigkeiten im KI-Bereich mit den eigenen Werten vereinbar sind. Ethische Fragen seien schon früh in der Entwicklung neuer Systeme zu bedenken.
Gerade mal eine Woche nach seiner Ankündigung und noch vor der ersten offiziellen Sitzung wurde der KI-Rat aber schon wieder aufgelöst. Ein Kandidat warf im Vorfeld hin, es gab üble Nachrede, Gerüchte und einen offenen Brief, der von 2000 Angestellten unterzeichnet wurde. Darin wurde gegen die Besetzung des Gremiums protestiert. Konkret ging es um zwei Personalien. Neben der Gründerin des Drohnenherstellers "Trumbull", der auch mit dem US-Militär zusammenarbeitet, störte man sich an der Vorsitzenden des neokonservativen Thinktanks "Heritage Foundation".
Ethik-Kommissionen so weit das Auge reicht
Dabei ist die öffentliche Zurschaustellung des eigenen Unternehmensgewissens momentan schwer in Mode: Die Google-Tochter "Deep Mind" hat der Übernahme durch den Konzern nur unter der Bedingung zugestimmt, dass ein entsprechendes Gremium gegründet wird. Amazon sponsert universitäre Forschungsgruppen, die sich mit Fairness in der künstlichen Intelligenz auseinandersetzen. Microsoft hat sich im vergangenen Jahr ein eigenes Ethikkomitee gegönnt. Und da ist auch noch Facebook, das hierzulande das geplante "Institute for Ethics in Artificial Intelligence" der TU München mit ein paar Millionen Euro alimentiert.
Es ist leicht, diese Anstrengungen als moralische Feigenblätter zu verwerfen. Denn die Entscheidungskompetenz solcher Gremien beschränkt sich oft nur auf das Ausstellen von Empfehlungen. Auswirkungen auf das Kerngeschäft sind selten. Zwar hat Google das umstrittene "Project Maven", bei dem das US-Militär mit KI-Technik zur automatisierten Drohnenbildanalyse ausgestattet wurde, nach Protest der eigenen Mitarbeiter inzwischen beendet. Doch Googles Mitbewerber sehen die Dinge nicht ganz so eng.
Die Unternehmen sind es nicht gewöhnt, auf Empfehlungen zu hören
Amazon etwa ist kurz davor, einen zehn Milliarden Dollar umfassenden Auftrag zu erhalten, um die antiquierte IT-Infrastruktur des amerikanischen Militärs auf die Höhe der Zeit zu bringen. Amazon-Chef Jeff Bezos ließ sich mit den Worten zitieren, dass die USA ein großartiges Land seien, das verteidigt werden müsse. Facebook dagegen steht mal wieder in der Kritik, weil seine automatisierten Systeme Nutzer aufgrund ihrer Herkunft, Religion, Hautfarbe oder ihres Geschlechts diskriminieren würden.
Es bleibt die Frage, ob die Tech-Konzerne überhaupt zu Selbstregulierung in der Lage sind. Schließlich ist man im Silicon Valley immer noch weitgehend davon überzeugt, zu den "Guten" zu gehören. Der Solutionismus, die Annahme, dass durch den Einsatz von Technik Probleme aus der Welt geschafft und nicht überhaupt erst geschaffen werden, ist tief im Selbstverständnis der Konzernlenker verankert. "Zurückblickend glaube ich, dass ich eine sehr idealistische Person bin", sagte Mark Zuckerberg zuletzt in einem Interview. Der Selbstbetrug funktioniert weiterhin.
Was sind die Alternativen, wenn Selbstbeschränkung nicht funktioniert? Tatsächlich verlangt etwa Facebook-Chef Zuckerberg gerade selbst nach Regulierung durch Behörden. Doch ist der Ruf nach staatlicher Einmischung in der Tech-Industrie nicht ganz naheliegend. Das zeigt, wie verfahren die Situation ist. Schließlich beweist die öffentliche Hand in der Handhabung neuer Technologien selten höchste Fingerfertigkeit.