Neuer Meta-Chatbot:Trump-Fan, Antisemit, Klimawandel-Leugner - war doch klar
Lesezeit: 3 Min.
Der Facebook-Mutterkonzern Meta hat einen neuen Chatbot. Die Kritik daran ist groß, zu Recht. Doch wer in einem derart gespaltenen Land wie den USA will, dass ein Bot aus Internet-Gesprächen lernt, darf sich eigentlich über nichts mehr wundern.
Kommentar von Helmut Martin-Jung
In dem Film "Her" verliebt sich ein Mann in die Stimme seines Computer-Betriebssystems, bis er merkt, dass die so gebildete und verständnisvolle Frau außer ihm noch Tausenden anderen zu Diensten ist und sich zudem in ein anderes Betriebssystem verliebt hat. Derart tiefgründige Konversationen wie in dem Film kann man mit heutigen künstlichen Intelligenzen noch nicht führen, aber sie werden ständig besser darin. So gut immerhin, dass es Menschen gibt, die fest davon überzeugt sind, in den Bits und Bytes verberge sich ein Bewusstsein. Wie jener - inzwischen gefeuerte - Google-Mitarbeiter, der sich nicht von seiner Meinung abbringen ließ, dass ein Chatprogramm des Konzerns ein Bewusstsein erlangt habe.
Nun hat ein weiteres automatisiertes Chatprogramm, ein sogenannter Chatbot namens Blenderbot 3, Aufsehen erregt. Auf Twitter, wo gerne mal Wortsalven abgefeuert werden und erst danach das Nachdenken einsetzt, ereifern sich Nutzer darüber, dass der Bot antisemitische Einstellungen vertrete, Trumps Schuld am Sturm aufs Kapitol und den Klimawandel leugne. Sie haben zwar recht, doch es war nichts anderes zu erwarten, und seine Schöpfer haben auch nichts anderes erwartet.
Die Macher des Blenderbots stecken in einer Zwickmühle. Sofern sie wirklich erfahren wollen, was passiert, wenn sie ihren Bot auf die US-Amerikaner loslassen (in anderen Ländern ist er nicht freigeschaltet), müssen sie dies auch tun. Erst wenn die Software massenhaft mit Nutzern chattet, treten die Probleme zutage.
So kam es, wie es kommen musste. Wenn eine Software in einem Land, das derart gespalten ist wie die USA, aus Konversationen und aus dem Internet lernt, lernt sie neben sinnvollen Dingen eben auch die extremen Meinungen und das dumme Geschwätz, das viele sich nicht entblöden in die Welt hinauszuposaunen.
Als ob nur unerzogene Kids Blödsinn verzapfen würden
Metas Antwort auf das erwartbare Fiasko ist nicht besonders befriedigend, und darin liegt das wahre Problem. Man habe doch viel getan, um die Sicherheit zu gewährleisten. Die Anmeldung sei nur für über 18-Jährige möglich - als ob nur unerzogene Kids Blödsinn verzapfen würden. Man habe weiterhin darauf hingewiesen, dass der Bot falsche oder gar beleidigende Behauptungen von sich geben könne. Und: Die Nutzer sollten den Bot nicht dazu reizen, unangemessene Antworten zu geben. Und eigentlich diene der Bot ja dazu zu sehen, wie die Menschen versuchen, ihn etwa zu Hassbotschaften zu verleiten. Mit dem Ziel das künftig zu vermeiden.
Das aber hält bestimmt keinen Wutbürger, keinen bezahlten oder einfach nur überzeugten Troll davon ab, seinen Müll abzuladen. Was Meta und auch die anderen Tech-Konzerne tun müssen, ist, Transparenz herzustellen. Wie genau wollen sie es schaffen, ihre künstlichen Intelligenzen nicht ausrasten zu lassen? Dass andere Forscher außerhalb des Konzerns Einblick in die Daten bekommen sollen, ist ein Schritt in die richtige Richtung. Die Öffentlichkeit hat ein Recht darauf, über Systeme Bescheid zu wissen, die eine derartige Sprengkraft bergen.
Was die Spaltung der Gesellschaft angeht, ist schließlich schon zu viel Schaden entstanden, die sozialen Netzwerke haben daran keinen geringen Anteil. Meta behauptet, der Bot diene nur Forschungszwecken. Das ist löblich, zumal ja erforscht werden soll, wie man verhindert, dass eine künstliche Intelligenz nur noch mehr Unwahrheiten und Hass in die Welt trägt. Doch wenn ein Konzern wie Meta Neuheiten von solcher Tragweite vorstellt, ist immer Vorsicht geboten. Letztlich hat bei Meta bis jetzt noch immer das Gewinnstreben über Bedenken gesiegt. Und das Problem bleibt, dass ein kommerziell orientiertes Unternehmen über Wahrheit und Moral befindet.
Alle notwendige Kritik darf aber eines nicht übersehen: Dass eine Software wie der Blenderbot überhaupt dazu in der Lage ist, zu nahezu jedem beliebigen Thema zu chatten, ist eine gewaltige Leistung. Für die es eine ebenso gewaltige Anstrengung gebraucht hat. Die kann nur jemand leisten, der über riesige Ressourcen verfügt, also Geld, Daten und hervorragendes, also immens teures Personal. Das schließt andere Unternehmen, die sich das nicht leisten können, quasi automatisch aus. Auch das ist ein Problem.