Süddeutsche Zeitung

Internet:Helferlein für Wikipedia

Lesezeit: 2 Min.

Die Glaubwürdigkeit der Online-Enzyklopädie baut auf Quellen auf - doch manche sind fehlerhaft oder unseriös. Eine künstliche Intelligenz soll helfen, das Nachschlagewerk besser zu machen.

Von Sina Metz

KI-Chatbots wie Chat-GPT klingen zwar oft glaubwürdig, sind es aber nicht unbedingt. Sie fälschen mitunter Informationen, erfinden Namen, Internetadressen, Daten, medizinische Erklärungen, ganze Handlungsstränge von Büchern konstruieren sie neu, "sogar historische Ereignisse, die nie stattgefunden haben", schreibt die New York Times. Viele Forscherinnen und Forscher berichten zudem, dass die auf künstlicher Intelligenz basierenden Programme willkürlich wissenschaftliche Quellen erfinden. Da mag es überraschen, dass ein solches Programm in der Lage sein soll, die teils lausig gepflegten Quellenangaben in der Wikipedia aufzuräumen.

Allein der englischsprachige Teil der Online-Enzyklopädie enthält mehr als sechs Millionen Artikel. Die Wikipedia nährt sich aus dem Wissen und der Mitarbeit von Hunderttausenden Nutzerinnen und Nutzern. Damit dabei kein Unsinn herauskommt, sollen Fakten durch Quellen gestützt werden, die als Fußnoten mit Web-Links oder Literaturverweise unter dem Artikel stehen. Fehlerhafte Quellen decken die Nutzerinnen und Nutzer meist schnell auf, schreibt eine Sprecherin von Wikimedia, dem Förderverein der deutschen Wikipedia, auf Anfrage. "Dieses Mehraugen-Prinzip schafft ein gewisses Maß an Sicherheit." Aber nicht immer funktionieren die Webseiten, auf die die Fußnoten verweisen. Manchmal belegen sie nicht das Geschriebene. Oder Redakteurinnen und Ersteller der Texte haben unseriöse Quellen zitiert.

Abhilfe könnte nun von einer KI kommen, die Quellen überprüfen und bei fehlerhaften Referenzen das Internet nach passenderen Vorschlägen durchsuchen und die ursprüngliche Quelle damit ersetzen kann. Laut einer Studie im Fachjournal Nature Machine Intelligence könnte ein Programm namens SIDE die Wikipedia zuverlässiger machen.

Forscher: Chat-GPT verpfuscht und halluziniert Zitate

"Es mag ironisch erscheinen, KI zur Unterstützung bei Zitaten einzusetzen, wenn man bedenkt, dass Chat-GPT notorisch Zitate verpfuscht und halluziniert", sagte der KI-Wissenschaftler Noah Giansiracusa von der Bentley University im US-amerikanischen Waltham dem Wissenschaftsmagazin Nature. An der Studie im Schwesterjournal war er nicht beteiligt. "Aber man darf nicht vergessen, dass es bei KI-Sprachmodellen um viel mehr geht als um Chatbots."

Tatsächlich ergab der Test mit Wikipedia-Nutzerinnen und -nutzern, dass sie in fast zwei Dritteln der Fälle die von der KI vorgeschlagene Quelle der von der Wikipedia genannten vorziehen. Zuvor hat das Team um Fabio Petroni vom Londoner Unternehmen Samaya AI, das hinter SIDE steckt, die KI mit Informationen dazu gefüttert, was "gute Quellen" sein sollen. Dazu verwendeten sie Wikipedia-Einträge als Vorbild, die auf der Webseite als "Featured Articles" beworben werden und gewöhnlich sehr sorgfältig von Redakteurinnen und Moderatoren gepflegt werden.

Eigenständig könne das System die Online-Enzyklopädie noch nicht verbessern, schreibt Petronis Gruppe. Das Team will SIDE als Werkzeug verstanden wissen, als eine Art "Zitierassistent". KI-Tools könnten durchaus die enzyklopädische Arbeit erleichtern, heißt es von Wikimedia. "Wie genau und wo die Grenzen sind, diskutiert die Community bereits." Zur Frage, wie verlässlich die Wikipedia ist, gibt es einen eigenen Eintrag, in dem das Nachschlagewerk gut abschneidet - doch das Impressum warnt, dass Wikipedia die Wahrhaftigkeit der Einträge nicht garantiert.

Bestens informiert mit SZ Plus – 4 Wochen für 0,99 € zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.6292357
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.