Enzyklopädie:Wikipedia will Quatsch-Beiträge und PR per Software verhindern

Ein selbstlernendes Programm soll Alarm schlagen, wenn menschliche Aufsicht versagt. Denn wer Böses im Schilde fühlt, macht offenbar bestimmte Fehler.

Von Michael Moorstedt

Seit kurzem kann man hören, wie sich das Wissen der Welt verändert. Auf der Website listen.hatnote.com konvertieren zwei findige Programmierer neue oder sich ändernde Einträge der Wikipedia in Töne. In Echtzeit. Ein helles Glöckchen bedeutet hinzugekommene Informationen, der Klang einer gezupften Saite, dass etwas gelöscht wurde. Am vergangenen Freitagabend waren es in der deutschsprachigen Wikipedia immerhin noch knapp zwanzig Änderungen pro Minute, denen man lauschen konnte. Ein veritables Zen-Konzert.

Man sitzt also vor dem Bildschirm, hört zu und fragt sich, was das für Menschen sind, die am beginnenden Wochenende das Bedürfnis verspüren, Artikel wie "Deutsche Leichtathletik Meisterschaften 2004" zu editieren. Vielleicht sind sie Getriebene, sicher aber gehören sie einer schwindenden Gruppe an. Denn Wikipedia hat Probleme. Die Artikel reflektieren konsequenterweise die Interessen der Nutzerschaft. Und die ist zu homogen, zu männlich und zu weiß. Außerdem fiel die Zahl der aktiven Nutzer. In den letzten sieben Jahren um 40 Prozent - in der englischsprachigen, der größten Version, wirken gerade mal noch 30 000 Menschen mit. Dann wäre da natürlich noch die Schleichwerbung. Erst im September gab es einen Skandal wegen eines PR-Netzwerks, das offenbar gegen Bezahlung werbliche Lexikon-Einträge in Auftrag gegeben hatte. Mehrere hundert Nutzerkonten wurden daraufhin gesperrt.

Vor allem liegt es aber, glauben Leute, die sich in der Community auskennen, an einer Art von sich selbst auferlegter Bürokratie, die neue Nutzer wenn schon nicht diskriminiert, so doch zumindest entmutigt - von Laien geschriebene Einträge werden oft kommentarlos wieder gelöscht. Die Möglichkeit, verdächtige Änderungen schnell zu bereinigen, ist wiederum nötig, denn sonst würde die Wikipedia in der Flut von Quatsch-Beiträgen untergehen.

Die Wikimedia Foundation, die Dachorganisation hinter der Online-Enzyklopädie, hat also allen Grund, die Nutzungsbedingungen ein bisschen anzupassen. Abhilfe schaffen soll nun eine Software namens ORES, die automatisch die Qualität von Wikipedia-Änderungen begutachten wird. Das Programm verfährt selbstlernend und fällt seine Urteile anhand bestimmter Wortkombinationen und Rechtschreibfehlern. Wer Böses im Schilde führt, vertippt sich darüber anscheinend gerne.

Im Idealfall sieht das Programm, das vorerst nur in vier von 291 Sprachversionen verfügbar ist, folgendes Prozedere vor. Die erfahrenen Wikipedianer mit den Super-User-Rechten werden auf die verdächtigen Vorgänge aufmerksam gemacht und bekommen angezeigt, ob ORES eine fragwürdige Änderung für subtile Eigenwerbung, offenen Vandalismus oder doch nur einen Anfängerfehler hält. Dann können sie entweder den Neuling maßregeln - oder immer noch den Löschen-Knopf klicken. Das Ziel der Macher ist klar. Sie wollen die Menschen wieder dazu ermutigen, zur Wissenssymphonie beizutragen. Ausgerechnet das Kalkül einer Maschine wird nun dabei helfen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: