bedeckt München 22°

Suchmaschinenoptimierung:Spam auf Steroiden

Google

Google ist bemüht, jedem Nutzer das anzuzeigen, was für ihn persönlich interessant ist. Webseiten-Betreiber versuchen schon lange, Einfluss auf Google zu nehmen.

(Foto: Lukas Schulze/dpa)
  • Mit "Search Engine Optimization" (SEO genannt) versuchen Webseiten, die eigenen Inhalte möglichst weit oben in den Trefferlisten der großen Suchmaschinen zu platzieren.
  • Einige Experten fürchten, dass künstliche Intelligenz Suchmaschinen wie Google völlig mit manipulativen, automatisierten SEO-Reizen überschwemmen wird.

Schon bald wird es keine Pause in der Textproduktion mehr geben. Wer sich schon jetzt überfordert fühlt, von all dem Rufen und Klagen, das dann über die bekannten Kanäle ausgespielt wird, dem könnten bald noch mehr die Ohren klingen.

Dabei ist das zunächst eine gute Sache: Bereits heute generieren Programme neue Songtexte, Gedichte und Kurzgeschichten. Neben den Schöngeistern, die sich von künstlicher Intelligenz eine ungeahnte Explosion der Kreativität versprechen, gibt es aber noch eine andere Gruppe, die mit den künstliche erzeugten Texten viel vorhat.

"Search Engine Optimization", kurz SEO genannt, bietet heutzutage jede noch so kleine Werbeagentur für ihre Kunden an. Es wird damit versucht, die eigenen Inhalte möglichst weit oben in den Trefferlisten der großen Suchmaschinen zu platzieren. Doch jeder weiß, dass in den Augen der Nutzer nach den ersten drei Ergebnissen eigentlich nichts mehr existiert. Und jeder weiß, dass auch andere SEO betreiben. Also entstehen SEO-bedingte Begriffsreihungen auf den Seiten, die mit sinnhaften Texten oft nicht mehr viel zu tun haben.

Mittlerweile befürchten einige Experten, dass ein "Tsunami" aus KI-Texten künftig Suchmaschinen wie Google völlig mit SEO-Reizen überschwemmen wird. Tatsächlich gibt es schon eine Reihe von Anbietern, die ihren Kunden versprechen, mittels künstlicher Intelligenz ganz oben aufzutauchen. Auch wenn die Algorithmen noch viel Unsinn produzieren, werden sie doch stetig besser. Im Frühjahr stellte das Forschungsinstitut Open AI ein KI-Modell namens GPT-2 vor, das angeblich so lebensechte Texte schreiben könne, dass die Entwickler von einer Veröffentlichung absahen. Grund: Es sei zu gefährlich für die Allgemeinheit. Zu glaubhaft. Zu extrem.

Bald wird automatisierter Textschrott passend zum aktuellen Suchklima ausgespielt

Es ist nicht das erste Mal, dass findige Geschäftsleute versuchen, mit der Manipulation von Suchergebnissen Geld zu verdienen. Immer wieder finden Menschen Mittel und Wege, die Empfehlungs- und Sortieralgorithmen der großen Tech-Firmen hinters Licht zu führen.

Vor knapp zehn Jahren etwa schwemmten sogenannte Content-Farmen durch zielsichere Suchmaschinenoptimierung minderwertige Erklärartikel zu allen erdenklichen Banalitäten des Alltags ganz nach oben in die Google-Ergebnislisten - und generierten so ein Vermögen. Mit Texten, in denen es tatsächlich darum ging, wie man sich die Schnürsenkel bindet oder ein Pfund Nudeln kocht, machten Unternehmen wie Demand Media oder Wikihow bereits kurz nach ihrer Gründung Hunderte Millionen Dollar. Die Themenauswahl erfolgte streng nach aktuellen Suchanfragen: Was an einem Tag zu einer bestimmten Uhrzeit von Interesse war, das wurde auch bedient.

Gearbeitet wurde auf diesen Content-Farmen allerdings noch recht primitiv von Hand. Oft haben die damals frei angestellten Autoren bloß recht halbherzig bei Wikipedia abgeschrieben. Schon bald aber wird automatisierter Textschrott passend zum aktuellen Suchklima über sämtliche Kanäle ausgespielt. Spam auf Steroiden.

In der Horrorvorstellung der Experten wäre eine Suchmaschine, so wie man sie heute kennt, dann natürlich kaum noch benutzbar. Es würde nur noch so wimmeln von permanent neuen KI-Artikeln, die menschliche Leser hinters Licht führen. Neben der Entwicklung von Software, die so tut, als wäre sie ein echter Mensch, gibt es natürlich parallel auch noch das Gegenprogramm. Dieses verspricht, genau solche Fälschungen aufzuspüren. Wer das Wettrüsten dann einst gewinnt, steht allerdings keineswegs fest.

Einen tröstenden Gedanken gibt es schließlich aber doch noch. Die frühen Warner und Mahner waren vor allem der Ansicht, dass künstliche generierte Texte vor allem dazu dienen würden, die ohnehin schon aufgeheizte Debatte im Netz weiter zu destabilisieren. Inzwischen kann man da beinahe schon froh sein, dass es auch noch Menschen gibt, die gar nicht mal die Demokratie zerstören wollen, sondern nur ganz banal auf Profit aus sind.

Technologie Wenn Touchscreens töten

Technologie

Wenn Touchscreens töten

Blinder Fortschrittsglaube wurde zehn US-Seeleuten zum Verhängnis. Nur weil sich eine Technologie in einem Bereich durchgesetzt hat, muss man sie nicht überall einbauen.   Kommentar von Helmut Martin-Jung