bedeckt München 20°

Künstliche Intelligenz:Woran Software-Prophezeiungen scheitern

Für den Computer besteht die Welt nur aus Einsen und Nullen

(Foto: iStockphoto.com)
  • Sicherheitsbehörden überall auf der Welt arbeiten an künstlichen Intelligenzen zur Krisenvorhersage
  • Die Programme arbeiten dabei unter anderem mit öffentlichem Datenmaterial von zweifelhafter Genauigkeit
  • Damit laufen die Computerorakel in ein altes Informatiker-Problem: Wer Algorithmen mit Müll füttert, bekommt am Ende auch nur neuen Müll

Bei den antiken Griechen war Kairos einer der eher vernachlässigbaren Götter. Dabei war ihm eigentlich eine sehr schöne Sache gewidmet, nämlich die gute Gelegenheit und der günstige Zeitpunkt. Vor Kurzem kam Kairos aber doch noch zu später Würdigung, als der Forschungszweig des US-Verteidigungsministeriums, DARPA, ein gleichnamiges Projekt bekannt gab. In dessen Mittelpunkt steht, ganz zeitgemäß, keine Gottheit, sondern eine künstliche Intelligenz. Deren Aufgabe: Zahllose Vorkommnisse und Medienberichte analysieren, um Muster im globalen Chaos zu finden, zeitliche und logische Abfolgen erkennen, Ereignisse wie Kriege oder Aufstände identifizieren, bevor sie entstehen, eben den richtigen Zeitpunkt nutzen, agieren statt reagieren.

Um Ordnung in das Chaos zu bekommen, soll die KI die Weltläufte in Schemata einteilen, also zusammenhängende Vorgänge in ein übergeordnetes Deutungssystem bündeln. Ein Beispiel etwa ist der simple Einkauf. Er beinhaltet das Betreten eines Ladens, das Auswählen einer Ware, mit der man dann zur Kasse geht, wo sie bezahlt wird. Die Welt wird in Vorgänge und Abläufe gegliedert, und ein solches Schema kann wiederum Bestandteil eines übergeordneten Systems sein, etwa Abendessen kochen. Menschen machen das freilich unbewusst die ganze Zeit.

Computer sollen Muster erkennen, wo der Mensch nur Chaos sieht

Computer tun sich aber enorm schwer damit. Und überhaupt: Wie lautet eigentlich das Schema für eine heraufziehende globale Wirtschaftsdepression oder einen aufflammenden Konflikt? Am Ende soll nach Wunsch der DARPA ein halbautomatisches System entstehen, das in der Lage sein soll, "Korrelationen zwischen scheinbar nicht zusammenhängenden Vorgängen zu identifizieren und dabei zu helfen, ein breites Narrativ über die Welt zu schaffen". Nicht weniger als eine Art Weltvorhersage- und Erklärmaschine. Man kann das größenwahnsinnig finden, aber immerhin sind auf DARPA-Initiative auch Dinge wie das Internet oder selbstfahrende Autos entwickelt worden.

Auch in Deutschland experimentieren Behörden mit ähnlichen KI-Systemen. Sowohl das Verteidigungsministerium als auch das Außenministerium und der Bundesnachrichtendienst lassen momentan Software prüfen, die globale Trends und Krisen erkennen soll, noch bevor sie akut werden. Bei der Namensgebung zeigt man sich nicht ganz so inspiriert wie die Kollegen aus den USA. "IT-Unterstützung Krisenfrüherkennung" heißt etwa eine der momentan laufenden Studien. Die Idee ist jedoch die gleiche. Es geht darum, möglichst große Datenmengen zu aggregieren und darin für menschliche Augen nicht erkennbare Trends auszumachen.

Programmierer warnen: "Aus Müll entsteht nur neuer Müll"

Der Input für diese Systeme kommt von öffentlich zugänglichen Datenbanken verschiedener Thinktanks und akademischer Forschungsprojekte wie etwa dem "Armed Conflict Location and Event Data Project" oder der "Global Database of Events, Language, and Tone". Diese Initiativen werten Berichte lokaler Medien und Blogs aus und arbeiten auch mit Organisationen wie der Syrischen Beobachtungsstelle für Menschenrechte zusammen. Kurz: Es werden Fakten in Betracht gezogen, deren Objektivität sich nicht oder nur kaum überprüfen lässt. Und dann gibt es ja auch noch das Problem, dass auch gezielt Fehlinformationen gestreut werden. Automatisierte Systeme können Fake News noch immer nicht mit Sicherheit erkennen.

Von der Opposition hagelt es deshalb auch Kritik an den Projekten, die mit mehreren Millionen Euro finanziert sind. Von haarsträubenden Ideen, vorprogrammierten Fehlentscheidungen und politischem Blindflug ist da etwa die Rede. Beim Verteidigungsministerium aber hält man die Dateneingabe immerhin für "grundsätzlich zuverlässig". Das klingt alles andere als selbstbewusst und hat wahrscheinlich einen guten Grund. "Garbage in, garbage out", lautet eine der ebenso ungeschriebenen wie ehernen Regeln der Informatik. Das besagt ganz einfach, dass ein Rechner mit hoher Wahrscheinlichkeit eine fehlerhafte Aussage tätigen wird, wenn zuvor auch die Eingabe fehlerhaft war. Und eines ist sicher: Es mag im Internet an vielem mangeln, aber sicher nicht an Müll.

Technologie Keine Panik, es ist nur künstliche Intelligenz

KI-Debatte

Keine Panik, es ist nur künstliche Intelligenz

Wenige Technologien machen Menschen so viel Angst und Hoffnung wie KI. Dabei kann sie bisher nicht einmal ein belegtes Brot von einem Vulkanausbruch unterscheiden. Vier Fachleute klären Missverständnisse auf.   Von Christian Simon