Immer mehr Menschen nutzen Soziale Medien wie Twitter, Facebook und Co. als zentrale Informationsquelle. Wenn dort gezielt in großem Stil Falschinformationen verbreitet werden, kann das verheerende Folgen haben. Politische Prozesse können verfälscht werden, das Vertrauen in die Demokratie kann geschwächt werden, staatliche Akteure können gegnerische Staaten destabilisieren. Wie man solche Desinformationskampagnen frühzeitig erkennen und geeignete Gegenmaßnahmen einleiten kann, daran forschen Wissenschaftler der Universität der Bundeswehr in Neubiberg in dem Kooperationsprojekt "Kimono" mit Kollegen aus Israel. "Um im Ernstfall angemessen reagieren zu können, ist es essenziell, die gezielte Verbreitung von Falschinformationen in Sozialen Medien wissenschaftlich zu untersuchen und die dahinterliegenden Muster und Netzwerke möglichst frühzeitig zu erkennen", sagt Michaela Geierhos, Professorin für Data Science und Technische Direktorin am Forschungsinstitut Code der Universität der Bundeswehr, die die Forschungskooperation leitet. Das Projekt wird vom deutschen und israelischen Verteidigungsministerium gefördert und läuft bis 2023.
"Ziel ist zunächst, sich anzusehen, wie in Social Media wie Twitter Nachrichten verbreitet werden und wie die Inhalte sind", sagt Geierhos. Dabei nehmen sie und ihr Team im deutschen Teil des Projekts deutsche und englische Texte unter die Lupe. Dabei können Desinformationskampagnen ganz unterschiedlich sein. Die Professorin verweist etwa auf die Kampagne im Kontext zu den Corona-Impfstoffen, bei der mit gegensätzlichen Thesen gearbeitet wurde. So sei im russischen Raum oft verbreitet worden, "Biontech taugt nichts, nur Sputnik ist gut", wie die Professorin sagt. Man könne genau betrachten, wann die Kampagne lanciert worden und wann sie abgeebbt sei. Die große Herausforderung seien aber Tweets, die nicht so klar sind, bei denen nur ein Quäntchen Wahrheit enthalten ist und die sich durch Retweets ständig verändern.
Künstliche Intelligenz soll klären, ob Nachrichten richtig oder falsch sind
Das Team um Geierhos wird die gesammelten Daten mit Hilfe von Algorithmen darauf hin untersuchen, was mögliche Indikatoren für Fake News sind. So soll etwa die sprachliche Gestaltung der Posts betrachtet werden, etwa ob polarisiert wird wie im Beispiel der Kampagne zu den Impfstoffen. Ebenso soll der Aspekt angesehen werden, ob bestimmte Nutzer einen bestimmten Stil haben. Auch soll untersucht werden, ob es Indizien gibt, dass sich Nutzer als Gruppe organisiert haben. Auch die Häufigkeit von Posts werden sich die Wissenschaftler ansehen. Dieser Aspekt ist auch beim Erkennen von Social Bots, also automatisierten Accounts, die auf Plattformen wie Twitter oder Facebook eigenständig Inhalte posten oder teilen, relevant.
Ziel ist zunächst, eine Software zu entwickeln, mit der man in Retrospektive verschiedene Social-Media-Posts auf bestimmte Themen hin betrachten kann. Etwa von wann bis wann sie liefen oder ob bestimmte Personen schlecht gemacht wurden. "Die Software soll Muster erkennen, die darauf hindeuten, das es sich um eine Desinformationskampagne gehandelt haben könnte", sagt Geierhos. Bis jetzt kann sie schon mitteilen, "dass man sehr gut automatisiert sagen kann, dass eine Nachricht richtig oder falsch ist, wenn man die nötige Wissensbasis hat". Sie und ihre Kollegen seien positiv erfreut gewesen, dass die aktuellen Verfahren im Bereich der Künstlichen Intelligenz dies ermöglichten. Diese Verfahren wurden im Projekt weiterentwickelt. Die Herausforderung besteht vielmehr bei der Betrachtung von Posts, wenn man keine Wissensbasis hat, um zu beurteilen, ob eine Aussage richtig oder falsch ist. Da stehe man noch am Anfang.
Liegt die Software vor, die rückblickend Posts auf bestimmte Muster hin analysiert, soll sie weiter verwendet werden, um ein Frühwarnsystem zu entwickeln. Eine Produktreife wird laut der Professorin im Projekt aber nicht erreicht werden. Das sei nur mit Partnern möglich. Doch so oder so wird die Forschung von Geierhos und ihren Mitarbeiterinnen und Mitarbeitern dazu beitragen, Fake News künftig besser zu erkennen.