Forscher finden massive antirussische „Bot-Armee Von Peter Cronau

Researchers Find Massive Anti-Russian ‚Bot Army‘

An Australian university has unearthed millions of Tweets by fake accounts pushing disinformation on the Ukraine war, Peter Cronau reports. The sample size dwarfs other studies of covert propaganda about the war on social media. By Peter Cronau Declassified Australia A team of researchers

Kundgebung für die Ukraine vor dem Weißen Haus in Washington, 27. Februar 2022. (Mike Maguire, Flickr, CC BY 2.0)

Eine australische Universität hat Millionen von Tweets von Fake-Accounts ausgegraben, die Desinformationen über den Ukraine-Krieg verbreiten, berichtet Peter Cronau. Die Stichprobengröße übertrifft andere Studien über verdeckte Propaganda über den Krieg in den sozialen Medien bei weitem.

Forscher finden massive antirussische „Bot-Armee


Von Peter Cronau

6. November 2022

Ein Forscherteam der Universität Adelaide hat herausgefunden, dass bis zu 80 Prozent der Tweets über die russisch-ukrainische Invasion 2022 in den ersten Wochen Teil einer verdeckten Propagandakampagne waren, die von automatisierten, gefälschten „Bot“-Accounts ausging.

Eine Anti-Russland-Propagandakampagne, die von einer „Bot-Armee“ aus gefälschten automatisierten Twitter-Konten ausging, überschwemmte das Internet zu Beginn des Krieges.

Die Untersuchung zeigt, dass von den mehr als 5 Millionen untersuchten Tweets 90,2 Prozent (sowohl Bot- als auch Nicht-Bot-Konten) von Konten stammten, die pro-ukrainisch waren, während weniger als 7 Prozent der Konten als pro-russisch eingestuft wurden.

Die Universitätsforscher fanden auch heraus, dass diese automatisierten Tweets absichtlich eingesetzt wurden, um bei den Zielpersonen Angst zu schüren, was zu einem hohen Maß an statistisch messbarer „Angst“ im Online-Diskurs führte.

Das Forschungsteam analysierte eine noch nie dagewesene Zahl von 5.203.746 Tweets, die in den ersten zwei Wochen nach dem russischen Einmarsch in der Ukraine ab dem 24. Februar mit wichtigen Hashtags versendet wurden. Die Forscher untersuchten vor allem englischsprachige Konten. Berechnungen zufolge haben 1,8 Millionen einzigartige Twitter-Konten in dem Datensatz mindestens einen englischsprachigen Tweet gepostet.

Die Ergebnisse wurden im August in einem Forschungspapier mit dem Titel „#IStandWithPutin versus #IStandWithUkraine“ veröffentlicht: The interaction of bots and humans in discussion of the Russia/Ukraine war“ (Die Interaktion von Bots und Menschen bei Diskussionen über den Krieg zwischen Russland und der Ukraine) von der School of Mathematical Science der Universität Adelaide veröffentlicht.

Die Größe der untersuchten Stichprobe von über 5 Millionen Tweets stellt andere aktuelle Studien über verdeckte Propaganda in sozialen Medien im Zusammenhang mit dem Ukraine-Krieg in den Schatten.

Die wenig beachtete Studie der Stanford University/Graphika über westliche Desinformation, die von Declassified Australia im September analysiert wurde, untersuchte knapp 300.000 Tweets von 146 Twitter-Konten.

Die Meta/Facebook-Studie über russische Desinformation, über die die Mainstream-Medien, darunter auch die Australian Broadcasting Corporation (ABC), zwei Wochen später ausführlich berichteten, untersuchte nur 1.600 Facebook-Konten.

Berichte über die neue Studie sind nur auf einigen wenigen unabhängigen Medienseiten und auf dem russischen Sender RT erschienen.  Die bahnbrechende Studie, die eine massive russlandfeindliche Desinformationskampagne in den sozialen Medien aufdeckt, wurde von den westlichen Establishment-Medien effektiv ignoriert und zeigt, wie Geschichten, die nicht in das gewünschte prowestliche Narrativ passen, routinemäßig begraben werden.

Desinformations-Blitzkrieg

Die Forscher der Universität Adelaide entdeckten eine massive organisierte pro-ukrainische Beeinflussungsaktion, die bereits in der Frühphase des Konflikts im Gange war. Insgesamt stellte die Studie fest, dass zwischen 60 und 80 Prozent aller Tweets im Datensatz von automatisierten „Bot“-Konten stammten.

Die veröffentlichten Daten zeigen, dass es in der ersten Woche des Ukraine-Russland-Krieges eine riesige Menge an pro-ukrainischen Hashtag-Bot-Aktivitäten gab. Ungefähr 3,5 Millionen Tweets mit dem Hashtag #IStandWithUkraine wurden in dieser ersten Woche von Bots gesendet.

Es war tatsächlich so, als hätte jemand zu Beginn des Krieges einen Schalter umgelegt, als die pro-ukrainische Bot-Aktivität plötzlich zum Leben erwachte. Am ersten Tag des Krieges wurde der Hashtag #IStandWithUkraine in bis zu 38.000 Tweets pro Stunde verwendet und stieg bis zum dritten Tag des Krieges auf 50.000 Tweets pro Stunde.

Im Vergleich dazu zeigen die Daten, dass es in der ersten Woche fast keine pro-russischen Bot-Aktivitäten unter den wichtigsten Hashtags gab. In dieser ersten Woche des Einmarsches versendeten pro-russische Bots nur einige hundert Tweets pro Stunde mit den Hashtags #IStandWithPutin oder #IStandWithRussia.

Angesichts der offensichtlichen langfristigen Planung für die Invasion in der Ukraine zeigten sich Cyberexperten überrascht, dass die russischen Cyber- und Internetreaktionen so zögerlich waren. Ein Forscher des Zentrums für Sicherheitsstudien in der Schweiz sagte: „Die [pro-russischen] Cyber-Operationen, die wir gesehen haben, lassen keine lange Vorbereitung erkennen und wirken stattdessen eher planlos.“

Der Hashtag #IStandWithPutin, der anscheinend von automatisierten Bots stammt, wurde eine Woche nach Beginn des Krieges zum Leben erweckt. Am 2. März, dem 7. Tag des Krieges, tauchte der Hashtag erstmals in größerer Zahl auf. In den nächsten zwei Tagen wurden nur zweimal 10.000 Tweets pro Stunde erreicht, was immer noch weit hinter den pro-ukrainischen Tweets liegt.

Die Verwendung des Hashtags #IStandWithRussia war sogar noch geringer und erreichte nur 4.000 Tweets pro Stunde. Nach nur zwei Tagen Betrieb war die pro-russische Hashtag-Aktivität fast vollständig verschwunden. Die Forscher der Studie stellten fest, dass die automatisierten Bot-Konten, die „wahrscheinlich von russischen Behörden verwendet wurden“, „wahrscheinlich von pro-ukrainischen Behörden entfernt wurden“.

Die Reaktion auf diese pro-russischen Konten war schnell erfolgt. Am 5. März, nachdem der Hashtag #IStandWithPutin auf Twitter in Mode gekommen war, gab das Unternehmen bekannt, dass es über 100 Konten, die den Hashtag verwendeten, wegen Verstoßes gegen seine „Plattformmanipulations- und Spam-Richtlinien“ und der Teilnahme an „koordiniertem inauthentischem Verhalten“ gesperrt hatte.

Später im selben Monat führte der ukrainische Sicherheitsdienst (SBU) Berichten zufolge eine Razzia in fünf „Bot-Farmen“ durch, die innerhalb des Landes operierten. Die mit Russland verbundenen Bot-Betreiber operierten Berichten zufolge über 100.000 gefälschte Social-Media-Konten und verbreiteten Desinformationen, die „die ukrainischen Massen in Panik versetzen sollten“.

Ukrainische Sicherheitskräfte haben im März 2022 eine pro-russische automatisierte „Bot-Armee“ ausgehoben, die von einer Wohnung aus operierte. Bei der Razzia wurden 100 GSM-Gateways (links) und 10.000 Sim-Karten (rechts) gefunden, mit denen 100.000 gefälschte Bot-Konten betrieben wurden. (SGE)

Ungefilterte Forschung

Die bahnbrechende Forschungsarbeit der Universität Adelaide unterscheidet sich von diesen früheren Enthüllungen in einer weiteren einzigartigen und spektakulären Weise.

Während die Stanford-Graphika- und Meta-Forschung von Forschern durchgeführt wurde, die seit langem enge Verbindungen zum nationalen Sicherheitsstaat der USA haben, sind die Forscher der Adelaide University bemerkenswert unabhängig. Das akademische Team stammt von der School of Mathematical Science der Universität.

Mithilfe mathematischer Berechnungen versuchen sie, die psychologischen Eigenschaften von Menschen auf der Grundlage ihres digitalen Fußabdrucks vorherzusagen und zu modellieren.

Im Gegensatz zu den Datensätzen, die für die Stanford/Graphika- und die Meta-Forschung ausgewählt und bereitgestellt wurden, stammten die Daten, auf die das Team der Universität Adelaide zugriff, nicht von Konten, bei denen ein Verstoß gegen die Richtlinien festgestellt und die von Meta oder Twitter gesperrt worden waren.

Campus der Universität Adelaide in Australien, 2008. (Pdfpdf, gemeinfrei, Wikimedia Commons)

Joshua Watt ist einer der leitenden Forscher des Universitätsteams und ein Kandidat für den Master of Philosophy in angewandter Mathematik.

Er erklärte gegenüber Declassified Australia, dass das Team direkt auf den Datensatz von 5 Millionen Tweets von Twitter-Konten im Internet zugreifen konnte, indem es eine akademische Lizenz nutzte, die den Zugriff auf die Twitter-API ermöglicht.

Die „Anwendungsprogrammierschnittstelle“ ist ein Softwaretool für die Datenkommunikation, das es Forschern ermöglicht, Twitter-Daten direkt abzurufen und zu analysieren.

Die gefälschten Tweets und automatisierten Bot-Accounts wurden von Twitter nicht entdeckt und entfernt, bevor sie von den Forschern analysiert wurden, obwohl einige von ihnen möglicherweise bei Twitters Säuberungsaktion im März entfernt wurden.

Watt erklärte gegenüber Declassified Australia, dass viele der Bot-Konten, die hinter den 5 Millionen untersuchten Tweets stehen, wahrscheinlich immer noch aktiv sind.

Declassified Australia hat Twitter kontaktiert, um zu fragen, welche Maßnahmen sie ergriffen haben, um die gefälschten Bot-Konten zu entfernen, die in der Untersuchung der Universität von Adelaide identifiziert wurden. Bis zum Redaktionsschluss lag keine Antwort vor.

Diese neue Forschungsarbeit bestätigt die zunehmenden Befürchtungen, dass die sozialen Medien heimlich zu einem kritischen Instrument der Informationskriegsführung geworden sind, das eine große Rolle bei der russischen Invasion in der Ukraine gespielt hat“, so die Forscher.

Die Forscher der Universität Adelaide bemühten sich, die Aktivitäten der gefälschten Twitter-Konten möglichst unverbindlich zu beschreiben, obwohl sie herausgefunden hatten, dass die überwiegende Mehrheit – über 90 Prozent – antirussische Nachrichten verbreiteten. Sie erklärten: „Beide Seiten im Ukraine-Konflikt nutzen das Online-Informationsumfeld, um die geopolitische Dynamik zu beeinflussen und die öffentliche Meinung zu beeinflussen.“

Sie stellten fest, dass die beiden am Propagandakrieg hauptsächlich beteiligten Seiten ihre eigenen Ziele und ihren eigenen Stil verfolgen. „Russische soziale Medien treiben Narrative rund um ihre Motivation voran, und ukrainische soziale Medien zielen darauf ab, die externe Unterstützung westlicher Länder zu fördern und aufrechtzuerhalten sowie ihre militärischen Anstrengungen zu fördern und gleichzeitig die Wahrnehmung des russischen Militärs zu untergraben.“

Während sich die Forschungsergebnisse auf automatisierte Twitter-Bots konzentrierten, gab es auch Erkenntnisse über die Verwendung von Hashtags durch Nicht-Bot-Twitterer. Es wurde ein signifikanter Informationsfluss von pro-russischen Konten festgestellt, aber kein signifikanter Fluss von pro-ukrainischen Konten, die keine Bots sind.

Die pro-ukrainische Seite war nicht nur viel aktiver, sondern auch weitaus fortschrittlicher bei der Nutzung automatisierter Bots. Die pro-ukrainische Seite setzte mehr „Astroturf-Bots“ ein als die pro-russische Seite. Astroturf-Bots sind hyperaktive politische Bots, die kontinuierlich vielen anderen Konten folgen, um die Zahl der Anhänger des jeweiligen Kontos zu erhöhen.

Die Rolle der sozialen Medien beim Schüren von Ängsten

Die Forscher der University of Adelaide untersuchten auch den psychologischen Einfluss, den die gefälschten, automatisierten Bot-Konten auf die Online-Konversationen in den ersten Wochen des Krieges hatten.

Diese Unterhaltungen in einer Zielgruppe können sich im Laufe der Zeit zu einer Unterstützung oder Ablehnung von Regierungen und politischen Maßnahmen entwickeln – sie können aber auch sofortige Auswirkungen haben und die unmittelbaren Entscheidungen der Zielgruppe beeinflussen.

Die Studie ergab, dass die Tweets der gefälschten „Bot“-Accounts am stärksten zu einem Anstieg der Gespräche über „Angst“ bei den Zielgruppen führten. Sie fanden heraus, dass diese automatisierten Bot-Konten „die Verwendung von Wörtern aus der Kategorie Angst, die Wörter im Zusammenhang mit Furcht und Sorge enthält, wie ‚Scham‘, ‚Terrorist‘, ‚Bedrohung‘, ‚Panik'“ erhöhten.

Durch die Kombination der „Angst“-Nachrichten mit Nachrichten über „Bewegung“ und geografische Standorte stellten die Forscher fest, dass „die Bot-Konten mehr Diskussionen über das Thema Umzug/Flucht/Gehen oder Bleiben beeinflussen“. Die Forscher glauben, dass dieser Effekt möglicherweise dazu diente, die Ukrainer auch abseits der Konfliktzonen zur Flucht aus ihren Häusern zu bewegen.
Kritisches Werkzeug im Infokrieg

Die Untersuchung zeigt, dass gefälschte automatisierte „Bot“-Konten in den sozialen Medien die öffentliche Meinung manipulieren, indem sie den Diskurs beeinflussen, manchmal auf sehr spezifische Weise. Die Ergebnisse geben einen erschreckenden Hinweis auf die sehr realen bösartigen Auswirkungen, die Desinformationskampagnen in den sozialen Medien auf eine unschuldige Zivilbevölkerung haben können.

Ursprünge der Twitter-Bot-Konten

Die Forscher berichten, dass der überwiegende Teil der antirussischen Twitter-Desinformationen von Bots stammte, die „wahrscheinlich von pro-ukrainischen Behörden [organisiert] wurden“.

Die Forscher machten keine weiteren Erkenntnisse über die Herkunft der 5 Millionen Tweets geltend, stellten aber fest, dass einige Bots „länderspezifische Kampagnen [ungenannt] vorantreiben und daher Inhalte teilen, die auf diese Zeitzonen abgestimmt sind.“ Die Daten zeigen, dass die Spitzenzeit für eine Auswahl von pro-ukrainischen Bot-Aktivitäten zwischen 18 und 21 Uhr in allen US-Zeitzonen lag.

Aus den spezifischen Sprachen, die in den 5 Millionen Tweets verwendet wurden, lassen sich einige Hinweise auf den Ursprung und die Zielrichtung der Nachrichten ableiten. Über 3,5 Millionen Tweets bzw. 67 Prozent waren in englischer Sprache, weniger als 2 Prozent in Russisch und Ukrainisch.

Im Mai 2022 enthüllte der Direktor der National Security Agency (NSA) und Chef des US-Cyberkommandos, General Paul Nakasone, dass das Cyberkommando offensive Informationsoperationen zur Unterstützung der Ukraine durchgeführt hat.

„Wir haben eine Reihe von Operationen über das gesamte Spektrum durchgeführt: offensive, defensive und Informationsoperationen“, sagte Nakasone.

U.S. Cyber Command Trainingsübung auf der Nellis Air Force Base, Nevada, 2011. (Fort George G. Meade Büro für öffentliche Angelegenheiten, Flickr, CC BY 2.0)

Nakasone sagte, die USA hätten Operationen durchgeführt, die darauf abzielten, die russische Propaganda zu zerschlagen. Er sagte, die Operationen seien rechtmäßig und würden im Rahmen der vom US-Verteidigungsministerium festgelegten Politik und unter ziviler Aufsicht durchgeführt.

Nakasone sagte, die USA seien im Gegensatz zu Russland bestrebt, die Wahrheit zu sagen, wenn sie eine Informationsoperation durchführten.

Das US-Cyberkommando hatte im Dezember ein „Hunt Forward“-Cyberteam in die Ukraine entsandt, um die ukrainische Cyberabwehr und -netze im Vorfeld der Invasion gegen aktive Bedrohungen zu stärken.

Ein neu gebildetes Cyber-Soforthilfe-Team der Europäischen Union, bestehend aus 12 Experten, schloss sich dem Cyber Command-Team an, um nach aktiven Cyber-Bedrohungen in ukrainischen Netzwerken zu suchen und die Cyber-Verteidigung des Landes zu stärken.

Die USA haben seit 2017 40 Millionen US-Dollar investiert, um die Ukraine bei der Stärkung ihres Informationstechnologiesektors zu unterstützen. Laut der stellvertretenden US-Außenministerin Wendy Sherman haben die Investitionen den Ukrainern geholfen, „ihr Internet und den Informationsfluss aufrechtzuerhalten, selbst inmitten einer brutalen russischen Invasion“.

Kriege und Lügen aus unseren Taschen

Mit dem Aufkommen des Internets werden Kriege und bewaffnete Konflikte nie wieder dieselben sein. Analysten haben festgestellt, dass die russische Invasion in der Ukraine eine „neue digitale Ära militärischer, politischer und wirtschaftlicher Konflikte“ eingeläutet hat, die von „Laptop-Generälen und Bot-Armeen“ manipuliert werden.

„In allen Dimensionen dieses Konflikts spielt die digitale Technologie eine Schlüsselrolle – als Werkzeug für Cyberangriffe und digitalen Protest sowie als Beschleuniger für Informations- und Desinformationsflüsse“, schreiben die Analysten der Heinrich-Boll-Stiftung in Brüssel. „Propaganda ist seit Anbeginn der Geschichte Teil des Krieges, aber noch nie zuvor konnte sie so weit über ein eigentliches Konfliktgebiet hinaus verbreitet werden und sich an so viele verschiedene Zielgruppen richten.“

Joshua Watt, einer der leitenden Forscher des Teams der University of Adelaide, das die bahnbrechende Studie durchgeführt hat, fasst es zusammen: „In der Vergangenheit wurden Kriege in erster Linie physisch ausgetragen, wobei die Armee, die Luftwaffe und die Marine die wichtigsten Kampfformen darstellten. Die sozialen Medien haben jedoch ein neues Umfeld geschaffen, in dem die öffentliche Meinung in großem Umfang manipuliert werden kann.“

„CNN hat einst weit entfernte Kriege in unsere Wohnzimmer gebracht“, so ein anderer Analyst, „aber TikTok und YouTube und Twitter haben sie in unsere Taschen gebracht.“

Wir alle tragen eine mächtige Informationsquelle und Nachrichtenmedien mit uns herum – und ganz sicher auch Desinformationen, die unerbittlich auf uns zukommen, und zwar von Einflussoperationen, die von „schlechten Akteuren“ betrieben werden, deren Ziel es ist, zu täuschen. Übersetzt mit Deepl.com

Peter Cronau ist ein preisgekrönter investigativer Journalist, Autor und Filmemacher. Seine Dokumentarfilme wurden in der ABC-TV-Sendung Four Corners und in der Sendung Background Briefing von Radio National gezeigt. Er ist Herausgeber und Mitbegründer von DECLASSIFIED AUSTRALIA. Er ist Mitherausgeber des kürzlich erschienenen Buches A Secret Australia – Revealed by the WikiLeaks Exposés.

Dieser Artikel stammt aus Declassified Australia.

1 Trackbacks & Pingbacks

  1. Forscher der Uni Adelaide finden antirussische Bot-Armee: 80% der Tweets zu Russland-Ukraine Propaganda – Aktuelle Nachrichten

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*