Wahlkampf 4.0 – Desinformationen bei der Bundestagswahl 2021

In wenigen Wochen ist es so weit: Deutschland wählt eine neue Regierung. Die Bundestagswahl steht unmittelbar vor der Tür und der öffentliche Wahlkampf ist in vollem Gange. Doch im digitalen Zeitalter sind Wahlen immer auch mit neuartigen Risiken wie Desinformationskampagnen und Manipulationsversuchen verbunden. Das haben wir mittlerweile auf der ganzen Welt beobachten können. Wer glaubt, dass Deutschland von diesen digitalen Gefahren verschont bleibt, denkt zu kurz – wir erklären in diesem Artikel daher, was wir in der derzeitigen Wahlkampfphase bereits beobachten konnten und was bei der Bundestagswahl 2021 noch auf uns zukommen könnte.

Let’s start with some fairy tales: Wussten Sie eigentlich schon, dass Armin Laschets Wahlkampf durch Hochwasser-Spenden der Aktion „Lichtblicke“ finanziert wird, Markus Söder sich mehrfach gegen Corona hat impfen lassen und Annalena Baerbock auf Grund des Klimaschutzes Haustiere verbieten möchte und eigentlich auch gar keinen Studienabschluss hat?

Die gerade beschriebenen Behauptungen entsprechen nicht der Wahrheit. Sie sind aber ein sehr gutes Beispiel für die Streuung von Desinformationen über Politker:innen via Social Media. Alle Behauptungen wurden in den letzten Wochen mehrfach und von Tausenden Social Media User:innen geteilt, kommentiert und geliked. Innerhalb der heißen Wahlkampfphase, in der wir uns gerade befinden, sind Desinformationen also keine Seltenheit. Personen, die den eigenen Vorstellungen nicht entsprechen oder nicht den gleichen Wertekanon besitzen, werden versucht zu diskreditieren immer mit dem Ziel, ihre Reputation nachträglich zu beschädigen und das Denken von Wähler:innen zu beeinflussen. Doch was bedeuten eigentlich die digitalen Medien für die politische Kommunikation? Wir starten vorne.

Wahlkampf 4.0: Digitale Medien und politische Kommunikation

Wir leben im digitalen Informationszeitalter. Im politischen Kontext bedeutet das: Wahlen können ohne die Informationsverbreitung über digitale Medien heute nicht mehr gewonnen werden. Denn politische Kommunikation hat sich durch das Internet massiv verändert. Politiker:innen und Parteien pflegen eigene Social Media Profile, geben im Internet ihre Meinungen Preis und verbreiten digitale Wahlwerbung in Form von Bildern oder Videos. Das müssen sie auch, denn mit einer zunehmend jungen und digital-orientierten Wählerschaft werden Wahlen heute mindestens zu Teilen im Internet entschieden.

Doch neben den neuen Möglichkeiten der selbstbestimmten Vermarktung, eröffnen die digitalen Medien für die Politik auch eine neuartige Risikolandschaft. In dieser lauern Gefahren wie selbstinduzierte Shitstorms sowie digitale Schmier- oder Desinformationskampagnen. Das diese Bedrohungen sehr real sind und durchaus Folgen in der analogen Welt nach sich ziehen, konnten wir in der Vergangenheit schon in mehreren Fällen beobachten: So z.B. bei der US-Präsidentschaftswahl im letzten Jahr, dem Brexit-Referendum, aber auch der Corona-Pandemie. Bei all diesen Ereignissen wurden Politik und Bevölkerung mit einer Flut an Desinformationen und einem Hoch an Social-Media-Meinungsmache konfrontiert. Das lässt also nicht nur vermuten, dass auch bei der Bundestagswahl 2021 mit einem gleichermaßen hohen Maß an politischen Desinformationen, sog. Computational Propaganda und koordinierten Manipulationsversuchen über Social Media zu rechnen ist, sondern konstatieren, dass wir es bereits mit einer Vielzahl von eben diesen zu tun haben. Tankred Schipanski – digitalpolitischer Sprecher der Unionsfraktion im Bundestag – nennt im Interview mit der Deutschen Welle Desinformationskampagnen als „unsere größte Herausforderung“, die „oft von ausländischen Staaten organisiert und finanziert werden, […] aber insbesondere inländische Akteure wie die AfD zur Verbreitung beitragen“ [1].

Jede:r Zweite hat auf Social Media bereits Kommentare oder Beiträge gesehen, in denen der Klimawandel geleugnet wird. 65 Prozent haben Beiträge oder Kommentare gesehen, die von einer Covid-19-Impfung abraten – RESET.TECH & POLLYTIX STRATEGIC RESEARCH, 2021

The New Normal: Politische Desinformationskampagnen als gängiges Mittel

Informationen – egal ob wahr oder falsch – sind heute essenziell. Sie bestimmen öffentliche Meinungen, beeinflussen das Handeln des/der Einzelnen und nehmen so eben auch massiven Einfluss auf Wahlen. Dabei scheinen faktenbasierte Informationen wie z.B. Wahlprogramme immer mehr in den Hintergrund zu rücken, während polarisierende Inhalte in den Vordergrund treten. Der Grund: diese erzielen in der Empörungsökonomie des digitalen Raums besonders große Reichweite, emotionalisieren potenzielle Wähler:innen und bewegen sie so dazu, ein bestimmtes Verhalten an den Tag zu legen wie z.B. eine bestimmte Partei zu wählen oder gar nicht erst wählen zu gehen. Dass das funktioniert, hat Cambridge Analytica sehr deutlich aufgezeigt.

Mittel der Wahl bei diesem sog. Public Opinion Hacking sind zumeist Desinformationen in Form von Fake-News-Artikeln, manipulativen Memes und manipulierten Videos sowie fingierten Posts, Kommentaren oder Direktnachrichten in Social Media. Diese werden im großen Stil in der digitalen Welt an einer ausgewählten Zielgruppe ausgespielt, um so Einfluss auf Denken und Handeln zu nehmen. Die Realität dieser gefährlichen Vorgänge belegen auch aktuelle Zahlen: So wurden bereits in 2016 von über 25 Ländern weltweit über 2.5 Milliarden US-Dollar für die Verbreitung von Desinformationen ausgegeben [2] und im vergangenen Jahr waren es allein über 400 Millionen Dollar [3] für politische Desinformationen in den USA. Im Jahr 2020 konnten Forscher der Oxford University zudem feststellen, dass rund 70 Länder auf der Welt koordinierte „Misinformation-Teams“ besitzen [4].

Diese Teams führen i.d.R. sog. Information Operations (kurz: Info Ops) aus. Dabei werden bestimmte (falsche) Informationen im eigenen oder einem fremden Staat verbreitet, um so z.B. Zustimmung für die eigene Agenda und Regierungsarbeit zu erhalten. Allen voran bei diesem Vorgehen ist Russland, das auch immer wieder auch solche Info Ops in Deutschland durchzuführen versucht – z.B. über von der russischen Regierung kontrollierte Medienoutlets wie RT Deutsch, die Inhalte extra in deutscher Sprache zur Verfügung stellen. Es wundert also keineswegs, dass eine repräsentative Studie von Reset.Tech und Pollytix Strategic Research in diesem Jahr herausgefunden hat, dass auch 85 Prozent der deutschen Internetnutzer:innen Desinformationen für ein (sehr) großes Problem halten [5].

85 Prozent der deutschen Internetnutzer:innen halten Desinformationen für ein (sehr) großes Problem – RESET.TECH & POLLYTIX STRATEGIC RESEARCH, 2021

Technischer Fortschritt bedeutet fortschreitende Gefahr

Technologische Entwicklung vollzieht sich heute mit rasanter Geschwindigkeit – davon profitieren auch Angreifer:innen auf Parteien und Politiker:innen. So erlaubt es der Fortschritt u.a. immer glaubwürdigere Fakes zu erstellen und diese mit einer steigenden Effizienz weitläufig zu verbreiten. Das wird an drei aktuellen Trends ganz besonders deutlich:

Deep Fakes, Voice Spoofing & Read Fakes

Deep Fakes sind manipulierte Videos, die mittels einer Künstlichen Intelligenz (kurz: KI) erstellt werden. Die KI macht es möglich, u.a. Auftreten, Mimik und Gestik einer Person künstlich nachzustellen und diese in den Videos sagen oder tun zu lassen, was auch immer der/die Ersteller:in möchte. Durch das sog. Voice Spoofing – dem künstlichen Nachahmen der Stimme einer Person – werden die Videos heute zusätzlich realistisch. Bekannt geworden sind Deep Fakes vor allem durch ein gefaktes Video von Barack Obama. Die DeepFake-Technologie gibt es schon länger. Doch mit der Weiterentwicklung von KI, entwickeln sich auch manipulierte Videos weiter und es wird zunehmend unmöglich eine falsche Aufnahme von einer echten Aufnahme zu unterscheiden. Ähnlich verhält es sich mit sog. Readfakes. Dabei erstellt eine KI automatisch Texte. Passiert dies auf der Grundlage von Informationen zum Schreibstil und Wording eines/r bestimmten Akteur:in, können glaubhafte Fakes von E-Mails oder Nachrichten-Artikeln erstellt werden.

Cyborg Accounts

Wenn es in den letzten Jahren um Social-Media-Manipulation oder Desinformationen ging, standen immer wieder sog. Social Bots oder Troll-Armeen im Zentrum der Diskussion. Doch mit der erhöhten Aufmerksamkeit und Aufklärung zu Bots, haben Angreifer:innen ihre Strategien weiterentwickelt – und zwar in Form von Cyborg Accounts. Diese werden im Wechsel sowohl von automatisierten Bots als auch von echten Menschen betrieben. Das ermöglicht es einerseits, Inhalte schnell und mit einer enormen Geschwindigkeit zu teilen, zu kommentieren oder zu liken, während gleichzeitig die Identifizierung solcher Accounts durch die menschliche Komponente erschwert wird.

Dark Social

Fake News, Deep Fakes & Co. werden erst mit ihrer Verbreitung wirklich gefährlich. Findet dieses nicht im öffentlich-zugänglichen Netz, sondern in sog. Dark Social-Anwendungen wie z.B. Messengerdiensten statt, nimmt die Gefahr gleich doppelt zu. Einerseits können Desinformationen hier nicht von einem Monitoring erfasst werden. Das macht auch jegliche Gegenmaßnahmen schwieriger, denn dafür müssen die zu bekämpfenden Desinformationen erstmal bekannt sein. Andererseits können Desinformationen in Messengern wie Whatsapp und Co. eine größere Wirkung erzielen. Erhalten wir (falsche) Infos per WhatsApp, tendieren wir eher dazu sie zu glauben – sie kommen ja schließlich von Bekannten, Freund:innen oder Familie. Die unmittelbare und persönliche Ansprache erhöht die Glaubwürdigkeit und verleiht Desinformationskampagnen somit zusätzliche Durchschlagskraft.

Disinformation-as-a-Service: digitale Schmierkampagnen einfach im Darknet kaufen

Die fortschreitende technische Entwicklung führt auch dazu, dass die Verbreitung von falschen Inhalten immer kostengünstiger und einfacher wird. So kann jeder mit einem internetfähigen Gerät heute mit wenigen Klicks falsche Inhalte ins Netz stellen oder Inhalte von anderen User:innen weiterverbreiten. Wer sich außerdem nicht selbst die Hände schmutzig machen will, kann ganze Dark-PR-Kampagnen sowie die Verbreitung von Desinformationen einfach im Darknet kaufen. Dort bieten Privatpersonen und PR-Agenturen auf einem Disinformation-as-a-Service-Markt ihre Dienste für kleines Geld an. Egal ob das Verbreiten und Kommentieren von Inhalten in Social Media oder die Platzierung von Fake-News-Artikeln in bekannten Medienoutlets – wer Böses im Sinn hat, findet hier die richtigen Verbündeten um sein Vorhaben auszuführen. Dabei sind keine Millionenbeträge notwendig: Die Anmietung eines Bot-Netzwerkes kostet dort gerade einmal 40 US-Dollar pro Monat, authentische Profile liegen bei knapp 100 US-Dollar und eine umfassende Kampagne kann bereits für 100.000 US-Dollar erworben werden.

Combating Disinformation: die Politik muss jetzt aktiv werden

Kampagnen, die u.a. einen Zweifel an der Rechtmäßigkeit von Wahlen streuen wollen, nehmen in den sozialen Netzwerken an Fahrt auf [6]. Das fand das Institute for Strategic Dialogue vor kurzem heraus. Politiker:innen, Parteien und Institutionen sollten sich daher auf die anstehenden Risiken vorbereiten und gegen das Problem „Desinformation“ aktiv vorgehen. Beides beinhaltet verschiedene Aspekte und Herangehensweisen. So scheint es ratsam, dass sich Institutionen und Parteien – auch im Hinblick auf die Bundestagswahl – um eine aufgeklärte und sensibilisierte Gesellschaft bemühen und Angebote zur Förderung der gesamtgesellschaftlichen Medienkompetenz schaffen. Hier können u.a. Desinformationstrainings, Workshops oder Online-Angebote helfen. Diese sollten auch Behörden- und Parteimitarbeiter:innen zur Verfügung gestellt werden. Die repräsentative Studie von Reset.Tech und Pollytix Strategic Research aus diesem Jahr zeigt, dass sich von der Bevölkerung ein aktives Vorgehen gegen Desinformationen im Netz gewünscht wird. 76 Prozent der Befragten erwarten von Plattformen und Politik ein starkes Engagement bei der Bekämpfung von Desinformationen [7]. Parteien und Politiker:innen sollten zudem erstens nicht der Versuchung verfallen, selbst auf die schmutzigen Tricks ihrer Gegner:innen zurückzugreifen. Zweitens scheint es sinnvoll, sich mithilfe eines Risk-Assessments seinen individuellen Risiken bewusst zu werden und falsche Informationen über die eigene Person oder Partei mit einem Web-Monitoring zu tracken. Letztlich sollte aber bereits eine umfassende Strategie für den Ernstfall in der Schublade liegen, die bei gezielten Desinformationskampagnen oder Manipulationsversuchen herausgeholt werden kann. . Denn letztlich können sich Politiker:innen bisweilen nicht auf die Unterstützung von großen Tech-Plattformen verlassen. Anders als beispielsweise vor der US-Wahl im vergangenen Jahr, haben große Plattformen wie Twitter oder Facebook bis dato keinerlei Richtlinien oder Strategien vorgelegt, die der Vorbeugung von Desinformationskampagnen auf ihren Plattformen in Bezug auf die bevorstehende Bundestagswahl dienen [8]. Das entschiedene Entgegentreten von Politiker:innen ist somit essenziell, denn rund die Hälfte der Befragten informiert sich zur Bundestagswahl vorwiegend online [9]. Das fand die Studie von Reset.Tech und Pollytix Strategic Research heraus, wobei gerade für jüngere Wähler:innen (18 bis 24 Jahre) das Internet mit 79 Prozent die wichtigste Informationsquelle ist.

Sie brauchen Hilfe beim Umgang mit politischen Desinformationen? Wir helfen gerne!

Better safe than sorry.


[1] Delcker, Janosch, Deutsche Welle 2021

[2] Howard, Philip N. 2020

[3] CHEQ 2019

[4] Oxford University 2020

[5, 7, 9] Reset.Tech und Pollytix Strategic Research 2021

[6, 8] Institute for Strategic Dialogue 2021

  • PREVENCY GmbH

  • Güterstraße 20

  • D-42117 Wuppertal

Logo der Allianz für Cyber-Sicherheit
Logo der Deutschen Gesellschaft für Online-Forschung