- Anlässlich der bevorstehenden Bundestagswahl in Deutschland werden wir ein ”Elections Operations Center” einrichten, um potenzielle Bedrohungen zu identifizieren und entsprechende Gegenmaßnahmen in Echtzeit zu ergreifen.
- Als erstes Technologieunternehmen hat Meta im Jahr 2022 die als “Doppelgänger” bekannte russische Beeinflussungsoperation aufgedeckt und seither Zehntausende solcher Inhalte blockiert.
- Gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) haben wir einen Workshop für Regierungsvertreter*innen, politische Parteien und Kandidat*innen veranstaltet, um Aufklärung und Informationsaustausch gezielt zu fördern.
Bereits im vergangenen Jahr haben wir ein Team aus Expert*innen ins Leben gerufen, um die Integrität der Bundestagswahl auf unseren Plattformen zu wahren. Auch wenn jede Wahl einzigartig ist, können wir damit – neben dem Rechtsrahmen des europäischen Digital Services Act (DSA) – auf wichtige Erkenntnisse zurückgreifen, die wir aus mehr als 200 Wahlen auf der ganzen Welt seit 2016 gewonnen haben. Diese Erkenntnisse helfen uns, unsere Teams, Technologien und Investitionen so auszurichten und einzusetzen, dass sie die größtmögliche Wirkung erzielen.
Seit 2016 haben wir mehr als 20 Milliarden US-Dollar in entsprechende Sicherheitsmaßnahmen investiert und die Größe des zuständigen globalen Teams auf rund 40.000 Mitarbeitende vervierfacht. Dazu gehören 15.000 Content Reviewer, die Inhalte auf Facebook, Instagram und Threads in mehr als 80 Sprachen – darunter auch Deutsch – prüfen.
In den letzten acht Jahren haben wir branchenführende Transparenz-Tools für Werbeanzeigen zu sozialen Themen, Wahlen oder Politik im Allgemeinen eingeführt, umfassende Richtlinien zur Verhinderung von Wahlbeeinflussung und Wahlbetrug entwickelt und spezialisierte Teams zur Unterbindung von Beeinflussungsversuchen ins Leben gerufen. Wir haben darüber hinaus Maßnahmen ergriffen, um mit generativer KI verbundenen Risiken wie Deepfakes und KI-gestützte Desinformationskampagnen weiter einzudämmen – wenngleich die zahlreichen Wahlen im Jahr 2024 gezeigt haben, dass diese Risiken auf unseren Plattformen bisher in keinem wesentlichen Umfang aufgetreten sind.
Für die anstehende Bundestagswahl in Deutschland werden wir – wie bereits für bisherige Wahlen – ein “Elections Operations Center” einrichten, in dem unternehmensweite Expert*innen aus den Bereichen Intelligence, Data Science, Engineering, Research, Operations, Content Policy, Public Policy und Legal zusammenarbeiten werden, um potenzielle Bedrohungen zu identifizieren und spezifische Eindämmungsmaßnahmen in unseren Apps und Technologien in Echtzeit umzusetzen.
Hier sind drei Schlüsselbereiche, auf die sich unsere Teams konzentrieren werden:
Bekämpfung von gezielter Beeinflussung
Wir definieren Operationen zur Beeinflussung als koordinierte Bemühungen, die öffentliche Debatte für ein strategisches Ziel zu manipulieren oder zu korrumpieren – gemeinhin auch als Desinformation bekannt. Sie können von verdeckten Kampagnen, die sich auf Netzwerke von gefälschten Konten stützen, um die Menschen darüber zu täuschen, wer dahintersteckt, bis hin zur offenen Beeinflussung durch staatlich kontrollierte Medienunternehmen reichen.
Um verdeckter Beeinflussung durch solche Netzwerke entgegenzuwirken und auf diese Weise das zu stoppen, was wir als koordiniertes nicht-authentisches Verhalten bezeichnen, haben wir spezialisierte globale Teams aufgebaut. Seit 2017 haben wir so mehr als 200 solcher Netzwerke von unseren Plattformen entfernt , worüber wir im Rahmen unserer vierteljährlichen Threat Reports öffentlich informieren. Wir arbeiten kontinuierlich und weltweit daran, betrügerische Kampagnen aufzuspüren und zu entfernen, unter anderem vor wichtigen Wahlen wie der bevorstehenden Bundestagswahl in Deutschland.
Dennoch erwarten wir, dass betrügerische Kampagnen, die wir bereits enttarnt haben, versuchen werden zurückzukehren, um sich dadurch dem Entfernen durch uns und andere Plattformen zu entziehen. Deshalb gehen wir kontinuierlich auch gegen wiederkehrende Manipulationsversuche vor.
So war Meta beispielsweise das erste Technologieunternehmen, das 2022 die als “Doppelgänger” bekannte russische Beeinflussungsoperation aufdeckte, die neben vielen anderen Ländern auch Deutschland zum Ziel hatte. Wir waren auch die ersten, die Doppelgänger öffentlich zwei Unternehmen in Russland zuordneten, die 2023 von der EU und 2024 vom US-Finanzministerium sanktioniert wurden. Seitdem haben wir Zehntausende ihrer Versuche, ihre Präsenz auf unseren Plattformen wiederherzustellen, blockiert. Allein von Mai bis August letzten Jahres haben wir weltweit mehr als 5.000 Doppelgänger-Konten und -Seiten aufgespürt und entfernt und unsere branchenweit größte Datenbank mit mehr als 6.000 Einträgen im Zusammenhang mit dieser Kampagne um neue Bedrohungshinweise ergänzt, damit unsere Kolleg*innen und Forscher*innen entsprechende Untersuchungen anstellen und Maßnahmen ergreifen können. Wir haben unsere Erkenntnisse auch mit den deutschen Behörden geteilt und stehen weiterhin in engem Kontakt mit ihnen.
Wir kennzeichnen staatlich kontrollierte Medien auf Facebook, Instagram und Threads, damit Nutzer*innen erkennen können, wenn Inhalte von einem Absender stammen, der möglicherweise unter der inhaltlichen Kontrolle einer Regierung steht. Als wir im Jahr 2022 neue und strengere Maßnahmen gegen russische staatlich kontrollierte Medien ergriffen, einschließlich der Sperrung in der EU und der weltweiten Herabstufung ihrer Beiträge, zeigten Untersuchungen von Graphika, dass das Posting-Volumen auf ihren Seiten um 55 % und das Engagement um 94 % gegenüber dem Vorkriegsniveau zurückging, während „mehr als die Hälfte aller russischen staatlichen Medien Veröffentlichungen gänzlich einstellten.“
Unsere branchenführenden Transparenz-Tools für Werbeanzeigen
Meta hat branchenführende Transparenz-Tools für Werbeanzeigen zu sozialen Themen, Wahlen oder Politik. Werbetreibende, die diese Art von Anzeigen bei Meta schalten möchten, müssen einen Verifizierungsprozess durchlaufen, um zu beweisen, dass sie die sind, die sie vorgeben zu sein, und dass sie in Deutschland leben. Sobald sie verifiziert sind, enthalten ihre Anzeigen einen „Bezahlt von“-Hinweis, aus dem hervorgeht, wer hinter der jeweiligen Anzeige steht. Wir stellen sicher, dass alle diese Anzeigen sieben Jahre lang in unserer Anzeigenbibliothek gespeichert werden, in der jeder sehen kann, welche Anzeigen laufen, wie viel dafür ausgegeben wurde und welche Informationen zur Zielgruppenansprache vorliegen.
Wir lassen keine Anzeigen zu, die widerlegte Inhalte enthalten. Wir lassen auch keine auf Deutschland ausgerichteten Anzeigen zu, die zum Ziel haben, Menschen davon abzuhalten, an der Wahl teilzunehmen, die die Legitimität der Wahl in Frage stellen oder voreilige Behauptungen über den Wahlsieg enthalten.
Unser Überprüfungsprozess für Anzeigen umfasst mehrere Analyse- und Erkennungsebenen, sowohl vor als auch nach der Veröffentlichung einer Anzeige, über die Sie hier mehr lesen können.
Enge Zusammenarbeit mit lokalen Partnern
Im Rahmen der Wahlvorbereitungen stehen wir in engem Kontakt mit den lokalen Behörden in Deutschland, um unsere Maßnahmen zu koordinieren. Dazu gehört die Teilnahme an zahlreichen Treffen mit dem Bundesinnenministerium des Innern und für Heimat, der Bundesnetzagentur als Digitale Dienste Koordinator und den Strafverfolgungsbehörden. In enger Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) haben wir einen gemeinsamen Workshop für Regierungsvertreter*innen, politische Parteien und Kandidat*innen durchgeführt. Der Schwerpunkt dieser Veranstaltung lag auf Metas Sicherheitsmaßnahmen im Kontext der anstehenden Bundestagswahl, wie beispielsweise der Zwei-Faktor-Authentifizierung, sowie dem Umgang mit Mis- und Desinformationen auf Facebook und Instagram.
Darüber hinaus sind wir im Gespräch mit der deutschen Bundeswahlleiterin, um ihre Kampagne zur Stimmabgabe zu unterstützen und konzentrieren uns weiterhin darauf, Nutzer*innen unserer Plattformen zuverlässige Wahlinformationen zur Verfügung zu stellen. Im Vorfeld der Wahl und am Wahltag werden wir alle Nutzer*innen in Deutschland über In-Feed-Benachrichtigungen auf FB und IG mit Details zu den Wahlen versorgen und sie auf die Website der Wahlleiterin weiterleiten.
Unsere jüngste Ankündigung, dass wir auf ein System von Community Notes umsteigen werden, um gegen Fehlinformationen vorzugehen, wird sich nicht auf die deutsche Wahl auswirken, und wir werden weiterhin mit den lokalen, unabhängigen Fact-Checking-Organisation AFP, Correctiv und dpa-Faktencheck zusammenarbeiten, um virale Fehlinformationen in Deutschland zu entlarven. Wir werden auch weiterhin gravierende Arten von Fehlinformationen entfernen, wie z.B. Inhalte, die zu drohender Gewalt oder körperlichen Schäden beitragen könnten oder die darauf abzielen, Wahlen zu unterdrücken.
Wir werden auch den Schutz für Kandidat*innen verbessern, um auf die zunehmenden Belästigungen zu reagieren, denen Politik*innen ausgesetzt sind und über die sie berichten. Dazu gehören der Schutz von Accounts der Kandidaten*innen, einschließlich blauem Verifizierungsabzeichen für FB und IG, sowie proaktive Bemühungen, Belästigungen auf den Plattformen zu erkennen und zu entfernen. Alle diese Informationen sind auch in unserem deutschen Wahlzentrum für Kandidat*innen verfügbar.
Weitere Informationen darüber, wie Meta an Wahlen herangeht, finden Sie auf unserer Seite zu Wahlvorbereitungen.