Hoe Facebook bijdraagt aan de veiligheid van de Nederlandse verkiezingen in 2021

Update op 12 juli om 12:00 uur CET:

Rapport: hoe Facebook heeft bijgedragen aan de veiligheid van de Nederlandse verkiezingen in 2021

In 2021 heeft Facebook verschillende maatregelen genomen om de integriteit van de Nederlandse Tweede Kamer-verkiezingen te beschermen. Naar aanleiding daarvan publiceert het nu een rapport met concrete informatie over het effect van deze maatregelen.

In het eerste kwartaal van 2021 hebben we in Nederland 94.000 berichten verwijderd vanwege haatdragend taalgebruik, zijn 1,5 miljoen keer berichten gelabeld op basis van een factcheck door onze partners en hebben we meer dan 17.000 berichten op Facebook en Instagram verwijderd vanwege het overtreden van ons beleid wat betreft misinformatie die kunnen leiden tot direct geweld of lichamelijk letsel.

Ruim een kwart miljoen mensen heeft doorgeklikt naar ‘elkestemtelt.nl’ naar aanleiding van onze initiatieven om mensen van betrouwbare verkiezingsinformatie van de Rijksoverheid te voorzien. Onze officiële Instagram-verkiezingsstickers zijn 400.000 keer in Instagram Stories gedeeld.

Het volledige rapport is via onderstaande link.

Update op 12 februari om 23:00 uur CET:

Facebook speelt een steeds grotere rol in discussies in samenlevingen wereldwijd en we werken hard aan het voorkomen van misbruik van onze platforms, zeker in verkiezingstijd. We hebben enorme investeringen gedaan om het verstoren van de verkiezingen en het ontmoedigen van stemmen te voorkomen, om misinformatie te bestrijden en om transparantie op het gebied van politieke advertenties te stimuleren.

Hieronder wat je moet weten over de stappen die we nemen met de Nederlandse verkiezingen voor de Tweede Kamer van 2021 in zicht.

1. We zorgen voor veiligheid

  • Het bewaken van de veiligheid van mensen op Facebook en Instagram is altijd onze hoogste prioriteit—dit is extra belangrijk in verkiezingstijd, wanneer beladen campagnes zelfs tot geweld of intimidatie kunnen leiden.
  • We hanteren wereldwijde regelgeving—onze Richtlijnen voor de Community—die tot in detail beschrijft wat wel en niet mag op Facebook en Instagram. Hieronder vallen strenge regels voor het aanzetten tot geweld, haatzaaiing, intimidatie en het ontmoedigen van kiezers om te gaan stemmen.
  • Als iemand iets deelt waarvan jij denkt dat het onze regels overtreedt, dan willen we dat horen. Hiervoor stellen we rapporteer-tools beschikbaar zodat mensen overtredingen aan ons kunnen laten weten en we die kunnen onderzoeken. Als je iets post dat tegen onze regels ingaat, verwijderen we het.
  • Sinds 2016 hebben we de omvang van de teams die werken aan de veiligheid en bescherming van gebruikers verdrievoudigd naar meer dan 35.000 mensen. Ook hebben we meer engineers en beveiligingsexperts aangenomen, evenals contentbeoordelaars, waaronder ook Nederlandstalige moderatoren.
  • We zijn ook pioniers in het gebruik van kunstmatige intelligentie bij het sneller opsporen en verwijderen van schadelijke content. Tussen juli en september hebben we wereldwijd meer dan 19 miljoen stukken expliciete en gewelddadige content verwijderd—we verwijderen meer dan 99,5 procent van dit soort content proactief, dat wil zeggen vóórdat iemand het aan ons rapporteert.

2. We bestrijden misinformatie en nepnieuws

  • We werken hard aan het bestrijden van misinformatie via onze platforms omdat we weten dat mensen betrouwbare informatie willen zien op Facebook en Instagram—dat willen wij ook.
  • Verschillende onafhankelijke onderzoeken tonen aan dat Facebook de interactie met nepnieuws met meer dan 50 procent heeft teruggebracht.
  • We verwijderen misinformatie die kan leiden tot direct geweld of lichamelijk letsel, zoals misinformatie over COVID-19 waardoor de kans dat mensen het virus oplopen of geen behandeling ervoor zoeken, kan toenemen—zoals namaakmedicijnen of onbewezen manieren om COVID-19-infecties te voorkomen. 
  • We verwijderen eveneens misinformatie die mensen ervan zou kunnen weerhouden om te gaan stemmen, zoals verkeerde informatie over stemlocaties, stemtijden en stemmethoden.
  • Als het gaat om onjuiste berichten die onze Richtlijnen voor de Community niet direct overtreden, werken we samen met meer dan 80 onafhankelijke factcheck-organisaties wereldwijd—waarvan twee in Nederland—die de betrouwbaarheid van gedeelde content op Facebook en Instagram bekijken en beoordelen.
  • Deze factcheckers voegen waarschuwingslabels toe aan content die zij hebben beoordeeld als onjuist of gedeeltelijk onjuist. Onderzoek wijst uit dat als mensen deze labels zien, de meerderheid niet doorklikt naar de oorspronkelijke post. Content met de beoordeling ‘onjuist’ of ‘gedeeltelijk onjuist’  wordt daarnaast minder verspreid in de nieuwsfeed van Facebook, waardoor mensen het minder snel te zien krijgen. We tonen daarnaast gerelateerde artikelen van factcheckers voor context en sturen gebruikers een notificatie als een verhaal dat zij delen als ‘onjuist’ is beoordeeld.
  • We vinden niet dat het aan ons is om als scheidsrechter op te treden in het politieke debat, of om ervoor te zorgen dat uitspraken van een politicus hun publiek niet kunnen bereiken, waardoor deze niet meer aan publiek debat en controle onderworpen kunnen worden. Daarom worden content en advertenties van politici niet door onze onafhankelijke factcheckers gecheckt. Als politici echter content delen die eerder als onjuist of gedeeltelijk onjuist is bestempeld, plaatsen we deze lager in de nieuwsfeed, laten we gerelateerde informatie van factcheckers zien en wordt deze content niet meegenomen in advertenties – zoals dat bij andere gebruikers van ons platform gebeurt. Belangrijk is om te benadrukken dat we wel content van politici verwijderen die letsel kan veroorzaken, die kiezers ontmoedigt om te gaan stemmen, of waar sprake is van haatzaaien. Meer informatie over ons onafhankelijke factcheckers-programma en welke content gefactcheckt wordt is hier te vinden.
  • We willen er ook zeker van zijn dat mensen misinformatie kunnen herkennen en weten hoe ze ons ervan op de hoogte kunnen stellen. Dat is precies waarom we in Nederland een campagne zijn gestart waarbij we op Facebook leerzame tips verspreiden over hoe je nepnieuws herkent, genaamd ‘Drie vragen om nepnieuws de wereld uit te helpen’.

3. We voorkomen dat content viral gaat

  • We hebben fundamentele veranderingen in onze producten doorgevoerd om de verspreiding van content—waaronder misinformatie—tegen te gaan die geweld en conflicten kunnen vergroten of verergeren.
  • Zo hebben we massaberichten op WhatsApp in de ban gedaan. We gebruiken het leervermogen van onze machines om accounts te identificeren en te verbannen die zich hiermee bezig houden. Wereldwijd sluiten we ongeveer 2 miljoen accounts per maand voor dit soort misbruik.
  • Ook hebben we het aantal mensen waaraan je een bericht kan doorsturen aan banden gelegd door het te limiteren tot vijf chats per keer en hebben we de labels ‘doorgestuurd’ en ‘vaak doorgestuurd’ in het leven geroepen om aan te geven wanneer iets al meerdere keren gedeeld is. Sindsdien hebben we het aantal mensen waaraan je een ‘vaak doorgestuurd’ bericht kan sturen, teruggebracht tot slechts één chat per keer. Dit heeft geleid tot een afname van 70 procent in het aantal vaak doorgestuurde berichten op WhatsApp.
  • Deze limieten op het doorsturen hebben we ook bij Messenger geïntroduceerd, zodat berichten naar maximaal vijf mensen of groepen tegelijkertijd kunnen worden gestuurd. Een limiet stellen op het doorsturen is een effectieve manier om de verspreiding  van virale misinformatie en schadelijke content die de potentie hebben om problemen te veroorzaken in de echte wereld tegen te gaan.

4. We bestrijden pogingen om verkiezingen te verstoren

  • We houden dagelijks miljoenen nepaccounts tegen, al bij het registratieproces. Continu bouwen we onze technische systemen uit en updaten we ze om het gemakkelijker te maken om te reageren op meldingen van misbruik, om spam te detecteren en te verwijderen, om nepaccounts op te sporen en uit te schakelen en om pogingen om accounts te hacken te voorkomen.
  • Tussen juli en september hebben we wereldwijd 1,3 miljard nepaccounts verwijderd. Dit in vergelijking met 750 miljoen nepaccounts in dezelfde periode in 2018.
  • We hebben de omvang van de teams die werken aan de veiligheid en bescherming van gebruikers verdrievoudigd naar meer dan 35.000 mensen. Ook hebben we gespecialiseerde teams die zich bezighouden met gecoördineerd nepgedrag ingehuurd om gecompliceerde netwerken van pagina’s, groepen en accounts op Facebook te onderzoeken en te verwijderen. Gecoördineerd nepgedrag houdt in dat groepen mensen met nepprofielen samenwerken om het publieke debat te beïnvloeden. Dit kunnen binnenlandse campagnes zijn of campagnes die worden gestuurd vanuit buitenlandse machthebbers, waaronder buitenlandse overheden.
  • Sinds 2017 hebben we wereldwijd meer dan honderd van deze netwerken offline gehaald, waarvan vele vlak voor grote verkiezingen.

5. We maken politieke advertenties transparanter

  • Wij vinden dat de politieke discussie en het politieke debat transparant moeten zijn voor elke kiezer. Daarom hebben we de afgelopen jaren een aantal tools geïntroduceerd die meer informatie bieden over politieke advertenties op Facebook en Instagram. De definitie van ‘politieke advertenties’ op Facebook en Instagram vind je hier.
  • We hebben deze transparantie-tools verplicht gemaakt voor politieke advertenties in Nederland. Hierdoor moet iedereen die een politieke advertentie wil verspreiden eerst een verificatieproces doorlopen om te bewijzen dat ze zijn wie ze zeggen te zijn en dat ze in Nederland wonen. We voeren daarnaast extra checks uit om er zeker van te zijn dat onze overige regels worden nageleefd.
  • Elke politieke advertentie in Nederland krijgt ook een label met een ‘gesponsord door’-disclaimer, zodat je snel kan zien wie ervoor betaald heeft. We zetten daarnaast alle politieke advertenties die in Nederland actief zijn in onze Advertentiebibliotheek zodat iedereen de verschillende actieve advertenties kan zien en kan checken welke soorten mensen deze hebben gezien, plus de hoeveelheid geld die er aan uitgegeven is. Dit volledig doorzoekbare archief slaat deze advertenties zeven jaar lang op.
  • Deze veranderingen betekenen dat politieke advertenties op Facebook en Instagram nu zelfs transparanter zijn dan andere vormen van campagnevoering, zoals reclameborden, advertenties in kranten, post, pamfletten of gerichte e-mail.

6. Burgerparticipatie

  • Helpen bij het ondersteunen van een goed geïnformeerde en participerende samenleving staat centraal in het werk dat we doen rond en tijdens verkiezingen. In Nederland zijn we trainingen en gesprekken gestart met belangrijke stakeholders zoals de overheid, politici  en de media om hen te informeren over alles dat we voor het land doen rond verkiezingstijd.
  • Onze focus ligt hierbij op het laten zien aan deze groepen over hoe Facebook een waardevolle tool kan zijn voor burgerparticipatie. We hebben hen onze Richtlijnen voor de Community uitgelegd, die de richtlijnen bepalen voor wat mag en wat niet mag op Facebook, evenals de werking van onze transparantie-tools voor advertising en de stappen die zij kunnen ondernemen om de veiligheid te waarborgen tijdens het gebruik van onze platforms.


To help personalize content, tailor and measure ads, and provide a safer experience, we use cookies. By clicking or navigating the site, you agree to allow our collection of information on and off Facebook through cookies. Learn more, including about available controls: Cookies Policy