Meta’s Ongoing Efforts Regarding the Israel-Hamas War

Hebrew translation, Arabic translation

Update on December 7, 2023 at 3:00AM PT:

Today Meta’s Oversight Board announced it has selected two cases from user appeals related to the Israel-Hamas War for expedited review, a process by which the board issues accelerated content decisions within 30 days in exceptional circumstances. The Oversight Board’s guidance in these cases, along with feedback from other experts, will help us to continue to evolve our policies and response to the ongoing Israel-Hamas War. We will implement the board’s decision in each case once it has finished deliberating and will update our Transparency Center accordingly.

Update on December 5, 2023 at 9:00PM PT:

At the beginning of the war, we designated the October 7 attack by Hamas as a Terrorist Attack under our Dangerous Organization and Individuals policy. Consistent with that designation, we removed all content showing identifiable victims at the moment of the attack. 

Following that, people began sharing this type of footage in order to raise awareness and condemn the attacks. Meta’s goal is to allow people to express themselves while still removing harmful content. In turn, we began allowing people to post this type of footage within that context only, with the addition of a warning screen to inform users that it may be disturbing. If the user’s intent in sharing the content is unclear, we err on the side of safety and remove it. 

Under our Dangerous Organizations and Individuals policy, we continue to remove any imagery that is produced by a Dangerous Organization or Individual, unless it is clear that the user is sharing it in a news reporting or condemnation context, and no minors under thirteen years old are depicted.

Update on October 18, 2023 at 3:00AM PT:

After the terrorist attack by Hamas against Israel last week, and Israel’s response in Gaza, our teams introduced a series of measures to address the spike in harmful and potentially harmful content spreading on our platforms. Our policies are designed to keep people safe on our apps while giving everyone a voice. We apply these policies equally around the world and there is no truth to the suggestion that we are deliberately suppressing voice. However, content containing praise for Hamas, which is designated by Meta as a Dangerous Organization, or violent and graphic content, for example, is not allowed on our platforms. We can make errors and that is why we offer an appeals process for people to tell us when they think we have made the wrong decision, so we can look into it. 

Some additional updates and steps we are taking as this situation continues to unfold: 

Fixing Bugs: We identified and fixed some bugs this past week. 

  • One impacting all Stories that re-shared Reels and Feed posts on Instagram, meaning they weren’t showing up properly in people’s Stories, leading to significantly reduced reach. This bug affected accounts equally around the globe – not only people trying to post about what’s happening in Israel and Gaza – and it had nothing to do with the subject matter of the content. We fixed this bug as quickly as possible. 
  • Another prevented people from going Live on Facebook for a short time. This was also a global issue that was fixed within a few hours. We understand people rely on these tools and we’re sorry to anyone who felt the impact of these issues. 

Comment and Profile Settings: 

  • As a temporary measure to protect people in the region from potentially unwelcome or unwanted comments, we have: 
    • Changed the default setting for who can comment on newly created public Facebook posts of people in the region to Friends and/or established followers only. Users globally can choose to use this setting and opt in or out at any time, and we are notifying people in the region with specific instructions on how to change this setting.
    • We’ve made it easier for people to bulk delete comments on their posts.
    • Disabled the feature that normally displays the first one or two comments under posts in Feed.
  • We recently rolled out the Lock Your Profile tool in the region that allows people to lock their Facebook profile in one step. When someone’s profile is locked, people who aren’t their friends can’t download, enlarge or share their profile photo, nor can they see posts or other photos on someone’s profile, regardless of when they may have posted it. 

Fundraising on Facebook and Instagram: Since October 7, people have raised more than $11.5 million for nonprofits on Facebook and Instagram to help with relief efforts in Israel and Palestine. This includes over 340,000 donations to 262 charities – providing disaster relief, ambulance and blood services, medical care and more.

Originally published on October 13, 2023 at 1:00AM PT:

Like many, we were shocked and horrified by the brutal terrorist attacks by Hamas, and our thoughts go out to civilians who are suffering in Israel and Gaza as the violence continues to unfold.

Since the terrorist attacks by Hamas on Israel on Saturday, and Israel’s response in Gaza, expert teams from across our company have been working around the clock to monitor our platforms, while protecting people’s ability to use our apps to shed light on important developments happening on the ground. The following are some of the specific steps we have taken:

Taking Action on Violating Content

  • We quickly established a special operations center staffed with experts, including fluent Hebrew and Arabic speakers, to closely monitor and respond to this rapidly evolving situation in real time. This allows us to remove content that violates our Community Standards or Community Guidelines faster, and serves as another line of defense against misinformation.
  • We continue to enforce our policies around Dangerous Organizations and Individuals, Violent and Graphic Content, Hate Speech, Violence and Incitement, Bullying and Harassment, and Coordinating Harm
    • In the three days following October 7, we removed or marked as disturbing more than 795,000 pieces of content for violating these policies in Hebrew and Arabic.
    • As compared to the two months prior, in the three days following October 7, we have removed seven times as many pieces of content on a daily basis for violating our Dangerous Organizations and Individuals policy in Hebrew and Arabic alone. 
  • Hamas is designated by the US government as both a Foreign Terrorist Organisation and Specially Designated Global Terrorists. It is also designated under Meta’s Dangerous Organizations and Individuals policy. This means Hamas is banned from our platforms, and we remove praise and substantive support of them when we become aware of it, while continuing to allow social and political discourse — such as news reporting, human rights related issues, or academic, neutral and condemning discussion. 
  • We want to reiterate that our policies are designed to give everyone a voice while keeping people safe on our apps. We apply these policies regardless of who is posting or their personal beliefs, and it is never our intention to suppress a particular community or point of view. Given the higher volumes of content being reported to us, we know content that doesn’t violate our policies may be removed in error. To mitigate this, for some violations we are temporarily removing content without strikes, meaning these content removals won’t cause accounts to be disabled. We also continue to provide tools for users to appeal our decisions if they think we made a mistake.
  • Our teams are monitoring the situation and in some cases temporarily introducing limited, proportionate, and time-bound measures to address specific, emerging risks:
    • Stronger steps to avoid recommending potentially violating and borderline violating content: We already use technology to avoid recommending potentially violating and borderline content across Facebook, Instagram and Threads. We’re working to further reduce the possibility of this happening by lowering the threshold at which our technology will take action to avoid recommending this type of content. We’re also taking steps to reduce the visibility of potentially offensive comments under posts on Facebook and Instagram. 
    • Violence and Incitement: In order to prioritize the safety of those kidnapped by Hamas, we are temporarily expanding our Violence and Incitement policy and removing content that clearly identifies hostages when we’re made aware of it, even if it’s being done to condemn or raise awareness of their situation. We are allowing content with blurred images of the victims but, in line with standards established by the Geneva Convention, we will prioritize the safety and privacy of kidnapping victims if we are unsure or unable to make a clear assessment.
    • Hashtag Blocking: In line with our rules, we have restricted a number of Instagram hashtags after our team assessed that content associated with those hashtags was consistently found to be violating our Community Guidelines. This means that the hashtags are not searchable – but the content itself won’t be removed unless it violates our policies.
    • Facebook and Instagram Live: We recognize that the immediacy of Live brings unique challenges, so we have restrictions in place on the use of Live for people who have previously violated certain policies. We’re prioritizing livestream reports related to this crisis, above and beyond our existing prioritization of Live videos. We’re also aware of Hamas’ threats to broadcast footage of the hostages and we’re taking these threats extremely seriously. Our teams are monitoring this closely, and would swiftly remove any such content (and the accounts behind it), banking the content in our systems to prevent copies being re-shared.
  • We’re getting feedback from local partners on emerging risks and moving quickly to address them. We recognize that local context and language-specific expertise is essential for this work, so we will remain in close communication with experts, partner institutions and non-governmental organizations.

Safety and Security

  • Coordinated Inauthentic Behavior (CIB): Our teams have detected and taken down a cluster of activity linked to a covert influence operation we removed and attributed to Hamas in 2021. These fake accounts attempted to re-establish their presence on our platforms. We continue to stay vigilant and take action against violating adversarial behavior in the region.
  • Memorialization: We memorialize accounts when we receive a request from a friend or family member of someone who has passed away, to provide a space for people to pay their respects, share memories and support each other. When accounts are memorialized, no one (except Legacy Contacts on Facebook) can make any changes to existing posts or settings. We also add the word ‘Remembering’ next to the person’s name, and don’t recommend the account to new people. Our Community Standards apply to memorialized accounts and we remove violating comments left under posts on these accounts whenever we become aware of them.  

Reducing the Spread of Misinformation

  • We’re working with third-party fact-checkers in the region to debunk false claims. Meta has the largest third-party fact checking network of any platform, with coverage in both Arabic and Hebrew, through AFP, Reuters and Fatabyyano. When they rate something as false, we move this content lower in Feed so fewer people see it. 
  • We recognize the importance of speed in moments like this, so we’ve made it easier for fact-checkers to find and rate content related to the war, using keyword detection to group related content in one place.
  • We’re also giving people more information to decide what to read, trust, and share by adding warning labels on content rated false by third-party fact-checkers and applying labels to state-controlled media publishers. 
  • We also have limits on message forwarding and label messages that haven’t originated with the sender so people are aware that something is information from a third party.

User Controls

We continue to provide tools to help people control their experience on our apps and protect themselves from content they don’t want to see. These include, but aren’t limited to:

  • Hidden words: When turned on, Hidden Words filters offensive terms and phrases from DM requests and comments, so people never have to see them. People can customize this list, to make sure the terms they find offensive are hidden. 
  • Limits: When turned on, Limits automatically hide DM requests and comments on Instagram from people who don’t follow you, or who only recently followed you.
  • Comment controls: You can control who can comment on your posts on Facebook and Instagram and choose to turn off comments completely on a post by post basis. 
  • Show More, Show Less: This gives people direct control over the content they see on Facebook. Selecting “Show more” will temporarily increase the amount of content you see that is like the post you gave feedback on, while selecting “Show Less” means you will temporarily see less posts like the one you gave feedback on.
  • Facebook Reduce: Through the Facebook Feed Preferences settings, people can increase the degree to which we demote some content so they see less of it in their Feed. Or if preferred, they can turn many of these demotions off entirely. They can also choose to maintain our current demotions.
  • Sensitive Content Control: Instagram’s Sensitive Content Control allows people to choose how much sensitive content they see in places where we recommend content, such as Explore, Search, Reels and in-Feed recommendations. We try not to recommend sensitive content in these places by default, but people can also choose to see less, to further reduce the possibility of seeing this content from accounts they don’t follow.

Hebrew Translation

עדכון מה-7 בדצמבר, 2023 בשעה 3:00 (שעון החוף המערבי):

היום, המועצה המפקחת (Oversight Board) על Meta הודיעה שהיא בחרה לבחינה מזורזת שני מקרים הקשורים למלחמת ישראל-חמאס, מתוך ערעורים שמשתמשים הגישו  – הליך במסגרתו המועצה מגישה החלטות מואצות בנושאי תוכן בתוך 30 יום, בנסיבות מיוחדות. הקווים המנחים שתספק המועצה המפקחת במקרים אלו, לצד המשוב ממומחים, יעזרו לנו להמשיך ולפתח את המדיניות שלנו, ואת התגובה שלנו למלחמת ישראל-חמאס. אנחנו ניישם את החלטת המועצה בכל אחד מהמקרים כאשר תסתיים הבחינה, ונעדכן את מרכז השקיפות שלנו בהתאם.

עדכון מה-5 בדצמבר, 2023 בשעה 9:00 (שעון החוף המערבי):

עם תחילת המלחמה, הגדרנו את מתקפת ה-7 באוקטובר של חמאס כמתקפת טרור, בהתאם למדיניות שלנו לגבי ארגונים ואנשים מסוכנים. בהתאם להגדרה זו, הסרנו את כל התוכן שמראה קורבנות שניתן לזהות מרגעי התקיפה.

בעקבות כך, אנשים החלו לשתף תיעודים כאלו על מנת להעלות את המודעות ולגנות את המתקפות. מטרתה של Meta היא לאפשר לאנשים לבטא את עצמם, לצד הסרה של תוכן פוגעני. בהמשך, התחלנו לאפשר לאנשים לפרסם תיעודים אלו בתוך ההקשר הזה בלבד, בנוסף לאזהרה על המסך שתיידע משתמשים שתכנים אלו עלולים להיות מטרידים. אם הכוונה של המשתמש בשיתוף התוכן לא ברורה, בחרנו בצד של הבטיחות – והסרנו אותו.

בהתאם למדיניות שלנו, אנחנו ממשיכים להסיר כל תיעוד המופק על ידי ארגונים ואנשים מסוכנים, אלא אם ברור שהמשתמש משתף את התוכן כדיווח חדשותי, או בהקשר של גינוי – כל עוד קטינים מתחת לגיל 13 אינם מוצגים בו.

פוסט מהניוז רום 18/10

לאחר מתקפת הטרור של חמאס נגד ישראל בשבוע שעבר, והתגובה של ישראל בעזה, הצגנו מספר שינויים, במטרה לתת מענה לעלייה החדה בכמות התכנים הפוגעניים והתכנים שעשויים להיות פוגעניים המופצים על הפלטפורמות שלנו.

המדיניות שלנו נבנתה בצורה כזו, שמצד אחד תשמור על בטיחותם של אנשים על הפלטפורמה שלנו ומצד שני תאפשר להם להשמיע את קולם.

מדיניות זו חלה באופן שווה בכל העולם, ואין אמת בטענה שאנחנו משתיקים קולות באופן מכוון.

למרות זאת, תוכן שמשבח את החמאס, שהוגדר על ידי Meta כארגון מסוכן, או תוכן אלים וכזה שמציג אלימות בצורה גרפית, לדוגמה, אסור על הפלטפורמות שלנו. אנחנו עלולים לעשות טעויות וזו הסיבה שאנחנו מאפשרים תהליכי ערעור, כדי שאנשים יוכלו להגיד לנו אם הם חושבים שקיבלנו החלטה לא נכונה ונוכל לבדוק זאת בצורה מעמיקה יותר.

 כמה עדכונים וצעדים נוספים שאנחנו לוקחים תוך כדי התפתחות המצב –

תיקון תקלות (באגים) – זיהינו ותיקנו כמה באגים בשבוע האחרון.

  • תקלה אחת השפיעה על כל הסטוריז ועל פוסטים ורילז ששותפו בסטוריז באינסטגרם, והמשמעות הייתה שהם לא הוצגו בצורה הרגילה בסטוריז של אנשים אחרים, מה שהוביל לירידה בחשיפה  באופן משמעותי. תקלה זו השפיעה על חשבונות בצורה שווה בכל העולם – לא רק על אנשים שניסו לשתף תוכן על המצב בישראל ובעזה – ולא הייתה לתקלה זו קשר לתוכן עצמו. תיקנו את התקלה הזאת במהירות האפשרית.
  • תקלה אחרת מנעה מאנשים את האפשרות לעלות לשידור חי בפייסבוק לזמן קצר. גם כאן מדובר בתקלה עולמית שתוקנה בתוך שעות ספורות. אנחנו מבינים שאנשים מסתמכים על הכלים האלה ואנחנו מתנצלים בפני כל מי שנפגע מהתקלות האלה.

תגובות והגדרות פרופיל – 

  • :כאמצעי מניעה זמני להגן על אנשים באיזור מתגובות שיכולות להיות לא רצויות או לא מקובלות, ביצענו את השינויים הבאים
    • שינינו את הגדרת ברירת המחדל של תגובות על פוסטים פומביים חדשים בפרופילי הפייסבוק של אנשים מהאיזור – ברירת המחדל כעת, היא שפוסטים בפרופילים פרטיים יהיו פתוחים לתגובות של חברים ו/או עוקבים מבוססים בלבד. באופן גלובלי, משתמשים יכולים לבחור להשתמש בהגדרה הזו, ולהכיל או להפסיק אותה בכל זמן. כמו כן, הוספנו התראה שתודיע לאנשים באיזור שההגדרה השתנתה אצלהם וכן הנחיות כיצד ניתן לשנות זאת.
    • הקלנו על האפשרות למחוק הרבה תגובות במקביל בפוסטים.
    • ניטרלנו את התכונה שמציגה 1-2 תגובות ראשונות מתחת לפוסטים בפיד עצמו, כך שלא יופיעו תגובות ראשונות לפוסטים בפיד, אלא רק כשנכנסים לפוסט באופן אקטיבי.
  • נעילת הפרופיל – לאחרונה הוספנו כלי שיאפשר לאנשים באיזור לנעול את הפרופיל שלהם, בצעד אחד בלבד. כשפרופיל של אדם מסוים נעול, אנשים שהם לא חברים שלו בפייסבוק, לא יכולים להוריד, להגדיל או לשתף את תמונת הפרופיל שלו, והם גם לא יוכלו לראות פוסטים או תמונות אחרות בפרופיל הנעול, בין אם מדובר בתוכן חדש או ישן.

גיוס תרומות בפייסבוק ואינסטגרם – 

מאז ה7/10, אנשים גייסו יותר מ11.5 מיליון דולר לעמותות בפייסבוק ובאינסטגרם כדי לסייע למאמצי הסיוע בישראל ובעזה. הסכום הזה כולל למעלה מ-340,000 תרומות ל-262 ארגוני סיוע – שמאפשרים סיוע באסון, אמבולנסים, תרומות דם, ציוד רפואי ועוד.


עדכון על הפעולות שאנחנו נוקטים בהן סביב מלחמת ישראל – חמאס 

כמו רבים מכם, גם אנחנו המומים ומזועזעים לנוכח מתקפת הטרור הברוטלית של חמאס, ומחשבותינו נמצאות עם התושבים הסובלים מהאלימות המתמשכת.  

מאז החלו התקפות הטרור של חמאס על ישראל ביום שבת ותגובתה של ישראל בעזה, צוותי מומחים שלנו מרחבי החברה עובדים מסביב לשעון על מנת לנטר את המתרחש על הפלטפורמות במטרה להגן על יכולתם של אנשים לעשות שימוש באפליקציות שלנו ולשפוך אור על ההתרחשויות בשטח. 

להלן כמה מהצעדים בהם נקטנו:

מאבק בהפצת תוכן פוגעני

  • הקמנו במהירות חדר מצב מיוחד המאוייש במומחים, כולל דוברי עברית וערבית כשפת אם, כדי לעקוב מקרוב ולהגיב לסיטואציות המתרחשות במהירות בזמן אמת. צעד זה מאפשר לנו להסיר תכנים פוגעניים שמפרים את כללי הקהילה בצורה מהירה יותר, ומשמש קו הגנה נוסף מפני מידע מטעה.
  • אנו ממשיכים לאכוף את המדיניות שלנו, לגבי ארגונים ואנשים מסוכנים, דברי שטנה, אלימות והסתה, ופגיעה מאורגנת
    • בשלושת הימים שלאחר ה-7 באוקטובר, הסרנו, או סימנו כ-״תוכן פוגעני״,  יותר מ-795 אלף תכנים הנחשבים פוגעניים בהתאם לקטגוריות המצוינות לעיל.
    • בשלושת הימים האלו, הסרנו פי 7 יותר תכנים פוגעניים בערבית ובעברית ביום בהשוואה לחודשיים הקודמים, בשל הפרת המדיניות שלנו בקשר ל-״ארגונים ואנשים מסוכנים״ בלבד. 
  • תנועת חמאס מוגדרת על ידי ממשלת ארה״ב כארגון טרור בינלאומי. היא מוגדרת גם כ-״ארגון מסוכן״ תחת המדיניות שלנו בקשר לארגונים ואנשים מסוכנים. משמעות הדבר היא שחמאס מוחרמת מהפלטפורמות שלנו, ואנו מסירים כל גילוי אהדה או תמיכה ממשית בחמאס שמובאים לידיעתנו. עם זאת, אנו ממשיכים לאפשר שיח חברתי ופוליטי, כגון דיווחים חדשותיים, שיח הקשור בזכויות אדם, שיח אקדמי או גינויים ניטרליים.    
  • חשוב להדגיש שהמדיניות שלנו נועדה לאפשר לכל אחד להשמיע את קולו, תוך שמירה על ביטחון האנשים המשתמשים באפליקציות  שלנו. אנו מיישמים את המדיניות שלנו ללא קשר לזהות המפרסם או השקפותיו האישיות, ואין לנו כל כוונה להשתיק אוכלוסיה או השקפת עולם מסוימות.  בשל העובדה כי מדווחות לנו בימים אלה כמויות גבוהות יותר של תוכן, אנו מודעים לכך שתוכן שאינו מפר את המדיניות שלנו עלול להיות מוסר בטעות. כדי להפחית זאת, עבור חלק מההפרות, ובאופן זמני, התוכן מוסר ללא פסילות (כלומר הסרות תוכן אלו לא יגרמו להשבתת חשבונות). כמו כן, אנו ממשיכים לספק למשתמשים כלים המאפשרים לערער על ההחלטות שלנו, אם הם חושבים שנפלה טעות.
  • צוותי החברה עוקבים אחר המצב, ובמקרים מסוימים מציגים באופן זמני אמצעים מוגבלים, מידתיים ותחומים בזמן, כדי לתת מענה לסיכונים ספציפיים המתהווים תוך כדי תנועה:
    • צעדים חזקים יותר למניעת המלצה על תוכן מפר פוטנציאלי או גבולי: אנו משתמשים בטכנולוגיה כדי למנוע המלצה על תוכן שעלול להפר או שנמצא על הגבול של הפרת המדיניות בפייסבוק, אינסטגרם ות׳רדס. אנו פועלים על מנת לצמצם עוד יותר את האפשרות שתוכן כזה יומלץ למשתמשים, על ידי הורדת הסף שבו הטכנולוגיה שלנו תנקוט פעולה כדי למנוע המלצה על סוג זה של תוכן. אנו נוקטים צעדים גם כדי להפחית את החשיפה של תגובות לפוסטים בפייסבוק ובאינסטגרם, שעלולות להיות פוגעניות. 
    • אלימות והסתה: על מנת לתת עדיפות לבטחונם של הישראלים שנחטפו על ידי חמאס, הרחבנו באופן זמני את מדיניות האלימות וההסתה שלנו, ואנו מסירים תוכן המזהה בבירור חטופים, כאשר תוכן כזה מובא לידיעתנו, גם אם פרסום התוכן נעשה למטרות גינוי, או כדי להעלות מודעות למצבם של החטופים. אנו מאפשרים לשתף תוכן עם תמונות מטושטשות של הקורבנות, אך בהתאם לסטנדרטים שנקבעו באמנת ז’נבה, נתעדף את בטחונם ופרטיותם של קורבנות החטיפה אם איננו  בטוחים או לא מסוגלים לבצע הערכה ברורה.
    • חסימת האשטאגים:בהתאם לכללי הפלטפורמה, הגבלנו מספר האשטאגים באינסטגרם לאחר שהצוות שלנו העריך שתוכן הקשור להאשטאגים האלה נמצא באופן עקבי כמפר את כללי הקהילה שלנו. המשמעות היא שהאשטגים אלה אינם ניתנים לחיפוש, אך התוכן עצמו אינו מוסר ככל שהוא אינו מפר את כללי הקהילה שלנו.
    • שידורים חיים בפייסבוק ואינסטגרם: אנו מכירים בכך שהמיידיות המאפיינת שידורים חיים מציבה אתגרים ייחודיים, ולכן אנו מטילים מגבלות על יכולתם של אנשים שהפרו בעבר את כללי המדיניות שלנו להשתמש ב״שידור חי״. אנו נותנים עדיפות לדיווחים על שידורים חיים הקשורים למשבר הזה, הרבה מעל ומעבר לתיעדוף הרגיל של שידורי וידאו חיים. אנחנו גם מודעים לכך שחמאס מאיימים לשדר תמונות של חטופים, ואנו מתייחסים לאיומים הללו ברצינות תהומית. הצוותים שלנו עוקבים מקרוב אחר הנושא, ויסירו במהירות כל תוכן כזה (ואת החשבונות העומדים מאחוריו), וכן יאגרו את התוכן במערכות שלנו על מנת למנוע שיתוף חוזר.  
  • אנו מקבלים משוב משותפים מקומיים על סיכונים מתהווים, ופועלים במהירות על מנת לטפל בסיכונים אלו. אנו מכירים בכך שההקשר המקומי ומומחיות ספציפית לשפה חיוניים לעבודה זו, ולכן אנו נמצאים בקשר הדוק עם מומחים, מוסדות שותפים וארגונים לא-ממשלתיים.

ביטחון ובטיחות  

  • התנהגות לא-אותנטית מתואמת (CIB): הצוותים שלנו זיהו והסירו מקבץ פעילויות הקשור למבצע השפעה סמויה שייחסנו לחמאס ב-2021. חשבונות מזויפים אלה ניסו לבסס מחדש את נוכחותם בפלטפורמות שלנו. אנו ממשיכים לעמוד על המשמר ולפעול נגד התנהגות עוינת באזור, שמפרה את הכללים שלנו.
  • הנצחה: אנו מנציחים חשבונות כשאנו מקבלים בקשה מקרוב משפחה או חבר של אדם שהלך לעולמו, כדי לאפשר לאנשים מרחב להכיר לו כבוד, לשתף זכרונות או לתמוך זה בזה. לא ניתן לבצע שינויים בפוסטים או בהגדרות של חשבון לאחר הנצחתו (אפשרות זו ניתנת רק ל-Legacy Contacts בפייסבוק). אנו מוספים גם את המילה ״לזכרו של״ (Remembering) לצד שמו של האדם, ואנו לא ממליצים על החשבון לאנשים חדשים. כללי הקהילה שלנו חלים על חשבונות מונצחים, ואנו מסירים תגובות מפרות לפוסטים המופיעים בחשבון, כשתגובות כאלו מובאות לידיעתנו. 

צמצום של התפשטות המידע המטעה

  • אנו עובדים עם בודקי עובדות חיצוניים באזור כדי להפריך טענות כוזבות. ל-Meta יש את רשת בדיקת העובדות החיצונית הגדולה ביותר מבין כל הפלטפורמות, עם כיסוי בערבית ובעברית, דרך AFP, רויטרס ו-Fatabyyano. כשבודקי העובדות החיצוניים מדרגים תוכן כשקרי, אנחנו מעבירים את התוכן הזה למורד הפיד כך שפחות אנשים רואים אותו.
  • אנו מכירים בחשיבות של תגובה מהירה ברגעים כאלה, ולכן אנו מקלים על בודקי התוכן החיצוניים את מלאכת מציאת ודירוג התוכן הקשור למלחמה. זאת באמצעות זיהוי מילות מפתח, המאפשר לקבץ תוכן קשור במקום אחד.  
  • אנו נותנים לאנשים מידע נוסף כדי לאפשר להם להחליט מה לקרוא, במה לבטוח ומה לשתף. זאת באמצעות הוספת תוויות אזהרה על תוכן שדורג כשקרי בידי בודקי עובדות חיצוניים, והחלת תוויות על מפרסמים בבעלות המדינה.
  • אנו מטילים גם מגבלות על העברת הודעות, ומסמנים הודעות שלא הגיעו במקור מהשולח, על מנת שאנשים יהיו מודעים לכך שהתוכן הוא מידע שהועבר מצד שלישי

כלי בקרה

אנו ממשיכים להציע כלים ויכולות המסייעים לאנשים לשלוט בחוויה שלהם באפליקציות שלנו, ולהגן על עצמם מפני תוכן שהם אינם מעוניינים לראות. בין כלים אלה, ניתן למצוא את הבאים:

  • ״מילים מוסתרות״ (Hidden Words): כאשר כלי זה מופעל, הוא מאפשר סינון מונחים וביטויים פוגעניים מתוך תגובות ובקשות להודעה פרטית באינסטגרם, כך שאנשים לעולם לא יצטרכו לראות אותם. אנשים יכולים להגדיר את רשימת הביטויים, כדי להבטיח שביטויים שהם מוצאים אותם פוגעניים – מוסתרים. 
  • גבולות (Limits): כשכלי זה מופעל, הוא מסתיר באופן אוטומטי תגובות ובקשות להודעות פרטיות באינסטגרם מאנשים שלא עוקבים אחריך, או שהחלו לעקוב רק לאחרונה. 
  • כלי בקרה לתגובות: אתה יכול לשלוט במי יכול להגיב על הפוסט שלך בפייסבוק ובאינסטגרם, וכן לבחור לבטל לגמרי את האפשרות להגיב על פוסט מסוים. 
  • עוד/פחות (Show More/Show Less): כלי זה מאפשר לאנשים לשלוט ישירות על התוכן שהם רואים בפיד בפייסבוק. בחירה באפשרות ‘עוד’ תגדיל זמנית את הדירוג של אותו פוסט ותכנים דומים לו, ובחירה באפשרות ׳פחות׳ תפחית את הדירוג.
  • הפחתה (Reduce) בפייסבוק: הכלי ׳הפחתה׳ נותן לאנשים את היכולת לשלוט על סוגי התוכן שיופחת בפיד שלהם (כך שהם יראו פחות ממנו בפיד שלהם). פרקטית, המשמעות היא שלמשתמשים יש אפשרות להגביר את הרגישות של סנני התוכן (במקרים מסוימים אף לכבותם לגמרי) שאחראים על איכות התוכן. 
  • שליטה על תכנים רגישים באינסטגרם: כלי זה מאפשר לאנשים לבחור כמה תוכן רגיש הם יראו במקומות שבהם ההמלצות מגיעות מאיתנו – למשל Explore, חיפוש, רילס והמלצות בתוך הפיד. אנו מנסים שלא להמליץ על תוכן רגיש במקומות הללו כברירת מחדל, אבל אנשים יכולים לבחור לראות פחות, כדי להפחית עוד יותר את הסיכוי לראות תוכן כזה מחשבונות שהם לא עוקבים אחריהם.


Arabic Translation

تحديث بتاريخ 5 ديسمبر 2023، الساعة 9:00 مساءً بتوقيت المحيط الهادئ:

في بداية الحرب، قمنا بتصنيف هجوم حماس في السابع من أكتوبر كهجوم إرهابي بموجب سياستنا بشأن المنظمات الخطرة والأفراد الخطرين. وتماشيًا مع هذا التصنيف، أزلنا كل المحتوى الذي يتضمن صورًا أو مقاطع فيديو لضحايا يمكن التعرف عليهم في لحظة الهجوم. 

في أعقاب ذلك، بدأ الأشخاص مشاركة هذا النوع من المحتوى بهدف تعزيز الوعي وإدانة الهجمات. ويتمثل هدف Meta في السماح للأشخاص بالتعبير عن أنفسهم وإزالة المحتوى الضار في الوقت ذاته. ومن هذا المنطلق، بدأنا السماح للأشخاص بنشر هذا النوع من المحتوى ولكن فقط في هذا السياق، مع إضافة شاشة تحذيرية لإخبار المستخدمين بأن المحتوى قد يكون مزعجًا للبعض. وما لم تكن نية المستخدم من نشر المحتوى واضحة، ننحاز إلى جانب السلامة ونزيل هذا المحتوى. 

بموجب سياسة المنظمات الخطرة والأفراد الخطرين التي نتبعها، نواصل إزالة أي صور أو مقاطع فيديو من إنتاج المنظمات الخطرة والأفراد الخطرين، إلا إذا كان من الواضح أن المستخدم يشاركها في إطار تقديم التقارير الإخبارية أو في سياق الإدانة، بشرط عدم ظهور قاصرين أقل من ثلاثة عشر عامًا في الصور أو مقاطع الفيديو.

تحديث بتاريخ 7 ديسمبر 2023، الساعة 3:00 صباحًا بتوقيت المحيط الهادئ:

أعلن مجلس الإشراف الذي يتولى الإشراف على شركة Meta تحديد حالتين من الطعون المقدمة من المستخدمين بشأن الحرب بين إسرائيل وحماس لإجراء مراجعة عاجلة، وهي عملية يُصدِر المجلس من خلالها قرارات سريعة بشأن المحتوى في غضون 30 يومًا في الظروف الاستثنائية. إن إرشادات المجلس في هذه الحالات، إلى جانب ملاحظات الخبراء الآخرين، من شأنها مساعدتنا على مواصلة الارتقاء بسياساتنا واستجابتنا للحرب الدائرة بين إسرائيل وحماس. وسنقوم بتنفيذ قرار المجلس في كل حالة من الحالات بمجرد أن ينتهي من مداولاته وسنقوم بتحديث مركز الشفافية الخاص بنا وفقًا لذلك. 

منذ بداية الهجمات الإرهابية التي شنتها حماس على إسرائيل يوم السبت، ورد الفعل من إسرائيل على غزة، شرعت فرقنا في تقديم سلسلة من الإجراءات التي من شأنها معالجة ارتفاع معدل المحتوى الضار والمحتوى الذي يُحتمل أن يكون ضارًا المنتشر على منصاتنا. لقد تم تصميم سياساتنا للحفاظ على سلامة الأشخاص عبر تطبيقاتنا مع منح الجميع القدرة على التعبير عن آرائهم. نحن نحرص على تطبيق هذه السياسات بصورة متساوية في جميع أنحاء العالم وبالتالي لا صحة للتلميح بأننا نقوم بقمع القدرة على التعبير عمدًا. ولكننا، لا نسمح بالمحتوى الذي يتضمن إشادة بحماس، حيث تم تصنيفها على أنها منظمة خطرة من قبل Meta أو بالمحتوى العنيف والصادم، مثلاً، على منصاتنا. قد نرتكب أخطاء ولهذا نوفر للأشخاص عملية تقديم الطعون لإخبارنا عندما يعتقدون أننا اتخذنا قرارًا خاطئًا، حتى نتمكن من التحقق من الأمر.

نحن بصدد إجراء بعض التحديثات واتخاذ خطوات إضافية مع استمرار توالي فصول هذا الوضع:

.تصحيح الأخطاء: لقد تمكنا من تحديد بعض الأخطاء وإصلاحها خلال الأسبوع الماضي

  • خطأ يؤثر على جميع القصص التي قامت بإعادة مشاركة مقاطع ريلز ومنشورات الموجز على Instagram، بمعني عدم ظهورها بشكل صحيح في قصص الأشخاص، مما أدى إلى انخفاض ملحوظ في معدل الوصول. أثر هذا الخطأ على الحسابات بصورة متساوية في جميع أنحاء العالم، وليس فقط على الأشخاص الذين يحاولون نشر محتوى بشأن ما يحدث في إسرائيل وغزة، ولم يكن للخطأ علاقة بموضوع المحتوى. وقد نجحنا في إصلاح هذا الخطأ بأسرع ما يمكن.
  • خطأ آخر منع الأشخاص من إجراء بث مباشر على فيسبوك لفترة وجيزة. ولقد كان هذا الخطأ أيضًا مشكلة عالمية تم إصلاحها في غضون ساعات قليلة. نحن ندرك تمامًا اعتماد الأشخاص على هذه الأدوات ونعتذر لأي شخص شعر بالآثار المترتبة على هذه المشكلات.

التعليق وإعدادات الملف الشخصي:

  • كإجراء مؤقت لحماية الأشخاص في المنطقة من التعليقات غير المرحب بها أو غير المرغوب فيها، قمنا بما يلي:
    • تغيير الإعداد الافتراضي المتعلق بالأشخاص الذين يمكنهم التعليق على منشورات فيسبوك العامة التي تم إنشاؤها حديثًا لأشخاص في المنطقة إلى الأصدقاء و/أو المتابعين الموجودين فقط. يمكن للمستخدمين على مستوى العالم اختيار استخدام هذا الإعداد والاشتراك أو إلغاء الاشتراك فيه في أي وقت، ونحن نرسل إشعارات للأشخاص في المنطقة تتضمن تعليمات محددة حول كيفية تغيير هذا الإعداد.
    • لقد يسرنا على الأشخاص عملية حذف التعليقات الموجودة على منشوراتهم بشكل مجمّع.
    • تم تعطيل الميزة التي تعرض عادة أول تعليق أو تعليقين ضمن المنشورات في الموجز.
  • قفل ملفك الشخصي: لقد قمنا مؤخرًا بطرح أداة قفل ملفك الشخصي في المنطقة التي تتيح للأشخاص قفل ملفاتهم الشخصية على فيسبوك في خطوة واحدة. عند قفل الملف الشخصي لشخص ما، لا يمكن للأشخاص الذين ليسوا ضمن الأصدقاء تنزيل صورة ملفه الشخصي أو تكبيرها أو مشاركتها، علاوة على عدم قدرتهم على رؤية المنشورات أو الصور الأخرى الموجودة في الملف الشخصي لأحد الأشخاص، بغض النظر عن وقت نشرها.

حملات جمع التبرعات على فيسبوك وInstagram: منذ 7 أكتوبر، بادر الأشخاص بجمع ما يزيد عن 11.5 مليون دولار للمنظمات غير الهادفة للربح على فيسبوك وInstagram للمساعدة في جهود الإغاثة في إسرائيل وفلسطين. ويشمل ذلك أكثر من 340 ألف تبرع لـ 262 مؤسسة خيرية – تقدم الإغاثة لمنكوبي الكوارث وخدمات الإسعاف والدم والرعاية الطبية وغير ذلك المزيد.

جهود Meta المستمرة فيما يتعلق بالحرب بين إسرائيل وحماس

شأننا شأن الكثيرين، شعرنا بالصدمة والرعب إزاء الهجمات الإرهابية الغاشمة التي شنتها حماس، وقلوبنا مع المدنيين الذين يعانون في إسرائيل وغزة مع استمرار أحداث العنف.

منذ بداية الهجمات الإرهابية التي شنتها حماس على إسرائيل يوم السبت، ورد الفعل من إسرائيل على غزة، تعمل فرق الخبراء في كل قطاعات شركتنا على مدار الساعة لمراقبة منصاتنا، والحفاظ على قدرة الأشخاص في استخدام تطبيقاتنا لتسليط الضوء على التطورات المهمة التي تحدث على أرض الواقع. وفيما يلي بعض الخطوات المحددة التي اتخذناها:

اتخاذ الإجراءات اللازمة بشأن المحتوى المخالف

  • سرعان ما أنشأنا مركزًا للعمليات الخاصة يعمل به خبراء، بمن فيهم أشخاص لغتهم الأصلية العبرية والعربية، وذلك لمراقبة تلك الأوضاع سريعة التطور والاستجابة لها عن كثب في الوقت الفعلي. يسمح لنا ذلك بإزالة المحتوى الذي ينتهك معايير أو إرشادات مجتمعنا بشكل أسرع، والعمل بمثابة خط دفاع آخر في مكافحة المعلومات المضللة.
  • نواصل فرض سياساتنا بشأن المنظمات الخطرة والأفراد الخطرون، المحتوى العنيف والصادم، الخطاب الذي يحض على الكراهية، العنف والتحريض، المضايقة والإساءة ، وتنسيق أنشطة ضارة.
    • في الأيام الثلاثة التي تلت يوم 7 أكتوبر، قمنا بإزالة أكثر من 795 ألف عنصر محتوى أو تمييزها على أنها مزعجة بسبب انتهاك هذه السياسات باللغتين العبرية والعربية.
    • بالمقارنة مع الشهرين السابقين، في الأيام الثلاثة التي تلت يوم 7 أكتوبر، قمنا بإزالة سبعة أضعاف من عناصر المحتوى يوميًا بسبب انتهاكها لسياسة المنظمات الخطرة والأفراد الخطرون باللغتين العبرية والعربية فقط.
  • تم تصنيف حماس من قِبَل حكومة الولايات المتحدة كمنظمة إرهابية أجنبية وإرهابيين عالميين مصنفين تصنيفًا خاصًا. كما تم تصنيفها بموجب سياسة Meta للمنظمات والأفراد الخطرين. ويعني هذا أن حماس محظورة على منصاتنا، وأننا نقوم بإزالة محتوى الثناء والدعم الأساسي لها عندما نقوم باكتشاف ذلك، مع الاستمرار في السماح بالخطاب الاجتماعي والسياسي – مثل التقارير الإخبارية، القضايا المتعلقة بحقوق الإنسان، أو النقاش الأكاديمي والمحايد والمُدِين.
  • نود أن نؤكد أن سياساتنا تم وضعها لمنح الجميع حرية التعبير عن الرأي مع الحفاظ على أمان الأشخاص على تطبيقاتنا. ونطبق هذه السياسات بغض النظر عمن ينشر أو معتقداته الشخصية، وليس في نيتنا مطلقًا قمع مجتمع أو وجهة نظر معينة. نظرًا لارتفاع حجم المحتوى الذي يتم الإبلاغ عنه لنا، فإننا نعلم أن هناك بعض عناصر المحتوى الذي لا ينتهك سياساتنا قد تتم إزالته عن طريق الخطأ. وللتخفيف من ذلك، نزيل المحتوى مؤقتاً دون احتساب إنذارات في بعض حالات الانتهاكات، مما يعني أن عمليات إزالة المحتوى هذه لن تتسبب في تعطيل الحسابات. نواصل أيضًا توفير أدوات للمستخدمين لتقديم طعن على قراراتنا إذا اعتقدوا أننا ارتكبنا خطأً.
  • تراقب فرقنا الأوضاع عن كثب، وفي بعض الحالات تتخذ تدابير مؤقتة محدودة ومتناسبة مع الوضع لمعالجة مخاطر محددة ومستجدة على النحو التالي:
    • خطوات أقوى لتجنب التوصية بالمحتوى الذي يحتمل أنه ينتهك السياسات والمحتوى الذي يكون على وشك الانتهاك: نستخدم بالفعل التكنولوجيا لتجنب توصيات المحتوى الذي يحتمل أنه ينتهك السياسات أو المحتوى الذي يكون على وشك الانتهاك على فيسبوك، وInstagram، وThreads. ونعمل على تقليل احتمالية حدوث ذلك بشكل أكبر من خلال خفض الحد الأدنى الذي ستتخذ عنده تقنيتنا إجراءات لتجنب التوصية بهذا النوع من المحتوى. كما نتخذ خطوات للحد من ظهور التعليقات التي يحتمل أن تكون مسيئة ضمن المنشورات على فيسبوك وInstagram.
    • العنف والتحريض: من أجل إعطاء الأولوية لسلامة الإسرائيليين المختطفين من قِبَل حماس، قمنا مؤقتاً بتوسيع نطاق سياسة العنف والتحريض وإزالة المحتوى الذي يشير بوضوح إلى الرهائن عندما نتمكن من اكتشاف ذلك، حتى لو تم نشره لإدانة وضعهم أو رفع الوعي به. نسمح بالمحتوى الذي يحتوي على صور غير واضحة للضحايا، ولكن تماشيًا مع المعايير التي وضعتها اتفاقية جنيف، سنعطي الأولوية لسلامة وخصوصية ضحايا الاختطاف إذا لم نكن متأكدين أو غير قادرين على إجراء تقييم واضح.
    • حظر الهاشتاج: تماشيًا مع قواعدنا، قمنا بتقييد بعض علامات الهاشتاج على Instagram بعد أن قيّم فريقنا أن المحتوى المرتبط بها ينتهك إرشادات مجتمعنا باستمرار. وهذا يعني أنه لن يكون بإمكان الأشخاص البحث عن علامات الهاشتاج – ولكن لن تتم إزالة المحتوى نفسه ما لم ينتهك سياساتنا.
    • Facebook Live وInstagram Live: ندرك أن فورية البث المباشر تجلب تحديات فريدة، لذلك لدينا قيود مطبقة على استخدام البث المباشر للأشخاص الذين انتهكوا سياسات معينة من قبل. كما نعطي الأولوية لتقارير البث المباشر المتعلقة بهذه الأزمة، بما يتجاوز أولوياتنا الحالية لمقاطع الفيديو المباشرة. نحن أيضًا على علم بتهديدات حماس ببث لقطات للرهائن ونحن نأخذ هذه التهديدات على محمل الجد. وتراقب فرقنا هذا عن كثب، وسوف تقوم بسرعة بإزالة أي محتوى من هذا القبيل (والحسابات المسؤولة عن هذا المحتوى)، وتخزين المحتوى في أنظمتنا لمنع إعادة مشاركة نسخ منه.
  • نتلقى تعليقات وآراء من الشركاء المحليين حول المخاطر الناشئة ونتحرك بسرعة لمعالجتها. وندرك أن السياق المحلي والخبرة بلغات معينة من الأمور الضرورية، لذلك سنبقى على اتصال وثيق مع الخبراء، المؤسسات الشريكة، والمنظمات غير الحكومية.

السلامة والأمن

  • السلوك الزائف المنسق: اكتشفت فرقنا وأزالت مجموعة من الأنشطة المرتبطة بعملية تأثير سرية منسوبة لحماس وأزلناها في عام 2021. حاولت هذه الحسابات الزائفة إعادة إنشاء وجودها على منصاتنا. ونحن نحرض على البقاء يقظين واتخاذ إجراءات ضد السلوك العدائي المُنتَهِك في المنطقة.
  • إحياء الذكرى: نقوم بإحياء ذكرى الحسابات عندما نتلقى طلبًا من صديق أو أحد أفراد عائلة شخص متوفى، وذلك بهدف توفير مساحة للأشخاص لإظهار احترامهم وتقديرهم ومشاركة الذكريات ودعم بعضهم البعض. عندما يتم إحياء ذكرى حسابات، لا يمكن لأي شخص (باستثناء جهات الاتصال الموصى بها) تسجيل الدخول أو إجراء أي تغييرات على المنشورات أو الإعدادات الحالية للحساب. كما نضيف كلمة “في قلوبنا” بجوار اسم الشخص، ولا نرشح الحساب لأشخاص جدد. تنطبق معايير مجتمعنا على الحسابات التي يتم إحياء ذكراها ونزيل التعليقات المخالفة التي تم تركها ضمن المنشورات على هذه الحسابات بمجرد اكتشاف ذلك.

الحد من انتشار المعلومات المضللة

  • نعمل مع جهات تدقيق حقائق خارجية في المنطقة لكشف الادعاءات الزائفة. تتعاون Meta مع أكبر شبكة لجهات تدقيق الحقائق الخارجية مقارنةً بأي منصة أخرى، بتغطية تشمل اللغتين العربية والعبرية، من خلال وكالات فرانس برس، رويترز، وفتبينوا. عندما يصنفون شيئا ما على أنه “زائف”، ننقل هذا المحتوى إلى مستوى أقل في “الموجز” حتى يراه عدد أقل من الأشخاص.
  • ندرك أهمية السرعة في مثل هذه الأوقات، لذلك سهلنا على جهات تدقيق الحقائق العثور على المحتوى المرتبط بالحرب وتقييمه، وذلك عبر اكتشاف الكلمات الأساسية لتجميع المحتوى ذي الصلة في مكان واحد.
  • كما نقدم للأشخاص مزيدًا من المعلومات لتحديد ما يمكن قراءته والوثوق به ومشاركته من خلال إضافة تصنيفات تحذيرية على المحتوى الذي تم تصنيفه على أنه خاطئ من قبل جهات تدقيق الحقائق الخارجية، وتطبيق التصنيفات على الناشرين التابعين لجهة إعلامية خاضعة لسيطرة الدولة.
  • لدينا قيود على إعادة توجيه الرسائل وتصنيف الرسائل التي لم تنشأ من المرسل حتى يعرف الأشخاص أن محتوى ما يحتوي على معلومات من جهة خارجية.

عناصر تحكم المستخدم

نواصل توفير الأدوات لمساعدة الأشخاص على التحكم في تجربتهم على تطبيقاتنا وحماية أنفسهم من المحتوى الذي لا يريدون رؤيته. وتشمل هذه، على سبيل المثال لا الحصر:

  • الكلمات المخفية: عند تشغيل ميزة الكلمات المخفية، تعمل على فلترة المصطلحات والعبارات المسيئة من طلبات الرسائل المباشرة والتعليقات حتى لا يضطر الأشخاص إلى رؤيتها أبدًا. ويمكن للأشخاص تخصيص هذه القائمة للتأكد من إخفاء المصطلحات التي يجدونها مسيئة.
  • الحدود: عند تشغيل ميزة الحدود، تقوم تلقائيًا بإخفاء طلبات الرسائل المباشرة والتعليقات على Instagram من الأشخاص الذين لا يتابعونك، أو الذين تابعوك مؤخرًا فقط.
  • عناصر التحكم في التعليقات: يمكنك التحكم فيمن يمكنه التعليق على منشوراتك على فيسبوك وInstagram واختيار إيقاف تشغيل التعليقات تمامًا على كل منشور على حدة.
  • عرض المزيد، عرض أقل: تمنح هذه الميزة الأشخاص تحكمًا مباشرًا في المحتوى الذي يرونه في موجز فيسبوك. عند تحديد “عرض المزيد”، يؤدي إلى زيادة درجة الترتيب مؤقتًا لهذا المنشور والمنشورات المشابهة له. أما إذا حددت “عرض أقل”، فستقلل درجة الترتيب مؤقتًا.
  • تقليل عرض محتوى على فيسبوك: من خلال إعدادات تفضيلات موجز فيسبوك، يمكن للأشخاص زيادة الدرجة التي نقلل بها عرض بعض المحتوى حتى يرون محتوى مشابه أقل في الموجز الخاص بهم. أو، إذا فضلوا ذلك، يمكنهم إيقاف العديد من عمليات تقليل عرض المحتوى هذه تمامًا. ويمكنهم أيضًا اختيار إبقاء إعداداتنا لتقليل عرض المحتوى الحالية.
  • التحكم في المحتوى الحساس: يتيح التحكم في المحتوى الحساس في Instagram للأشخاص اختيار مقدار المحتوى الحساس الذي يرونه في الأماكن التي نرشح فيها المحتوى، مثل “استكشاف”، و”البحث”، و”ريلز”، والتوصيات في الموجز. نحاول عدم التوصية بمحتوى حساس في هذه الأماكن بشكل افتراضي، ولكن يمكن للأشخاص أيضًا اختيار رؤية “أقل”، لتقليل احتمالية رؤية هذا المحتوى من الحسابات التي لا يتابعونها.

To help personalize content, tailor and measure ads, and provide a safer experience, we use cookies. By clicking or navigating the site, you agree to allow our collection of information on and off Facebook through cookies. Learn more, including about available controls: Cookie Policy