Meta

Wie KI beeinflusst, was Menschen auf Facebook und Instagram sehen

Milliarden von Menschen nutzen Facebook und Instagram jeden Tag, um die Höhen und Tiefen ihres Lebens zu teilen, sich mit Menschen mit ähnlichen Interessen zu verbinden und um Inhalte zu entdecken, die ihnen gefallen. Um die Erfahrung jedes Einzelnen auf unseren Apps einzigartig und personalisiert zu gestalten, verwenden wir KI-Systeme, die entscheiden, welche Inhalte euch angezeigt werden. Und zwar auf der Grundlage von den getroffenen Entscheidungen der Nutzer*innen.

Ich habe bereits vor einiger Zeit einen Beitrag über die Beziehung zwischen dir und den Algorithmen geschrieben, die Meta verwendet, um zu bestimmen, was du auf Facebook und Instagram siehst, und um den Mythos zu widerlegen, dass Algorithmen den Menschen keine Kontrolle über die Inhalte geben, die sie sehen. Damals schrieb ich, dass wir offener darüber sprechen müssen, wie diese Beziehung funktioniert, und dass wir dir mehr Kontrolle darüber geben werden, was du siehst. 

Heute bauen wir auf dieser Verpflichtung auf, indem wir einige der KI-Systeme transparenter machen, die deinen Input nutzen, um Inhalte auf Facebook und Instagram zu bewerten. Diese Systeme ermöglichen es, dass die Beiträge, die du sieht, wahrscheinlich relevant und interessant für dich sind. Wir machen auch transparenter, wie du für dich besser kontrollieren kannst, was du in unseren Apps siehst. Außerdem testen wir auch neue Kontrollmöglichkeiten und machen bereits bestehende besser zugänglich. Und wir stellen Expert*innen detaillierte Informationen zur Verfügung, damit sie unsere Systeme besser verstehen und analysieren können. 

Dies ist Teil einer umfassenden Herangehensweise an Themen wie Offenheit, Transparenz und Verantwortlichkeit. Angesichts der rasanten Fortschritte, die mit leistungsstarken Technologien wie der generativen KI erzielt werden, ist es verständlich, dass Menschen sowohl von den Chancen und Möglichkeiten begeistert, als auch über die Risiken besorgt sind. Wir glauben, dass man diesen Bedenken am besten mit Offenheit begegnet. Generell sind wir der Meinung, dass Unternehmen bei der Entwicklung dieser Technologien offener darüber sprechen sollten, wie ihre Systeme funktionieren. Auch sollten Unternehmen offen mit anderen in der Branche, mit Regierungen und mit der Zivilgesellschaft zusammenarbeiten, um sicherzustellen, dass Technologie verantwortungsvoll entwickelt wird. Das fängt damit an, dass Nutzer*innen mehr Einblicke in und Kontrolle über die Inhalte erhalten, die sie sehen. 

Wie KI-Vorhersagen Empfehlungen beeinflussen

Unsere KI-Systeme sagen voraus, wie nützlich ein Inhalt für dich sein könnte, sodass wir ihn dir früher zeigen können. Wenn du einen Beitrag teilst, ist das zum Beispiel oft ein Indikator dafür, dass du diesen Beitrag interessant findest. Wie du dir vielleicht vorstellen kannst, ist keine einzelne Vorhersage ein perfekter Indikator dafür, ob ein Beitrag für dich nützlich ist. Daher verwenden wir eine Vielzahl von Vorhersagen in Kombination, um so nah wie möglich an die richtigen Inhalte für dich heranzukommen. Darunter sind einige Vorhersagen, die auf dem Verhalten der Nutzer*innen beruhen, und andere, die auf dem Nutzer*innenfeedback aus Umfragen basieren.

Wir möchten noch offener darüber sprechen, wie das alles funktioniert. Ein Modell für Transparenz, das Meta seit einiger Zeit entwickelt und befürwortet, ist die Veröffentlichung von Systemkarten, die den Menschen einen Einblick in die Funktionsweise unserer Systeme geben. Und das möglichst auf eine Art und Weise, die auch für diejenigen zugänglich ist, die über kein tiefes technisches Wissen verfügen. Heute veröffentlichen wir 22 Systemkarten für Facebook und Instagram. Sie enthalten Informationen darüber, wie unsere KI-Systeme Inhalte bewerten; einige der Vorhersagen, die die Systeme treffen, um festzustellen, welche Inhalte für dich am relevantesten sein könnten; sowie die Steuerelemente, mit denen du dein Nutzer*innenerlebnis anpassen kannst. Sie decken Feeds, Stories, Reels und andere Oberflächen ab, auf denen Nutzer*innen Inhalte von Accounts oder Personen finden, denen sie folgen. Die Systemkarten decken auch KI-Systeme ab, die „unverbundene“ Inhalte von Personen, Gruppen oder Konten empfehlen, denen sie nicht folgen. Eine genauere Erklärung der KI hinter den Inhaltsempfehlungen findest du hier.

Um im Detail über die in den Systemkarten veröffentlichten Informationen hinaus zu gehen, teilen wir die Arten von Inputs – bekannt als Signale – sowie die Vorhersagemodelle, die diese Signale nutzen, um zu bestimmen, welche Inhalte du in deinem Netzwerk auf Facebook am relevantesten findest. Die Kategorien der Signale, die wir veröffentlichen, stellen die große Mehrheit der Signale dar, die derzeit im Facebook-Feed-Ranking für diese Inhalte verwendet werden. Du kannst die Signale und Vorhersagen im Transparency Center finden, zusammen mit der Häufigkeit, mit der sie im gesamten Ranking-Prozess verwendet werden. 

Wir verwenden Signale auch, um schädliche Inhalte zu identifizieren, die wir entfernen, sobald wir davon erfahren, und um die Verbreitung anderer problematischer oder minderwertiger Inhalten gemäß unseren Richtlinien zur Verbreitung von Inhalten zu reduzieren. Wir werden daher einige Beispiele für Signale zur Verfügung stellen, die wir zu diesem Zweck verwenden. Es gibt jedoch eine Abwägung zwischen Transparenz und Schutz der Nutzer*innen. Wir möchten zwar transparent machen, wie wir versuchen, schädigende Inhalte von den Feeds der Nutzer*innen fernzuhalten, aber wir müssen auch darauf achten, keine Signale zu veröffentlichen, die es den Nutzer*innen leichter machen könnten, unsere Schutzmaßnahmen zu umgehen.

Da nicht alle Nutzer*innen auf unserer Website nach Informationen suchen, bieten wir die Möglichkeit an, direkt in unseren Apps Details über unsere Systeme einzusehen. Dort erklären wir, warum unsere Systeme voraussagen, dass Inhalte für dich relevant sein könnten und welche Aktivitäten und Eingaben zu dieser Vorhersage geführt haben könnten. Wir werden auch unsere Funktion „Warum sehe ich das?“ in den kommenden Wochen in den Instagram Reels, Tabs und Explore sowie in den Facebook Reels erweitern. Für einige Feed-Inhalte und alle Anzeigen auf Facebook und Instagram haben wir diese Funktionen bereits eingeführt. Du kannst nun auf ein Reel klicken, um mehr Informationen darüber zu erhalten, wie deine vorherigen Aktivitäten die Machine-Learning-Modelle beeinflusst haben, die dir Reels vorschlagen.

 

Neue Tools zur Personalisierung deiner Experience

Mit den verfügbaren Tools kannst du deine Erfahrungen in unseren Apps so gestalten, dass du mehr von den Inhalten siehst, die du sehen willst, und weniger von den Inhalten, die du nicht sehen willst. Um dies zu vereinfachen, haben wir auf Facebook und Instagram einheitliche Oberflächen eingerichtet, an denen du Einstellungen vornehmen kannst, die den Inhalt beeinflussen, den du in jeder App siehst. Du kannst deine Feed-Einstellungen auf Facebook und das Kontrollzentrum für vorgeschlagene Inhalte auf Instagram über das Drei-Punkte-Menü bei relevanten Beiträgen sowie über die Einstellungen aufrufen.

Auf Instagram testen wir eine neue Funktion, die es dir ermöglicht, in dem Tab „Reels“ anzugeben, dass du an einem empfohlenen Reel interessiert bist, damit wir dir mehr von dem zeigen können, was dir gefällt. Die Funktion „Kein Interesse“ ist seit 2021 verfügbar. Mehr darüber, wie du beeinflussen kannst, was du auf Instagram siehst, erfährst du hier.

Damit du dein Erlebnis und die Inhalte, die du siehst, individuell anpassen kannst, gibt es auf Facebook auch die Funktion „Mehr anzeigen, weniger anzeigen“, die für alle Beiträge in Feed, Video und Reels über das Drei-Punkte-Menü verfügbar ist. Wir arbeiten an Möglichkeiten, diese Funktion noch deutlicher hervorzuheben. Wenn du keinen algorithmisch gerankten Feed möchtest – oder einfach nur sehen willst, wie dein Feed ohne ihn aussehen würde – kannst du das Tab „Feeds“ auf Facebook verwenden oder „Folgen“ auf Instagram auswählen, um zu einem chronologischen Feed zu wechseln. Außerdem kannst du sowohl auf Facebook als auch auf Instagram Personen zu deinen Favoritenliste hinzufügen, damit du immer die Inhalte deiner Lieblingsaccounts sehen kannst.

Bessere Tools für ForscherInnen

Wir sind auch der Meinung, dass ein offener Ansatz für Forschung und Innovation – insbesondere wenn es um transformative KI-Technologien geht – besser ist, als das Know-how in den Händen einiger weniger großer Technologieunternehmen zu behalten. Deshalb haben wir in den letzten zehn Jahren über 1.000 KI-Modelle, Bibliotheken und Datensätze für Forscher*innen freigegeben, damit sie von unserer Rechenleistung profitieren und offen und sicher forschen können. Es ist unser Bestreben, auch weiterhin transparent zu sein, wenn wir in Zukunft weitere KI-Modelle offen zugänglich machen. 

In den nächsten Wochen werden wir mit der Einführung einer neuen Reihe von Tools für Forscher*innen beginnen: “Meta Content Library and API”. Die Bibliothek umfasst Daten aus öffentlichen Beiträgen, Seiten, Gruppen und Veranstaltungen auf Facebook. Für Instagram wird sie öffentliche Beiträge und Daten von Ersteller- und Unternehmenskonten enthalten. Die Daten aus der Bibliothek können über eine grafische Benutzeroberfläche oder über eine programmatische API durchsucht, erforscht und gefiltert werden. Forscher*innen aus qualifizierten akademischen Forschungseinrichtungen, die sich mit wissenschaftlichen Themen oder Themen von öffentlichem Interesse befassen, können den Zugang zu diesen Tools über Partner beantragen. Partner müssen über fundierte Erfahrungen mit der sicheren gemeinsamen Nutzung von Daten für die Forschung verfügen. Wir starten das Programm mit dem Interuniversitären Konsortium für politische und soziale Forschung der Universität Michigan. Diese Tools bieten den umfassendsten Zugang zu öffentlich zugänglichen Inhalten auf Facebook und Instagram, den wir bisher entwickelt haben, und helfen uns außerdem, die neuen Verpflichtungen zur Datenweitergabe und Transparenz zu erfüllen.

Wir hoffen, dass wir durch die Vorstellung dieser Produkte zu einem frühen Zeitpunkt im Entwicklungsprozess konstruktives Feedback von Forscher*innen erhalten, um sicherzustellen, dass wir die bestmöglichen Tools für ihre Bedürfnisse entwickeln.