Der zweite Tag der F8 stand im Zeichen der langfristigen Investitionen, die wir in den Bereichen Künstliche Intelligenz und Augmented Reality / Virtual Reality tätigen. In seiner Eröffnungsrede sprach Chief Technology Officer Mike Schroepfer über die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen – und warum er optimistisch auf die kommenden Entwicklungen blickt.
Auf Mike Schroepfer folgten Manohar Palori und Joaquin Quinonero Candela (Directors of AI), Margeret Stewart (Vice President of Product Design), Lade Obamehinti (Technical Business Lead for AR/VR Software), Lindsay Young (Product Manager of VR Experiences) und Ronald Mallet (Research Manager of Facebook Reality Labs).
Künstliche Intelligenz
Die Investitionen in Künstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schließt die Verbesserung unserer Fähigkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere Richtlinien verstoßen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher Überprüfung wie möglich zu verstehen. Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein gültige, digitale Sprache entwickeln (Natural Language Processing (NLP)), die schädliche Inhalte übersetzt, damit sie in mehr Sprachen erfasst werden können. Um unsere KI-gestützten Systeme dabei zu stärken, den Kontext anhand von Hintergründen in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens Panoptic FPN. Darüber hinaus haben wir branchenführende Untersuchungen zur Erkennung von Aktionen in Videos durchgeführt und die Genauigkeit der Erkennung um mehr als fünf Prozent gegenüber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik für Instagram angewendet haben, konnte die KI 80% mehr schädliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, trägt zusätzlich zur Verbesserung der Ergebnisse bei.
In der Übersetzungsarbeit kann es schwierig sein, Sprachen zu unterstützen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbstüberwachtes Lernen helfen. Diese Techniken ermöglichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu müssen, die riesige Datensätze beschriften. Eine dieser Techniken, die sogenannte Rückübersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies ermöglicht es uns, relevante Inhalte – einschließlich Verstößen gegen unsere Richtlinien – besser zu verstehen, ohne jeden Satz zu übersetzen.
Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gewährleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verstärken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele für Fairness. So wollen wir sicherstellen, dass KI die Menschen schützt und sie nicht diskriminiert: Wenn KI-Modelle mit Datensätzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inhärentes Darstellungsrisiko. Wenn die Datensätze Einschränkungen, Fehler oder andere Probleme enthalten, können die resultierenden Modelle für verschiedene Personen unterschiedlich funktionieren. Um dieses Risiko möglichst klein zu halten, haben wir einen neuen Rahmen für integrative KI entwickelt. Dieser Rahmen enthält Richtlinien, die Forschern und Programmierern helfen sollen, Datensätze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und für die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen für KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen.
Genauere Informationen zu den heutigen Ankündigungen rund um Künstliche Intelligenz gibt es im AI Blog.
Augmented Reality / Virtual Reality
Einer der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). Spark AR-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte für alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgelöst. Deshalb enthielten die Trainingsdaten verschiedene Hauttöne unter verschiedenen Lichtverhältnissen, um sicherzustellen, dass das System immer erkennen würde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch für Sprachbefehle in VR, wobei sie repräsentative Daten über Dialekte, Alter und Geschlecht hinweg verwenden.
Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschließt, arbeiten wir auch daran, dass sie dazu beiträgt, Menschen zusammenzubringen. Mit VR sehen wir eine Möglichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen können, unabhängig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, müssen sich die Menschen in VR vollständig repräsentiert fühlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdrücken und Stimmlagen, die der Realität nachempfunden sind.
Mit Codec Avatars haben wir gezeigt, dass es möglich ist, Gesichter realitätsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen Körper. Deshalb entwickeln wir vollständig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach außen, das heißt wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare – von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend.
Neben AR wollen wir auch VR inklusiv und sicher für alle machen. Wir haben präventive Systeme entwickelt – wie zum Beispiel einen Verhaltenskodex für alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion fördern. Und wir haben reaktive Systeme entwickelt – einschließlich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien verstoßen.
Als wir unsere eigenen VR-Apps — Spaces, Venues und Rooms — veröffentlicht haben, haben wir großen Wert auf Sicherheit gelegt. In einem Einführungsvideo lernen die Benutzer mehr über die Funktionen, sodass sie sich sicher fühlen, wenn sie mit einer großen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte näher kommen, als der Anwender es möchte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare für einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte über unangemessenes Verhalten prüfen.
Die gesamte Keynote können Sie hier erneut ansehen:
Weitere Details zu den heutigen Ankündigungen finden Sie hier: Developer Blog, AI Blog, Engineering Blog, Oculus Blog und Instagram-Pressebereich. Außerdem können Sie sich alle F8 Keynotes auf der Facebook for Developers Seite erneut ansehen.
Um mehr über die gestrigen Ankündigungen zu erfahren, lesen Sie unseren Blogpost zu den Ankündigungen des ersten Tages der F8: https://about-fb-preprod.go-vip.net/de/2019/04/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere/