{"id":10368,"date":"2019-05-01T18:45:38","date_gmt":"2019-05-01T17:45:38","guid":{"rendered":"http:\/\/de.newsroom.fb.com\/?p=10368"},"modified":"2019-05-01T18:45:38","modified_gmt":"2019-05-01T17:45:38","slug":"f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages","status":"publish","type":"post","link":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/","title":{"rendered":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte"},"content":{"rendered":"<p>Der zweite Tag der F8 stand im Zeichen der langfristigen Investitionen, die wir in den Bereichen K\u00fcnstliche Intelligenz und Augmented Reality \/ Virtual Reality t\u00e4tigen. In seiner Er\u00f6ffnungsrede sprach Chief Technology Officer Mike Schroepfer \u00fcber die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen &#8211; und warum er optimistisch auf die kommenden Entwicklungen blickt.<\/p>\n<p>Auf Mike Schroepfer folgten Manohar Palori und Joaquin Quinonero Candela (Directors of AI), Margeret Stewart (Vice President of Product Design), Lade Obamehinti (Technical Business Lead for AR\/VR Software), Lindsay Young (Product Manager of VR Experiences) und Ronald Mallet (Research Manager of Facebook Reality Labs).<\/p>\n<h3>K\u00fcnstliche Intelligenz<\/h3>\n<figure id=\"attachment_10377\" aria-describedby=\"caption-attachment-10377\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10377\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_paluri-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10377\" class=\"wp-caption-text\">Manohar Paluri<\/figcaption><\/figure>\n<p>Die Investitionen in K\u00fcnstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schlie\u00dft die Verbesserung unserer F\u00e4higkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Richtlinien<\/a> versto\u00dfen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher \u00dcberpr\u00fcfung wie m\u00f6glich zu verstehen. Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein g\u00fcltige, digitale Sprache entwickeln (<a href=\"https:\/\/ai.facebook.com\/blog\/advances-in-content-understanding-self-supervision-to-protect-people\">Natural Language Processing<\/a> (NLP)), die sch\u00e4dliche Inhalte \u00fcbersetzt, damit sie in mehr Sprachen erfasst werden k\u00f6nnen. Um unsere KI-gest\u00fctzten Systeme dabei zu st\u00e4rken, den Kontext anhand von Hintergr\u00fcnden in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens <a href=\"https:\/\/ai.facebook.com\/blog\/improving-scene-understanding-through-panoptic-segmentation\/\">Panoptic FPN<\/a>. Dar\u00fcber hinaus haben wir branchenf\u00fchrende Untersuchungen zur Erkennung von Aktionen in Videos durchgef\u00fchrt und die Genauigkeit der Erkennung um mehr als f\u00fcnf Prozent gegen\u00fcber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik f\u00fcr Instagram angewendet haben, konnte die KI 80% mehr sch\u00e4dliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, tr\u00e4gt zus\u00e4tzlich zur Verbesserung der Ergebnisse bei.<\/p>\n<figure id=\"attachment_10369\" aria-describedby=\"caption-attachment-10369\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10369\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_panopticfpm-1.jpg?resize=960%2C751\" alt=\"\" width=\"960\" height=\"751\" \/><figcaption id=\"caption-attachment-10369\" class=\"wp-caption-text\">Technologien wie Panoptic FPN, hier zu sehen, helfen KI-getriebenen Systemen dabei, Kontexte anhand des Hintergrunds in Fotos zu verstehen<\/figcaption><\/figure>\n<p>In der \u00dcbersetzungsarbeit kann es schwierig sein, Sprachen zu unterst\u00fctzen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbst\u00fcberwachtes Lernen helfen. Diese Techniken erm\u00f6glichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu m\u00fcssen, die riesige Datens\u00e4tze beschriften. Eine dieser Techniken, die sogenannte R\u00fcck\u00fcbersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies erm\u00f6glicht es uns, relevante Inhalte &#8211; einschlie\u00dflich Verst\u00f6\u00dfen gegen unsere Richtlinien &#8211; besser zu verstehen, ohne jeden Satz zu \u00fcbersetzen.<\/p>\n<figure id=\"attachment_10378\" aria-describedby=\"caption-attachment-10378\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10378\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_candela-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10378\" class=\"wp-caption-text\">Joaquin Quinonero Candela<\/figcaption><\/figure>\n<p>Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gew\u00e4hrleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verst\u00e4rken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele f\u00fcr Fairness. So wollen wir sicherstellen, dass KI die Menschen sch\u00fctzt und sie nicht diskriminiert: Wenn KI-Modelle mit Datens\u00e4tzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inh\u00e4rentes Darstellungsrisiko. Wenn die Datens\u00e4tze Einschr\u00e4nkungen, Fehler oder andere Probleme enthalten, k\u00f6nnen die resultierenden Modelle f\u00fcr verschiedene Personen unterschiedlich funktionieren. Um dieses Risiko m\u00f6glichst klein zu halten, haben wir einen neuen Rahmen f\u00fcr integrative KI entwickelt. Dieser Rahmen enth\u00e4lt Richtlinien, die Forschern und Programmierern helfen sollen, Datens\u00e4tze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und f\u00fcr die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen f\u00fcr KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen.<\/p>\n<figure id=\"attachment_10379\" aria-describedby=\"caption-attachment-10379\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10379\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_stewart-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10379\" class=\"wp-caption-text\">Margaret Stewart<\/figcaption><\/figure>\n<p>Genauere Informationen zu den heutigen Ank\u00fcndigungen rund um K\u00fcnstliche Intelligenz gibt es im <a href=\"https:\/\/ai.facebook.com\/blog\/\">AI Blog<\/a>.<\/p>\n<h3>Augmented Reality \/ Virtual Reality<\/h3>\n<figure id=\"attachment_10380\" aria-describedby=\"caption-attachment-10380\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10380\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_obamehinti-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10380\" class=\"wp-caption-text\">Lade Obamehinti<\/figcaption><\/figure>\n<p>Einer der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). <a href=\"https:\/\/tech.fb.com\/spark-ar-expands-to-windows-and-announces-instagram-open-beta\/\">Spark AR<\/a>-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte f\u00fcr alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgel\u00f6st. Deshalb enthielten die Trainingsdaten verschiedene Hautt\u00f6ne unter verschiedenen Lichtverh\u00e4ltnissen, um sicherzustellen, dass das System immer erkennen w\u00fcrde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch f\u00fcr Sprachbefehle in VR, wobei sie repr\u00e4sentative Daten \u00fcber Dialekte, Alter und Geschlecht hinweg verwenden.<\/p>\n<p>Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschlie\u00dft, arbeiten wir auch daran, dass sie dazu beitr\u00e4gt, Menschen zusammenzubringen. Mit VR sehen wir eine M\u00f6glichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen k\u00f6nnen, unabh\u00e4ngig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, m\u00fcssen sich die Menschen in VR vollst\u00e4ndig repr\u00e4sentiert f\u00fchlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdr\u00fccken und Stimmlagen, die der Realit\u00e4t nachempfunden sind.<\/p>\n<p>Mit <a href=\"https:\/\/tech.fb.com\/codec-avatars-facebook-reality-labs\/\">Codec Avatars<\/a> haben wir gezeigt, dass es m\u00f6glich ist, Gesichter realit\u00e4tsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen K\u00f6rper. Deshalb entwickeln wir vollst\u00e4ndig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach au\u00dfen, das hei\u00dft wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare &#8211; von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend.<\/p>\n<figure id=\"attachment_10381\" aria-describedby=\"caption-attachment-10381\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10381\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_mallet-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10381\" class=\"wp-caption-text\">Ronald Mallet<\/figcaption><\/figure>\n<p>Neben AR wollen wir auch VR inklusiv und sicher f\u00fcr alle machen. Wir haben pr\u00e4ventive Systeme entwickelt &#8211; wie zum Beispiel einen Verhaltenskodex f\u00fcr alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion f\u00f6rdern. Und wir haben reaktive Systeme entwickelt &#8211; einschlie\u00dflich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien versto\u00dfen.<\/p>\n<p>Als wir unsere eigenen VR-Apps \u2014 Spaces, Venues und Rooms \u2014 ver\u00f6ffentlicht haben, haben wir gro\u00dfen Wert auf Sicherheit gelegt. In einem Einf\u00fchrungsvideo lernen die Benutzer mehr \u00fcber die Funktionen, sodass sie sich sicher f\u00fchlen, wenn sie mit einer gro\u00dfen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte n\u00e4her kommen, als der Anwender es m\u00f6chte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare f\u00fcr einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte \u00fcber unangemessenes Verhalten pr\u00fcfen.<\/p>\n<figure id=\"attachment_10382\" aria-describedby=\"caption-attachment-10382\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10382\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2019\/05\/f8_young-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-10382\" class=\"wp-caption-text\">Lindsay Young<\/figcaption><\/figure>\n<p>Die gesamte Keynote k\u00f6nnen Sie hier erneut ansehen:<\/p>\n<div class=\"fb-video\" data-allowfullscreen=\"true\" data-href=\"https:\/\/www.facebook.com\/video.php?v=336919593660160\" style=\"background-color: #fff; display: inline-block;\"><\/div>\n<p>Weitere Details zu den heutigen Ank\u00fcndigungen finden Sie hier: <a href=\"https:\/\/developers.facebook.com\/blog\/\">Developer Blog<\/a>, <a href=\"https:\/\/ai.facebook.com\/blog\/\">AI Blog<\/a>, <a href=\"https:\/\/code.facebook.com\/\">Engineering Blog<\/a>, <a href=\"https:\/\/www.oculus.com\/blog\/\">Oculus Blog<\/a> und <a href=\"https:\/\/instagram-press.com\/\">Instagram-Pressebereich<\/a>. Au\u00dferdem k\u00f6nnen Sie sich alle F8 Keynotes auf der <a href=\"https:\/\/www.facebook.com\/FacebookforDevelopers\/\">Facebook for Developers<\/a> Seite erneut ansehen.<\/p>\n<p>Um mehr \u00fcber die gestrigen Ank\u00fcndigungen zu erfahren, lesen Sie unseren Blogpost zu den Ank\u00fcndigungen des ersten Tages der F8: <a href=\"https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/\">https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Der zweite Tag der F8 stand im Zeichen der langfristigen Investitionen, die wir in den Bereichen K\u00fcnstliche Intelligenz und Augmented Reality \/ Virtual Reality t\u00e4tigen. In seiner Er\u00f6ffnungsrede sprach Chief Technology Officer Mike Schroepfer \u00fcber die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen &#8211; und warum er optimistisch auf die kommenden Entwicklungen blickt. Auf Mike Schroepfer folgten Manohar Palori und Joaquin Quinonero Candela (Directors of AI), Margeret Stewart (Vice President of Product Design), Lade Obamehinti (Technical Business Lead for AR\/VR Software), Lindsay Young (Product Manager of VR Experiences) und Ronald Mallet (Research Manager of Facebook Reality Labs). K\u00fcnstliche Intelligenz Die Investitionen in K\u00fcnstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schlie\u00dft die Verbesserung unserer F\u00e4higkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere Richtlinien versto\u00dfen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher \u00dcberpr\u00fcfung wie m\u00f6glich zu verstehen. Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein g\u00fcltige, digitale Sprache entwickeln (Natural Language Processing (NLP)), die sch\u00e4dliche Inhalte \u00fcbersetzt, damit sie in mehr Sprachen erfasst werden k\u00f6nnen. Um unsere KI-gest\u00fctzten Systeme dabei zu st\u00e4rken, den Kontext anhand von Hintergr\u00fcnden in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens Panoptic FPN. Dar\u00fcber hinaus haben wir branchenf\u00fchrende Untersuchungen zur Erkennung von Aktionen in Videos durchgef\u00fchrt und die Genauigkeit der Erkennung um mehr als f\u00fcnf Prozent gegen\u00fcber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik f\u00fcr Instagram angewendet haben, konnte die KI 80% mehr sch\u00e4dliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, tr\u00e4gt zus\u00e4tzlich zur Verbesserung der Ergebnisse bei. In der \u00dcbersetzungsarbeit kann es schwierig sein, Sprachen zu unterst\u00fctzen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbst\u00fcberwachtes Lernen helfen. Diese Techniken erm\u00f6glichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu m\u00fcssen, die riesige Datens\u00e4tze beschriften. Eine dieser Techniken, die sogenannte R\u00fcck\u00fcbersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies erm\u00f6glicht es uns, relevante Inhalte &#8211; einschlie\u00dflich Verst\u00f6\u00dfen gegen unsere Richtlinien &#8211; besser zu verstehen, ohne jeden Satz zu \u00fcbersetzen. Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gew\u00e4hrleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verst\u00e4rken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele f\u00fcr Fairness. So wollen wir sicherstellen, dass KI die Menschen sch\u00fctzt und sie nicht diskriminiert: Wenn KI-Modelle mit Datens\u00e4tzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inh\u00e4rentes Darstellungsrisiko. Wenn die Datens\u00e4tze Einschr\u00e4nkungen, Fehler oder andere Probleme enthalten, k\u00f6nnen die resultierenden Modelle f\u00fcr verschiedene Personen unterschiedlich funktionieren. Um dieses Risiko m\u00f6glichst klein zu halten, haben wir einen neuen Rahmen f\u00fcr integrative KI entwickelt. Dieser Rahmen enth\u00e4lt Richtlinien, die Forschern und Programmierern helfen sollen, Datens\u00e4tze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und f\u00fcr die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen f\u00fcr KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen. Genauere Informationen zu den heutigen Ank\u00fcndigungen rund um K\u00fcnstliche Intelligenz gibt es im AI Blog. Augmented Reality \/ Virtual Reality Einer der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). Spark AR-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte f\u00fcr alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgel\u00f6st. Deshalb enthielten die Trainingsdaten verschiedene Hautt\u00f6ne unter verschiedenen Lichtverh\u00e4ltnissen, um sicherzustellen, dass das System immer erkennen w\u00fcrde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch f\u00fcr Sprachbefehle in VR, wobei sie repr\u00e4sentative Daten \u00fcber Dialekte, Alter und Geschlecht hinweg verwenden. Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschlie\u00dft, arbeiten wir auch daran, dass sie dazu beitr\u00e4gt, Menschen zusammenzubringen. Mit VR sehen wir eine M\u00f6glichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen k\u00f6nnen, unabh\u00e4ngig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, m\u00fcssen sich die Menschen in VR vollst\u00e4ndig repr\u00e4sentiert f\u00fchlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdr\u00fccken und Stimmlagen, die der Realit\u00e4t nachempfunden sind. Mit Codec Avatars haben wir gezeigt, dass es m\u00f6glich ist, Gesichter realit\u00e4tsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen K\u00f6rper. Deshalb entwickeln wir vollst\u00e4ndig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach au\u00dfen, das hei\u00dft wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare &#8211; von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend. Neben AR wollen wir auch VR inklusiv und sicher f\u00fcr alle machen. Wir haben pr\u00e4ventive Systeme entwickelt &#8211; wie zum Beispiel einen Verhaltenskodex f\u00fcr alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion f\u00f6rdern. Und wir haben reaktive Systeme entwickelt &#8211; einschlie\u00dflich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien versto\u00dfen. Als wir unsere eigenen VR-Apps \u2014 Spaces, Venues und Rooms \u2014 ver\u00f6ffentlicht haben, haben wir gro\u00dfen Wert auf Sicherheit gelegt. In einem Einf\u00fchrungsvideo lernen die Benutzer mehr \u00fcber die Funktionen, sodass sie sich sicher f\u00fchlen, wenn sie mit einer gro\u00dfen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte n\u00e4her kommen, als der Anwender es m\u00f6chte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare f\u00fcr einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte \u00fcber unangemessenes Verhalten pr\u00fcfen. Die gesamte Keynote k\u00f6nnen Sie hier erneut ansehen: Weitere Details zu den heutigen Ank\u00fcndigungen finden Sie hier: Developer Blog, AI Blog, Engineering Blog, Oculus Blog und Instagram-Pressebereich. Au\u00dferdem k\u00f6nnen Sie sich alle F8 Keynotes auf der Facebook for Developers Seite erneut ansehen. Um mehr \u00fcber die gestrigen Ank\u00fcndigungen zu erfahren, lesen Sie unseren Blogpost zu den Ank\u00fcndigungen des ersten Tages der F8: <a href=\"https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/\" rel=\"nofollow\">https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/<\/a>","protected":false},"author":116770500,"featured_media":10373,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[555973272,555973362,243889734],"tags":[],"class_list":["post-10368","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-entwicklerthemen","category-f8","category-produktnachrichten"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta\" \/>\n<meta property=\"og:description\" content=\"Der zweite Tag der F8 stand im Zeichen der langfristigen Investitionen, die wir in den Bereichen K\u00fcnstliche Intelligenz und Augmented Reality \/ Virtual Reality t\u00e4tigen. In seiner Er\u00f6ffnungsrede sprach Chief Technology Officer Mike Schroepfer \u00fcber die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen &#8211; und warum er optimistisch auf die kommenden Entwicklungen blickt. Auf Mike Schroepfer folgten Manohar Palori und Joaquin Quinonero Candela (Directors of AI), Margeret Stewart (Vice President of Product Design), Lade Obamehinti (Technical Business Lead for AR\/VR Software), Lindsay Young (Product Manager of VR Experiences) und Ronald Mallet (Research Manager of Facebook Reality Labs). K\u00fcnstliche Intelligenz Die Investitionen in K\u00fcnstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schlie\u00dft die Verbesserung unserer F\u00e4higkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere Richtlinien versto\u00dfen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher \u00dcberpr\u00fcfung wie m\u00f6glich zu verstehen. Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein g\u00fcltige, digitale Sprache entwickeln (Natural Language Processing (NLP)), die sch\u00e4dliche Inhalte \u00fcbersetzt, damit sie in mehr Sprachen erfasst werden k\u00f6nnen. Um unsere KI-gest\u00fctzten Systeme dabei zu st\u00e4rken, den Kontext anhand von Hintergr\u00fcnden in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens Panoptic FPN. Dar\u00fcber hinaus haben wir branchenf\u00fchrende Untersuchungen zur Erkennung von Aktionen in Videos durchgef\u00fchrt und die Genauigkeit der Erkennung um mehr als f\u00fcnf Prozent gegen\u00fcber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik f\u00fcr Instagram angewendet haben, konnte die KI 80% mehr sch\u00e4dliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, tr\u00e4gt zus\u00e4tzlich zur Verbesserung der Ergebnisse bei. In der \u00dcbersetzungsarbeit kann es schwierig sein, Sprachen zu unterst\u00fctzen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbst\u00fcberwachtes Lernen helfen. Diese Techniken erm\u00f6glichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu m\u00fcssen, die riesige Datens\u00e4tze beschriften. Eine dieser Techniken, die sogenannte R\u00fcck\u00fcbersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies erm\u00f6glicht es uns, relevante Inhalte &#8211; einschlie\u00dflich Verst\u00f6\u00dfen gegen unsere Richtlinien &#8211; besser zu verstehen, ohne jeden Satz zu \u00fcbersetzen. Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gew\u00e4hrleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verst\u00e4rken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele f\u00fcr Fairness. So wollen wir sicherstellen, dass KI die Menschen sch\u00fctzt und sie nicht diskriminiert: Wenn KI-Modelle mit Datens\u00e4tzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inh\u00e4rentes Darstellungsrisiko. Wenn die Datens\u00e4tze Einschr\u00e4nkungen, Fehler oder andere Probleme enthalten, k\u00f6nnen die resultierenden Modelle f\u00fcr verschiedene Personen unterschiedlich funktionieren. Um dieses Risiko m\u00f6glichst klein zu halten, haben wir einen neuen Rahmen f\u00fcr integrative KI entwickelt. Dieser Rahmen enth\u00e4lt Richtlinien, die Forschern und Programmierern helfen sollen, Datens\u00e4tze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und f\u00fcr die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen f\u00fcr KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen. Genauere Informationen zu den heutigen Ank\u00fcndigungen rund um K\u00fcnstliche Intelligenz gibt es im AI Blog. Augmented Reality \/ Virtual Reality Einer der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). Spark AR-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte f\u00fcr alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgel\u00f6st. Deshalb enthielten die Trainingsdaten verschiedene Hautt\u00f6ne unter verschiedenen Lichtverh\u00e4ltnissen, um sicherzustellen, dass das System immer erkennen w\u00fcrde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch f\u00fcr Sprachbefehle in VR, wobei sie repr\u00e4sentative Daten \u00fcber Dialekte, Alter und Geschlecht hinweg verwenden. Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschlie\u00dft, arbeiten wir auch daran, dass sie dazu beitr\u00e4gt, Menschen zusammenzubringen. Mit VR sehen wir eine M\u00f6glichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen k\u00f6nnen, unabh\u00e4ngig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, m\u00fcssen sich die Menschen in VR vollst\u00e4ndig repr\u00e4sentiert f\u00fchlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdr\u00fccken und Stimmlagen, die der Realit\u00e4t nachempfunden sind. Mit Codec Avatars haben wir gezeigt, dass es m\u00f6glich ist, Gesichter realit\u00e4tsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen K\u00f6rper. Deshalb entwickeln wir vollst\u00e4ndig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach au\u00dfen, das hei\u00dft wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare &#8211; von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend. Neben AR wollen wir auch VR inklusiv und sicher f\u00fcr alle machen. Wir haben pr\u00e4ventive Systeme entwickelt &#8211; wie zum Beispiel einen Verhaltenskodex f\u00fcr alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion f\u00f6rdern. Und wir haben reaktive Systeme entwickelt &#8211; einschlie\u00dflich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien versto\u00dfen. Als wir unsere eigenen VR-Apps \u2014 Spaces, Venues und Rooms \u2014 ver\u00f6ffentlicht haben, haben wir gro\u00dfen Wert auf Sicherheit gelegt. In einem Einf\u00fchrungsvideo lernen die Benutzer mehr \u00fcber die Funktionen, sodass sie sich sicher f\u00fchlen, wenn sie mit einer gro\u00dfen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte n\u00e4her kommen, als der Anwender es m\u00f6chte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare f\u00fcr einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte \u00fcber unangemessenes Verhalten pr\u00fcfen. Die gesamte Keynote k\u00f6nnen Sie hier erneut ansehen: Weitere Details zu den heutigen Ank\u00fcndigungen finden Sie hier: Developer Blog, AI Blog, Engineering Blog, Oculus Blog und Instagram-Pressebereich. Au\u00dferdem k\u00f6nnen Sie sich alle F8 Keynotes auf der Facebook for Developers Seite erneut ansehen. Um mehr \u00fcber die gestrigen Ank\u00fcndigungen zu erfahren, lesen Sie unseren Blogpost zu den Ank\u00fcndigungen des ersten Tages der F8: https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00dcber Meta\" \/>\n<meta property=\"article:published_time\" content=\"2019-05-01T17:45:38+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640\" \/>\n\t<meta property=\"og:image:width\" content=\"960\" \/>\n\t<meta property=\"og:image:height\" content=\"640\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"segmentafacebook\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\"},\"author\":\"Facebook company\",\"headline\":\"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte\",\"datePublished\":\"2019-05-01T17:45:38+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\"},\"wordCount\":1273,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640\",\"articleSection\":[\"Entwicklerthemen\",\"F8\",\"Produktnachrichten\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\",\"url\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\",\"name\":\"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640\",\"datePublished\":\"2019-05-01T17:45:38+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/\"]}],\"author\":\"\u00dcber Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640\",\"width\":960,\"height\":640,\"caption\":\"Chief Technology Officer Mike Schroepfer\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/de\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00dcber Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/de\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/de\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/","og_locale":"de_DE","og_type":"article","og_title":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta","og_description":"Der zweite Tag der F8 stand im Zeichen der langfristigen Investitionen, die wir in den Bereichen K\u00fcnstliche Intelligenz und Augmented Reality \/ Virtual Reality t\u00e4tigen. In seiner Er\u00f6ffnungsrede sprach Chief Technology Officer Mike Schroepfer \u00fcber die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen &#8211; und warum er optimistisch auf die kommenden Entwicklungen blickt. Auf Mike Schroepfer folgten Manohar Palori und Joaquin Quinonero Candela (Directors of AI), Margeret Stewart (Vice President of Product Design), Lade Obamehinti (Technical Business Lead for AR\/VR Software), Lindsay Young (Product Manager of VR Experiences) und Ronald Mallet (Research Manager of Facebook Reality Labs). K\u00fcnstliche Intelligenz Die Investitionen in K\u00fcnstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schlie\u00dft die Verbesserung unserer F\u00e4higkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere Richtlinien versto\u00dfen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher \u00dcberpr\u00fcfung wie m\u00f6glich zu verstehen. Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein g\u00fcltige, digitale Sprache entwickeln (Natural Language Processing (NLP)), die sch\u00e4dliche Inhalte \u00fcbersetzt, damit sie in mehr Sprachen erfasst werden k\u00f6nnen. Um unsere KI-gest\u00fctzten Systeme dabei zu st\u00e4rken, den Kontext anhand von Hintergr\u00fcnden in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens Panoptic FPN. Dar\u00fcber hinaus haben wir branchenf\u00fchrende Untersuchungen zur Erkennung von Aktionen in Videos durchgef\u00fchrt und die Genauigkeit der Erkennung um mehr als f\u00fcnf Prozent gegen\u00fcber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik f\u00fcr Instagram angewendet haben, konnte die KI 80% mehr sch\u00e4dliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, tr\u00e4gt zus\u00e4tzlich zur Verbesserung der Ergebnisse bei. In der \u00dcbersetzungsarbeit kann es schwierig sein, Sprachen zu unterst\u00fctzen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbst\u00fcberwachtes Lernen helfen. Diese Techniken erm\u00f6glichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu m\u00fcssen, die riesige Datens\u00e4tze beschriften. Eine dieser Techniken, die sogenannte R\u00fcck\u00fcbersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies erm\u00f6glicht es uns, relevante Inhalte &#8211; einschlie\u00dflich Verst\u00f6\u00dfen gegen unsere Richtlinien &#8211; besser zu verstehen, ohne jeden Satz zu \u00fcbersetzen. Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gew\u00e4hrleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verst\u00e4rken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele f\u00fcr Fairness. So wollen wir sicherstellen, dass KI die Menschen sch\u00fctzt und sie nicht diskriminiert: Wenn KI-Modelle mit Datens\u00e4tzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inh\u00e4rentes Darstellungsrisiko. Wenn die Datens\u00e4tze Einschr\u00e4nkungen, Fehler oder andere Probleme enthalten, k\u00f6nnen die resultierenden Modelle f\u00fcr verschiedene Personen unterschiedlich funktionieren. Um dieses Risiko m\u00f6glichst klein zu halten, haben wir einen neuen Rahmen f\u00fcr integrative KI entwickelt. Dieser Rahmen enth\u00e4lt Richtlinien, die Forschern und Programmierern helfen sollen, Datens\u00e4tze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und f\u00fcr die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen f\u00fcr KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen. Genauere Informationen zu den heutigen Ank\u00fcndigungen rund um K\u00fcnstliche Intelligenz gibt es im AI Blog. Augmented Reality \/ Virtual Reality Einer der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). Spark AR-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte f\u00fcr alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgel\u00f6st. Deshalb enthielten die Trainingsdaten verschiedene Hautt\u00f6ne unter verschiedenen Lichtverh\u00e4ltnissen, um sicherzustellen, dass das System immer erkennen w\u00fcrde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch f\u00fcr Sprachbefehle in VR, wobei sie repr\u00e4sentative Daten \u00fcber Dialekte, Alter und Geschlecht hinweg verwenden. Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschlie\u00dft, arbeiten wir auch daran, dass sie dazu beitr\u00e4gt, Menschen zusammenzubringen. Mit VR sehen wir eine M\u00f6glichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen k\u00f6nnen, unabh\u00e4ngig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, m\u00fcssen sich die Menschen in VR vollst\u00e4ndig repr\u00e4sentiert f\u00fchlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdr\u00fccken und Stimmlagen, die der Realit\u00e4t nachempfunden sind. Mit Codec Avatars haben wir gezeigt, dass es m\u00f6glich ist, Gesichter realit\u00e4tsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen K\u00f6rper. Deshalb entwickeln wir vollst\u00e4ndig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach au\u00dfen, das hei\u00dft wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare &#8211; von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend. Neben AR wollen wir auch VR inklusiv und sicher f\u00fcr alle machen. Wir haben pr\u00e4ventive Systeme entwickelt &#8211; wie zum Beispiel einen Verhaltenskodex f\u00fcr alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion f\u00f6rdern. Und wir haben reaktive Systeme entwickelt &#8211; einschlie\u00dflich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien versto\u00dfen. Als wir unsere eigenen VR-Apps \u2014 Spaces, Venues und Rooms \u2014 ver\u00f6ffentlicht haben, haben wir gro\u00dfen Wert auf Sicherheit gelegt. In einem Einf\u00fchrungsvideo lernen die Benutzer mehr \u00fcber die Funktionen, sodass sie sich sicher f\u00fchlen, wenn sie mit einer gro\u00dfen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte n\u00e4her kommen, als der Anwender es m\u00f6chte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare f\u00fcr einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte \u00fcber unangemessenes Verhalten pr\u00fcfen. Die gesamte Keynote k\u00f6nnen Sie hier erneut ansehen: Weitere Details zu den heutigen Ank\u00fcndigungen finden Sie hier: Developer Blog, AI Blog, Engineering Blog, Oculus Blog und Instagram-Pressebereich. Au\u00dferdem k\u00f6nnen Sie sich alle F8 Keynotes auf der Facebook for Developers Seite erneut ansehen. Um mehr \u00fcber die gestrigen Ank\u00fcndigungen zu erfahren, lesen Sie unseren Blogpost zu den Ank\u00fcndigungen des ersten Tages der F8: https:\/\/about-fb-preprod.go-vip.net\/de\/2019\/04\/tag-1-der-f8-2019-neue-produkte-und-features-fuer-eine-soziale-plattform-mit-fokus-auf-privatsphaere\/","og_url":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/","og_site_name":"\u00dcber Meta","article_published_time":"2019-05-01T17:45:38+00:00","og_image":[{"url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","width":960,"height":640,"type":"image\/jpeg"}],"author":"segmentafacebook","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/"},"author":"Facebook company","headline":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte","datePublished":"2019-05-01T17:45:38+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/"},"wordCount":1273,"publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","articleSection":["Entwicklerthemen","F8","Produktnachrichten"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/","url":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/","name":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte | \u00dcber Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","datePublished":"2019-05-01T17:45:38+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/"]}],"author":"\u00dcber Meta"},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#primaryimage","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","width":960,"height":640,"caption":"Chief Technology Officer Mike Schroepfer"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/de\/news\/2019\/05\/f8-2019-fortschritte-mit-computer-vision-inklusiver-ki-and-weitere-hoehepunkte-des-zweiten-tages\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/de\/"},{"@type":"ListItem","position":2,"name":"Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere H\u00f6hepunkte"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/de\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00dcber Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/de\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2019\/05\/f8_schroepfer.jpg?fit=960%2C640","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/10368","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/users\/116770500"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/comments?post=10368"}],"version-history":[{"count":0,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/10368\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media\/10373"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media?parent=10368"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/categories?post=10368"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/tags?post=10368"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}