{"id":7738,"date":"2019-05-01T19:34:16","date_gmt":"2019-05-01T17:34:16","guid":{"rendered":"http:\/\/fr.newsroom.fb.com\/?p=7738"},"modified":"2019-11-04T20:13:04","modified_gmt":"2019-11-04T19:13:04","slug":"f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2","status":"publish","type":"post","link":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/","title":{"rendered":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0"},"content":{"rendered":"<p><span style=\"font-weight:400;\">La deuxi\u00e8me journ\u00e9e du F8 s&rsquo;est focalis\u00e9e sur les investissements \u00e0 long terme que nous faisons dans les domaines de l&rsquo;IA et de la r\u00e9alit\u00e9 augment\u00e9e et virtuelle (AR\/VR). Dans son discours d&rsquo;ouverture, Mike Schroepfer, Chief Technology Officer, a parl\u00e9 des outils d&rsquo;intelligence artificielle que nous utilisons pour relever de nombreux d\u00e9fis \u00e0 travers l&rsquo;ensemble de nos produits, ainsi que les raisons pour lesquelles il est optimiste quant au futur.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Schroepfer a ensuite donn\u00e9 la parole \u00e0 Manohar Paluri et Joaquin Quinonero Candela, de l\u2019\u00e9quipe Facebook IA, \u00e0 Margaret Stewart, de l\u2019\u00e9quipe en charge de la conception des produits, et \u00e0 Lade Obamehinti, Lindsay Young et Ronald Mallet, de l\u2019\u00e9quipe de r\u00e9alit\u00e9 augment\u00e9e et de r\u00e9alit\u00e9 virtuelle.<\/span><\/p>\n<h4>Intelligence artificielle<\/h4>\n<p><span style=\"font-weight:400;\">L\u2019IA alimente un large spectre de produits et d\u2019infrastructures au sein de Facebook. Ces derni\u00e8res ann\u00e9es, cela s\u2019est \u00e9tendu \u00e0 nos efforts pour d\u00e9tecter de fa\u00e7on proactive les contenus qui violent nos <\/span><a href=\"https:\/\/www.facebook.com\/communitystandards\/\"><span style=\"font-weight:400;\">Standards de la Communaut\u00e9<\/span><\/a><span style=\"font-weight:400;\">. Pour nous aider \u00e0 identifier de plus en plus de ce contenu probl\u00e9matique, nous nous effor\u00e7ons de nous assurer que nous syst\u00e8mes d\u2019IA comprennent le contenu avec le moins de supervision humaine possible. Et nous avons fait d\u2019importants progr\u00e8s. Nos <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/advances-in-content-understanding-self-supervision-to-protect-people\"><span style=\"font-weight:400;\">avanc\u00e9es en traitement automatique du langage naturel (NLP)<\/span><\/a><span style=\"font-weight:400;\"> nous ont aid\u00e9es \u00e0 cr\u00e9er un langage num\u00e9rique commun pour traduire les contenus pr\u00e9judiciables, afin qu&rsquo;ils puissent \u00eatre pris en compte dans davantage de langues. Et une nouvelle approche de la reconnaissance d&rsquo;objets appel\u00e9e <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/improving-scene-understanding-through-panoptic-segmentation\/\"><span style=\"font-weight:400;\">FPN panoptique<\/span><\/a><span style=\"font-weight:400;\"> a aid\u00e9 nos syst\u00e8mes aliment\u00e9s par l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir de l&rsquo;arri\u00e8re-plan des photos. <\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-7739\" src=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg?resize=440%2C345\" alt=\"\" width=\"440\" height=\"345\" \/><\/p>\n<p><i><span style=\"font-weight:400;\">L\u00e9gende : Des technologies comme le FPN Panoptic, montr\u00e9 ici, aident les syst\u00e8mes bas\u00e9s sur l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir des arri\u00e8re-plans des photos.<\/span><\/i><span style=\"font-weight:400;\"><br \/>\n<\/span><span style=\"font-weight:400;\"><br \/>\n<\/span><\/p>\n<p><span style=\"font-weight:400;\">Notre travail autour du traitement du langage naturel est important, mais de nombreuses techniques fonctionnent mieux avec les langues les plus parl\u00e9es. Nous avons \u00e9galement besoin de \u00a0trouver un moyen de tenir compte des nombreuses langues pour lesquelles nous ne disposons pas de suffisamment d\u2019exemples sur lesquels s\u2019entra\u00eener. L\u2019apprentissage auto-supervis\u00e9 peut \u00eatre utile, puisque nous sommes capables d\u2019entra\u00eener des mod\u00e8les sans avoir besoin d\u2019immenses set de donn\u00e9es labellis\u00e9s par des humains. Ces techniques permettent de s&rsquo;assurer que tous nos classificateurs captent le contenu probl\u00e9matique dans un plus grand nombre de langues qu&rsquo;auparavant. Cela nous permet de mieux comprendre les contenus pertinents &#8211; y compris les violations de nos Standards de la Communaut\u00e9 &#8211; sans avoir \u00e0 traduire chaque phrase.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Si l&rsquo;intelligence artificielle est essentielle pour assurer la s\u00fbret\u00e9 de notre plateforme, nous savons qu&rsquo;elle comporte des risques. Elle peut refl\u00e9ter et amplifier des biais. Pour rem\u00e9dier \u00e0 ce probl\u00e8me, nous \u00e9laborons des bonnes pratiques en mati\u00e8re d&rsquo;\u00e9quit\u00e9 pour veiller \u00e0 ce que l&rsquo;IA prot\u00e8ge les gens et ne soit pas discriminante, et ce \u00e0 chaque \u00e9tape du d\u00e9veloppement des produits.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Lorsque les mod\u00e8les d&rsquo;IA sont entra\u00een\u00e9s par des humains sur des ensembles de donn\u00e9es impliquant des personnes, il y a un enjeu inh\u00e9rent de repr\u00e9sentativit\u00e9. Si les ensembles de donn\u00e9es sont limit\u00e9s, contiennent des d\u00e9fauts ou d&rsquo;autres probl\u00e8mes, les mod\u00e8les r\u00e9sultants peuvent fonctionner diff\u00e9remment pour des personnes diff\u00e9rentes. Pour pallier ce risque, nous avons \u00e9labor\u00e9 <\/span><a href=\"https:\/\/tech.fb.com\/building-inclusive-ai-at-facebook\/\"><span style=\"font-weight:400;\">un nouveau cadre pour une IA inclusive<\/span><\/a><span style=\"font-weight:400;\">. Ce cadre fournit des lignes directrices pour aider les chercheurs et les programmeurs \u00e0 concevoir des ensembles de donn\u00e9es, \u00e0 mesurer la performance des produits et \u00e0 mettre \u00e0 l&rsquo;essai de nouveaux syst\u00e8mes dans une optique d&rsquo;inclusivit\u00e9. Pour la vision, ces dimensions comprennent la couleur de la peau, l&rsquo;\u00e2ge et le sexe, et pour la voix, elles comprennent le dialecte, l&rsquo;\u00e2ge et le sexe. Ce cadre d&rsquo;intelligence artificielle inclusive est maintenant utilis\u00e9 par de nombreuses \u00e9quipes produits chez Facebook et a \u00e9t\u00e9 int\u00e9gr\u00e9 dans le d\u00e9veloppement de nouvelles fonctionnalit\u00e9s.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Pour en savoir plus sur les mises \u00e0 jour et les progr\u00e8s de l&rsquo;IA d&rsquo;aujourd&rsquo;hui, vous pouvez consulter les articles sur notre blog d&rsquo;<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/\"><span style=\"font-weight:400;\">IA<\/span><\/a><span style=\"font-weight:400;\">. <\/span><\/p>\n<h4><b>R\u00e9alit\u00e9 virtuelle et r\u00e9alit\u00e9 augment\u00e9e (AR\/VR)<\/b><\/h4>\n<p><span style=\"font-weight:400;\">L&rsquo;un des domaines dans lesquels nous utilisons le cadre d&rsquo;IA inclusive est la r\u00e9alit\u00e9 augment\u00e9e (AR). Les <\/span><a href=\"https:\/\/tech.fb.com\/spark-ar-expands-to-windows-and-announces-instagram-open-beta\/\"><span style=\"font-weight:400;\">ing\u00e9nieurs de Spark AR<\/span><\/a><span style=\"font-weight:400;\"> l&rsquo;utilisent pour s&rsquo;assurer que leur logiciel fournit des effets de r\u00e9alit\u00e9 augment\u00e9e de qualit\u00e9 pour tous. Par exemple, certains des effets sont d\u00e9clench\u00e9s par un geste de la main, de sorte que les donn\u00e9es d&rsquo;entra\u00eenement comprennent diverses couleurs de peau dans diverses conditions d&rsquo;\u00e9clairage, pour que le syst\u00e8me puisse toujours reconna\u00eetre qu&rsquo;il y a une main devant l&rsquo;appareil. Les ing\u00e9nieurs d&rsquo;Oculus utilisent \u00e9galement ce processus pour les commandes vocales en r\u00e9alit\u00e9 virtuelle (VR), en utilisant des donn\u00e9es repr\u00e9sentatives dess dialectes, des \u00e2ges et des sexes.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Tout en veillant \u00e0 ce que notre technologie n&rsquo;exclue pas les gens, nous nous effor\u00e7ons \u00e9galement de faire en sorte qu&rsquo;elle contribue \u00e0 les rapprocher. Avec la r\u00e9alit\u00e9 virtuelle, nous envisageons un avenir dans lequel les gens pourront interagir et se rassembler quelle que soit la distance qui les s\u00e9pare. Mais pour y parvenir, les gens doivent se sentir compl\u00e8tement pr\u00e9sents dans la VR. Et cela signifie que nous avons besoin d&rsquo;avatars vraiment r\u00e9alistes, avec des gestes, des expressions faciales et un ton de voix qui ajoutent de la nuance \u00e0 nos conversations. <\/span><\/p>\n<p><span style=\"font-weight:400;\">Nous avons fait preuve d&rsquo;un r\u00e9alisme innovant avec nos <\/span><a href=\"https:\/\/tech.fb.com\/codec-avatars-facebook-reality-labs\/\"><span style=\"font-weight:400;\">avatars Codec<\/span><\/a><span style=\"font-weight:400;\">, qui permettent aux gens d&rsquo;interagir en temps r\u00e9el en VR. Toutefois, une v\u00e9ritable communication requiert le corps entier. C&rsquo;est pourquoi nous d\u00e9veloppons des mod\u00e8les enti\u00e8rement adaptatifs, bas\u00e9s sur les lois physiques, qui reproduisent un avatar 3D avec les donn\u00e9es d&rsquo;un nombre limit\u00e9 de capteurs. Nous utilisons une approche par couches qui reproduit l&rsquo;anatomie humaine et peut s&rsquo;adapter automatiquement pour \u00a0parfaitement correspondre \u00e0 l&rsquo;apparence et au mouvement uniques de chaque individu. Nous concevons ces mod\u00e8les \u00e0 partir de l\u2019int\u00e9rieur, en d\u00e9veloppant un squelette virtuel puis en superposant la structure musculaire, la peau et les v\u00eatements. Il en r\u00e9sulte des avatars r\u00e9alistes jusque dans les mouvements musculaires et le drapage des v\u00eatements. Il nous reste encore beaucoup de chemin \u00e0 parcourir avant que cette recherche aboutisse \u00e0 un produit, mais les r\u00e9sultats obtenus jusqu&rsquo;\u00e0 pr\u00e9sent nous encouragent \u00e0 pers\u00e9v\u00e9rer.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Comme pour la r\u00e9alit\u00e9 augment\u00e9e, nous voulons que la r\u00e9alit\u00e9 virtuelle soit inclusive et s\u00fbre pour tous. Nous avons mis en place des syst\u00e8mes pr\u00e9ventifs &#8211; comme un code de conduite pour tous ceux qui utilisent ou construisent nos casques &#8211; qui favorisent une culture et des interactions respectueuses. Nous avons \u00e9galement construit des syst\u00e8mes r\u00e9actifs &#8211; y compris des outils pour signaler ou bloquer les utilisateurs qui enfreignent les standards. <\/span><\/p>\n<p><span style=\"font-weight:400;\">Lorsque nous avons lanc\u00e9 nos propres applications sociales de r\u00e9alit\u00e9 virtuelle, y compris Spaces, Venues et Rooms, nous avons int\u00e9gr\u00e9 la s\u00e9curit\u00e9 dans la conception de base de l&rsquo;exp\u00e9rience. Une vid\u00e9o d&rsquo;orientation pr\u00e9sente aux gens certaines des fonctionnalit\u00e9s pour qu&rsquo;ils se sentent plus \u00e0 l&rsquo;aise d&rsquo;interagir avec un grand groupe de personnes pendant leur exp\u00e9rience en r\u00e9alit\u00e9 virtuelle. Par exemple, la bulle de s\u00e9curit\u00e9 est une fonctionnalit\u00e9 qui emp\u00eache les personnes ou les objets de s&rsquo;approcher plus pr\u00e8s de vous que vous ne le souhaiteriez. Si un avatar entre dans la bulle de s\u00e9curit\u00e9 de l&rsquo;autre, les deux avatars deviennent invisibles l&rsquo;un pour l&rsquo;autre. Nous avons \u00e9galement des mod\u00e9rateurs disponibles en direct pour aider \u00e0 assurer un comportement correct et \u00e0 examiner les signalements de comportements inappropri\u00e9s.<\/span><\/p>\n<p>&nbsp;<\/p>\n<div class=\"fb-video\" data-allowfullscreen=\"true\" data-href=\"https:\/\/www.facebook.com\/FacebookforDevelopers\/videos\/336919593660160\/\" style=\"background-color: #fff; display: inline-block;\"><\/div>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight:400;\">Les outils et les cadres que nous avons partag\u00e9s aujourd&rsquo;hui font tous partie de la fa\u00e7on dont nous nous pr\u00e9parons \u00e0 la suite. Pour nous, ce travail consiste \u00e0 donner une voix et des chances \u00e9gales \u00e0 tout le monde et \u00e0 aider les gens \u00e0 rester en contact les uns avec les autres. Pour en savoir plus sur les annonces d&rsquo;hier, lisez notre bilan de la <\/span><a href=\"https:\/\/about.fb.com\/fr\/2019\/04\/f8-resume-jour-1\/\"><span style=\"font-weight:400;\">premi\u00e8re journ\u00e9e<\/span><\/a><span style=\"font-weight:400;\">. Pour plus de d\u00e9tails sur les nouvelles d&rsquo;aujourd&rsquo;hui, consultez nos blogs de <\/span><a href=\"https:\/\/developers.facebook.com\/blog\/\"><span style=\"font-weight:400;\">d\u00e9veloppeurs<\/span><\/a><span style=\"font-weight:400;\">, d&rsquo;<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/improving-scene-understanding-through-panoptic-segmentation\/\"><span style=\"font-weight:400;\">IA<\/span><\/a><span style=\"font-weight:400;\">, d&rsquo;<\/span><a href=\"https:\/\/code.facebook.com\/posts\/181565595577955\/introducing-deeptext-facebook-s-text-understanding-engine\/?pnref=story\"><span style=\"font-weight:400;\">ing\u00e9nierie<\/span><\/a><span style=\"font-weight:400;\">, <\/span><a href=\"https:\/\/www.oculus.com\/blog\/\"><span style=\"font-weight:400;\">Oculus<\/span><\/a><span style=\"font-weight:400;\">, le <\/span><a href=\"https:\/\/instagram-press.com\/\"><span style=\"font-weight:400;\">centre presse Instagram<\/span><\/a><span style=\"font-weight:400;\">, et la <\/span><a href=\"https:\/\/newsroom.fb.com\/news\/2015\/11\/new-milestones-in-artificial-intelligence-research\/\"><span style=\"font-weight:400;\">Newsroom<\/span><\/a><span style=\"font-weight:400;\">. Vous pouvez \u00e9galement regarder toutes les conf\u00e9rences F8 sur la page <\/span><a href=\"https:\/\/www.facebook.com\/FacebookforDevelopers\/\"><span style=\"font-weight:400;\">Facebook pour les d\u00e9veloppeurs<\/span><\/a><span style=\"font-weight:400;\">.<\/span><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"La deuxi\u00e8me journ\u00e9e du F8 s&rsquo;est focalis\u00e9e sur les investissements \u00e0 long terme que nous faisons dans les domaines de l&rsquo;IA et de la r\u00e9alit\u00e9 augment\u00e9e et virtuelle (AR\/VR). Dans son discours d&rsquo;ouverture, Mike Schroepfer, Chief Technology Officer, a parl\u00e9 des outils d&rsquo;intelligence artificielle que nous utilisons pour relever de nombreux d\u00e9fis \u00e0 travers l&rsquo;ensemble de nos produits, ainsi que les raisons pour lesquelles il est optimiste quant au futur. Schroepfer a ensuite donn\u00e9 la parole \u00e0 Manohar Paluri et Joaquin Quinonero Candela, de l\u2019\u00e9quipe Facebook IA, \u00e0 Margaret Stewart, de l\u2019\u00e9quipe en charge de la conception des produits, et \u00e0 Lade Obamehinti, Lindsay Young et Ronald Mallet, de l\u2019\u00e9quipe de r\u00e9alit\u00e9 augment\u00e9e et de r\u00e9alit\u00e9 virtuelle. Intelligence artificielle L\u2019IA alimente un large spectre de produits et d\u2019infrastructures au sein de Facebook. Ces derni\u00e8res ann\u00e9es, cela s\u2019est \u00e9tendu \u00e0 nos efforts pour d\u00e9tecter de fa\u00e7on proactive les contenus qui violent nos Standards de la Communaut\u00e9. Pour nous aider \u00e0 identifier de plus en plus de ce contenu probl\u00e9matique, nous nous effor\u00e7ons de nous assurer que nous syst\u00e8mes d\u2019IA comprennent le contenu avec le moins de supervision humaine possible. Et nous avons fait d\u2019importants progr\u00e8s. Nos avanc\u00e9es en traitement automatique du langage naturel (NLP) nous ont aid\u00e9es \u00e0 cr\u00e9er un langage num\u00e9rique commun pour traduire les contenus pr\u00e9judiciables, afin qu&rsquo;ils puissent \u00eatre pris en compte dans davantage de langues. Et une nouvelle approche de la reconnaissance d&rsquo;objets appel\u00e9e FPN panoptique a aid\u00e9 nos syst\u00e8mes aliment\u00e9s par l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir de l&rsquo;arri\u00e8re-plan des photos. L\u00e9gende : Des technologies comme le FPN Panoptic, montr\u00e9 ici, aident les syst\u00e8mes bas\u00e9s sur l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir des arri\u00e8re-plans des photos. Notre travail autour du traitement du langage naturel est important, mais de nombreuses techniques fonctionnent mieux avec les langues les plus parl\u00e9es. Nous avons \u00e9galement besoin de \u00a0trouver un moyen de tenir compte des nombreuses langues pour lesquelles nous ne disposons pas de suffisamment d\u2019exemples sur lesquels s\u2019entra\u00eener. L\u2019apprentissage auto-supervis\u00e9 peut \u00eatre utile, puisque nous sommes capables d\u2019entra\u00eener des mod\u00e8les sans avoir besoin d\u2019immenses set de donn\u00e9es labellis\u00e9s par des humains. Ces techniques permettent de s&rsquo;assurer que tous nos classificateurs captent le contenu probl\u00e9matique dans un plus grand nombre de langues qu&rsquo;auparavant. Cela nous permet de mieux comprendre les contenus pertinents &#8211; y compris les violations de nos Standards de la Communaut\u00e9 &#8211; sans avoir \u00e0 traduire chaque phrase. Si l&rsquo;intelligence artificielle est essentielle pour assurer la s\u00fbret\u00e9 de notre plateforme, nous savons qu&rsquo;elle comporte des risques. Elle peut refl\u00e9ter et amplifier des biais. Pour rem\u00e9dier \u00e0 ce probl\u00e8me, nous \u00e9laborons des bonnes pratiques en mati\u00e8re d&rsquo;\u00e9quit\u00e9 pour veiller \u00e0 ce que l&rsquo;IA prot\u00e8ge les gens et ne soit pas discriminante, et ce \u00e0 chaque \u00e9tape du d\u00e9veloppement des produits. Lorsque les mod\u00e8les d&rsquo;IA sont entra\u00een\u00e9s par des humains sur des ensembles de donn\u00e9es impliquant des personnes, il y a un enjeu inh\u00e9rent de repr\u00e9sentativit\u00e9. Si les ensembles de donn\u00e9es sont limit\u00e9s, contiennent des d\u00e9fauts ou d&rsquo;autres probl\u00e8mes, les mod\u00e8les r\u00e9sultants peuvent fonctionner diff\u00e9remment pour des personnes diff\u00e9rentes. Pour pallier ce risque, nous avons \u00e9labor\u00e9 un nouveau cadre pour une IA inclusive. Ce cadre fournit des lignes directrices pour aider les chercheurs et les programmeurs \u00e0 concevoir des ensembles de donn\u00e9es, \u00e0 mesurer la performance des produits et \u00e0 mettre \u00e0 l&rsquo;essai de nouveaux syst\u00e8mes dans une optique d&rsquo;inclusivit\u00e9. Pour la vision, ces dimensions comprennent la couleur de la peau, l&rsquo;\u00e2ge et le sexe, et pour la voix, elles comprennent le dialecte, l&rsquo;\u00e2ge et le sexe. Ce cadre d&rsquo;intelligence artificielle inclusive est maintenant utilis\u00e9 par de nombreuses \u00e9quipes produits chez Facebook et a \u00e9t\u00e9 int\u00e9gr\u00e9 dans le d\u00e9veloppement de nouvelles fonctionnalit\u00e9s. Pour en savoir plus sur les mises \u00e0 jour et les progr\u00e8s de l&rsquo;IA d&rsquo;aujourd&rsquo;hui, vous pouvez consulter les articles sur notre blog d&rsquo;IA. R\u00e9alit\u00e9 virtuelle et r\u00e9alit\u00e9 augment\u00e9e (AR\/VR) L&rsquo;un des domaines dans lesquels nous utilisons le cadre d&rsquo;IA inclusive est la r\u00e9alit\u00e9 augment\u00e9e (AR). Les ing\u00e9nieurs de Spark AR l&rsquo;utilisent pour s&rsquo;assurer que leur logiciel fournit des effets de r\u00e9alit\u00e9 augment\u00e9e de qualit\u00e9 pour tous. Par exemple, certains des effets sont d\u00e9clench\u00e9s par un geste de la main, de sorte que les donn\u00e9es d&rsquo;entra\u00eenement comprennent diverses couleurs de peau dans diverses conditions d&rsquo;\u00e9clairage, pour que le syst\u00e8me puisse toujours reconna\u00eetre qu&rsquo;il y a une main devant l&rsquo;appareil. Les ing\u00e9nieurs d&rsquo;Oculus utilisent \u00e9galement ce processus pour les commandes vocales en r\u00e9alit\u00e9 virtuelle (VR), en utilisant des donn\u00e9es repr\u00e9sentatives dess dialectes, des \u00e2ges et des sexes. Tout en veillant \u00e0 ce que notre technologie n&rsquo;exclue pas les gens, nous nous effor\u00e7ons \u00e9galement de faire en sorte qu&rsquo;elle contribue \u00e0 les rapprocher. Avec la r\u00e9alit\u00e9 virtuelle, nous envisageons un avenir dans lequel les gens pourront interagir et se rassembler quelle que soit la distance qui les s\u00e9pare. Mais pour y parvenir, les gens doivent se sentir compl\u00e8tement pr\u00e9sents dans la VR. Et cela signifie que nous avons besoin d&rsquo;avatars vraiment r\u00e9alistes, avec des gestes, des expressions faciales et un ton de voix qui ajoutent de la nuance \u00e0 nos conversations. Nous avons fait preuve d&rsquo;un r\u00e9alisme innovant avec nos avatars Codec, qui permettent aux gens d&rsquo;interagir en temps r\u00e9el en VR. Toutefois, une v\u00e9ritable communication requiert le corps entier. C&rsquo;est pourquoi nous d\u00e9veloppons des mod\u00e8les enti\u00e8rement adaptatifs, bas\u00e9s sur les lois physiques, qui reproduisent un avatar 3D avec les donn\u00e9es d&rsquo;un nombre limit\u00e9 de capteurs. Nous utilisons une approche par couches qui reproduit l&rsquo;anatomie humaine et peut s&rsquo;adapter automatiquement pour \u00a0parfaitement correspondre \u00e0 l&rsquo;apparence et au mouvement uniques de chaque individu. Nous concevons ces mod\u00e8les \u00e0 partir de l\u2019int\u00e9rieur, en d\u00e9veloppant un squelette virtuel puis en superposant la structure musculaire, la peau et les v\u00eatements. Il en r\u00e9sulte des avatars r\u00e9alistes jusque dans les mouvements musculaires et le drapage des v\u00eatements. Il nous reste encore beaucoup de chemin \u00e0 parcourir avant que cette recherche aboutisse \u00e0 un produit, mais les r\u00e9sultats obtenus jusqu&rsquo;\u00e0 pr\u00e9sent nous encouragent \u00e0 pers\u00e9v\u00e9rer. Comme pour la r\u00e9alit\u00e9 augment\u00e9e, nous voulons que la r\u00e9alit\u00e9 virtuelle soit inclusive et s\u00fbre pour tous. Nous avons mis en place des syst\u00e8mes pr\u00e9ventifs &#8211; comme un code de conduite pour tous ceux qui utilisent ou construisent nos casques &#8211; qui favorisent une culture et des interactions respectueuses. Nous avons \u00e9galement construit des syst\u00e8mes r\u00e9actifs &#8211; y compris des outils pour signaler ou bloquer les utilisateurs qui enfreignent les standards. Lorsque nous avons lanc\u00e9 nos propres applications sociales de r\u00e9alit\u00e9 virtuelle, y compris Spaces, Venues et Rooms, nous avons int\u00e9gr\u00e9 la s\u00e9curit\u00e9 dans la conception de base de l&rsquo;exp\u00e9rience. Une vid\u00e9o d&rsquo;orientation pr\u00e9sente aux gens certaines des fonctionnalit\u00e9s pour qu&rsquo;ils se sentent plus \u00e0 l&rsquo;aise d&rsquo;interagir avec un grand groupe de personnes pendant leur exp\u00e9rience en r\u00e9alit\u00e9 virtuelle. Par exemple, la bulle de s\u00e9curit\u00e9 est une fonctionnalit\u00e9 qui emp\u00eache les personnes ou les objets de s&rsquo;approcher plus pr\u00e8s de vous que vous ne le souhaiteriez. Si un avatar entre dans la bulle de s\u00e9curit\u00e9 de l&rsquo;autre, les deux avatars deviennent invisibles l&rsquo;un pour l&rsquo;autre. Nous avons \u00e9galement des mod\u00e9rateurs disponibles en direct pour aider \u00e0 assurer un comportement correct et \u00e0 examiner les signalements de comportements inappropri\u00e9s. &nbsp; &nbsp; Les outils et les cadres que nous avons partag\u00e9s aujourd&rsquo;hui font tous partie de la fa\u00e7on dont nous nous pr\u00e9parons \u00e0 la suite. Pour nous, ce travail consiste \u00e0 donner une voix et des chances \u00e9gales \u00e0 tout le monde et \u00e0 aider les gens \u00e0 rester en contact les uns avec les autres. Pour en savoir plus sur les annonces d&rsquo;hier, lisez notre bilan de la premi\u00e8re journ\u00e9e. Pour plus de d\u00e9tails sur les nouvelles d&rsquo;aujourd&rsquo;hui, consultez nos blogs de d\u00e9veloppeurs, d&rsquo;IA, d&rsquo;ing\u00e9nierie, Oculus, le centre presse Instagram, et la Newsroom. Vous pouvez \u00e9galement regarder toutes les conf\u00e9rences F8 sur la page Facebook pour les d\u00e9veloppeurs. &nbsp;","protected":false},"author":150902357,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243897944,243897952],"tags":[],"class_list":["post-7738","post","type-post","status-publish","format-standard","hentry","category-intelligence-artificielle","category-realite-augmentee-et-realite-virtuelle"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta\" \/>\n<meta property=\"og:description\" content=\"La deuxi\u00e8me journ\u00e9e du F8 s&rsquo;est focalis\u00e9e sur les investissements \u00e0 long terme que nous faisons dans les domaines de l&rsquo;IA et de la r\u00e9alit\u00e9 augment\u00e9e et virtuelle (AR\/VR). Dans son discours d&rsquo;ouverture, Mike Schroepfer, Chief Technology Officer, a parl\u00e9 des outils d&rsquo;intelligence artificielle que nous utilisons pour relever de nombreux d\u00e9fis \u00e0 travers l&rsquo;ensemble de nos produits, ainsi que les raisons pour lesquelles il est optimiste quant au futur. Schroepfer a ensuite donn\u00e9 la parole \u00e0 Manohar Paluri et Joaquin Quinonero Candela, de l\u2019\u00e9quipe Facebook IA, \u00e0 Margaret Stewart, de l\u2019\u00e9quipe en charge de la conception des produits, et \u00e0 Lade Obamehinti, Lindsay Young et Ronald Mallet, de l\u2019\u00e9quipe de r\u00e9alit\u00e9 augment\u00e9e et de r\u00e9alit\u00e9 virtuelle. Intelligence artificielle L\u2019IA alimente un large spectre de produits et d\u2019infrastructures au sein de Facebook. Ces derni\u00e8res ann\u00e9es, cela s\u2019est \u00e9tendu \u00e0 nos efforts pour d\u00e9tecter de fa\u00e7on proactive les contenus qui violent nos Standards de la Communaut\u00e9. Pour nous aider \u00e0 identifier de plus en plus de ce contenu probl\u00e9matique, nous nous effor\u00e7ons de nous assurer que nous syst\u00e8mes d\u2019IA comprennent le contenu avec le moins de supervision humaine possible. Et nous avons fait d\u2019importants progr\u00e8s. Nos avanc\u00e9es en traitement automatique du langage naturel (NLP) nous ont aid\u00e9es \u00e0 cr\u00e9er un langage num\u00e9rique commun pour traduire les contenus pr\u00e9judiciables, afin qu&rsquo;ils puissent \u00eatre pris en compte dans davantage de langues. Et une nouvelle approche de la reconnaissance d&rsquo;objets appel\u00e9e FPN panoptique a aid\u00e9 nos syst\u00e8mes aliment\u00e9s par l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir de l&rsquo;arri\u00e8re-plan des photos. L\u00e9gende : Des technologies comme le FPN Panoptic, montr\u00e9 ici, aident les syst\u00e8mes bas\u00e9s sur l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir des arri\u00e8re-plans des photos. Notre travail autour du traitement du langage naturel est important, mais de nombreuses techniques fonctionnent mieux avec les langues les plus parl\u00e9es. Nous avons \u00e9galement besoin de \u00a0trouver un moyen de tenir compte des nombreuses langues pour lesquelles nous ne disposons pas de suffisamment d\u2019exemples sur lesquels s\u2019entra\u00eener. L\u2019apprentissage auto-supervis\u00e9 peut \u00eatre utile, puisque nous sommes capables d\u2019entra\u00eener des mod\u00e8les sans avoir besoin d\u2019immenses set de donn\u00e9es labellis\u00e9s par des humains. Ces techniques permettent de s&rsquo;assurer que tous nos classificateurs captent le contenu probl\u00e9matique dans un plus grand nombre de langues qu&rsquo;auparavant. Cela nous permet de mieux comprendre les contenus pertinents &#8211; y compris les violations de nos Standards de la Communaut\u00e9 &#8211; sans avoir \u00e0 traduire chaque phrase. Si l&rsquo;intelligence artificielle est essentielle pour assurer la s\u00fbret\u00e9 de notre plateforme, nous savons qu&rsquo;elle comporte des risques. Elle peut refl\u00e9ter et amplifier des biais. Pour rem\u00e9dier \u00e0 ce probl\u00e8me, nous \u00e9laborons des bonnes pratiques en mati\u00e8re d&rsquo;\u00e9quit\u00e9 pour veiller \u00e0 ce que l&rsquo;IA prot\u00e8ge les gens et ne soit pas discriminante, et ce \u00e0 chaque \u00e9tape du d\u00e9veloppement des produits. Lorsque les mod\u00e8les d&rsquo;IA sont entra\u00een\u00e9s par des humains sur des ensembles de donn\u00e9es impliquant des personnes, il y a un enjeu inh\u00e9rent de repr\u00e9sentativit\u00e9. Si les ensembles de donn\u00e9es sont limit\u00e9s, contiennent des d\u00e9fauts ou d&rsquo;autres probl\u00e8mes, les mod\u00e8les r\u00e9sultants peuvent fonctionner diff\u00e9remment pour des personnes diff\u00e9rentes. Pour pallier ce risque, nous avons \u00e9labor\u00e9 un nouveau cadre pour une IA inclusive. Ce cadre fournit des lignes directrices pour aider les chercheurs et les programmeurs \u00e0 concevoir des ensembles de donn\u00e9es, \u00e0 mesurer la performance des produits et \u00e0 mettre \u00e0 l&rsquo;essai de nouveaux syst\u00e8mes dans une optique d&rsquo;inclusivit\u00e9. Pour la vision, ces dimensions comprennent la couleur de la peau, l&rsquo;\u00e2ge et le sexe, et pour la voix, elles comprennent le dialecte, l&rsquo;\u00e2ge et le sexe. Ce cadre d&rsquo;intelligence artificielle inclusive est maintenant utilis\u00e9 par de nombreuses \u00e9quipes produits chez Facebook et a \u00e9t\u00e9 int\u00e9gr\u00e9 dans le d\u00e9veloppement de nouvelles fonctionnalit\u00e9s. Pour en savoir plus sur les mises \u00e0 jour et les progr\u00e8s de l&rsquo;IA d&rsquo;aujourd&rsquo;hui, vous pouvez consulter les articles sur notre blog d&rsquo;IA. R\u00e9alit\u00e9 virtuelle et r\u00e9alit\u00e9 augment\u00e9e (AR\/VR) L&rsquo;un des domaines dans lesquels nous utilisons le cadre d&rsquo;IA inclusive est la r\u00e9alit\u00e9 augment\u00e9e (AR). Les ing\u00e9nieurs de Spark AR l&rsquo;utilisent pour s&rsquo;assurer que leur logiciel fournit des effets de r\u00e9alit\u00e9 augment\u00e9e de qualit\u00e9 pour tous. Par exemple, certains des effets sont d\u00e9clench\u00e9s par un geste de la main, de sorte que les donn\u00e9es d&rsquo;entra\u00eenement comprennent diverses couleurs de peau dans diverses conditions d&rsquo;\u00e9clairage, pour que le syst\u00e8me puisse toujours reconna\u00eetre qu&rsquo;il y a une main devant l&rsquo;appareil. Les ing\u00e9nieurs d&rsquo;Oculus utilisent \u00e9galement ce processus pour les commandes vocales en r\u00e9alit\u00e9 virtuelle (VR), en utilisant des donn\u00e9es repr\u00e9sentatives dess dialectes, des \u00e2ges et des sexes. Tout en veillant \u00e0 ce que notre technologie n&rsquo;exclue pas les gens, nous nous effor\u00e7ons \u00e9galement de faire en sorte qu&rsquo;elle contribue \u00e0 les rapprocher. Avec la r\u00e9alit\u00e9 virtuelle, nous envisageons un avenir dans lequel les gens pourront interagir et se rassembler quelle que soit la distance qui les s\u00e9pare. Mais pour y parvenir, les gens doivent se sentir compl\u00e8tement pr\u00e9sents dans la VR. Et cela signifie que nous avons besoin d&rsquo;avatars vraiment r\u00e9alistes, avec des gestes, des expressions faciales et un ton de voix qui ajoutent de la nuance \u00e0 nos conversations. Nous avons fait preuve d&rsquo;un r\u00e9alisme innovant avec nos avatars Codec, qui permettent aux gens d&rsquo;interagir en temps r\u00e9el en VR. Toutefois, une v\u00e9ritable communication requiert le corps entier. C&rsquo;est pourquoi nous d\u00e9veloppons des mod\u00e8les enti\u00e8rement adaptatifs, bas\u00e9s sur les lois physiques, qui reproduisent un avatar 3D avec les donn\u00e9es d&rsquo;un nombre limit\u00e9 de capteurs. Nous utilisons une approche par couches qui reproduit l&rsquo;anatomie humaine et peut s&rsquo;adapter automatiquement pour \u00a0parfaitement correspondre \u00e0 l&rsquo;apparence et au mouvement uniques de chaque individu. Nous concevons ces mod\u00e8les \u00e0 partir de l\u2019int\u00e9rieur, en d\u00e9veloppant un squelette virtuel puis en superposant la structure musculaire, la peau et les v\u00eatements. Il en r\u00e9sulte des avatars r\u00e9alistes jusque dans les mouvements musculaires et le drapage des v\u00eatements. Il nous reste encore beaucoup de chemin \u00e0 parcourir avant que cette recherche aboutisse \u00e0 un produit, mais les r\u00e9sultats obtenus jusqu&rsquo;\u00e0 pr\u00e9sent nous encouragent \u00e0 pers\u00e9v\u00e9rer. Comme pour la r\u00e9alit\u00e9 augment\u00e9e, nous voulons que la r\u00e9alit\u00e9 virtuelle soit inclusive et s\u00fbre pour tous. Nous avons mis en place des syst\u00e8mes pr\u00e9ventifs &#8211; comme un code de conduite pour tous ceux qui utilisent ou construisent nos casques &#8211; qui favorisent une culture et des interactions respectueuses. Nous avons \u00e9galement construit des syst\u00e8mes r\u00e9actifs &#8211; y compris des outils pour signaler ou bloquer les utilisateurs qui enfreignent les standards. Lorsque nous avons lanc\u00e9 nos propres applications sociales de r\u00e9alit\u00e9 virtuelle, y compris Spaces, Venues et Rooms, nous avons int\u00e9gr\u00e9 la s\u00e9curit\u00e9 dans la conception de base de l&rsquo;exp\u00e9rience. Une vid\u00e9o d&rsquo;orientation pr\u00e9sente aux gens certaines des fonctionnalit\u00e9s pour qu&rsquo;ils se sentent plus \u00e0 l&rsquo;aise d&rsquo;interagir avec un grand groupe de personnes pendant leur exp\u00e9rience en r\u00e9alit\u00e9 virtuelle. Par exemple, la bulle de s\u00e9curit\u00e9 est une fonctionnalit\u00e9 qui emp\u00eache les personnes ou les objets de s&rsquo;approcher plus pr\u00e8s de vous que vous ne le souhaiteriez. Si un avatar entre dans la bulle de s\u00e9curit\u00e9 de l&rsquo;autre, les deux avatars deviennent invisibles l&rsquo;un pour l&rsquo;autre. Nous avons \u00e9galement des mod\u00e9rateurs disponibles en direct pour aider \u00e0 assurer un comportement correct et \u00e0 examiner les signalements de comportements inappropri\u00e9s. &nbsp; &nbsp; Les outils et les cadres que nous avons partag\u00e9s aujourd&rsquo;hui font tous partie de la fa\u00e7on dont nous nous pr\u00e9parons \u00e0 la suite. Pour nous, ce travail consiste \u00e0 donner une voix et des chances \u00e9gales \u00e0 tout le monde et \u00e0 aider les gens \u00e0 rester en contact les uns avec les autres. Pour en savoir plus sur les annonces d&rsquo;hier, lisez notre bilan de la premi\u00e8re journ\u00e9e. Pour plus de d\u00e9tails sur les nouvelles d&rsquo;aujourd&rsquo;hui, consultez nos blogs de d\u00e9veloppeurs, d&rsquo;IA, d&rsquo;ing\u00e9nierie, Oculus, le centre presse Instagram, et la Newsroom. Vous pouvez \u00e9galement regarder toutes les conf\u00e9rences F8 sur la page Facebook pour les d\u00e9veloppeurs. &nbsp;\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00c0 propos de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2019-05-01T17:34:16+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:13:04+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg\" \/>\n<meta name=\"author\" content=\"solnebures\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\"},\"author\":\"Facebook company\",\"headline\":\"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0\",\"datePublished\":\"2019-05-01T17:34:16+00:00\",\"dateModified\":\"2019-11-04T19:13:04+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\"},\"wordCount\":1506,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg\",\"articleSection\":[\"Intelligence Artificielle\",\"R\u00e9alit\u00e9 Augment\u00e9e et R\u00e9alit\u00e9 Virtuelle\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\",\"url\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\",\"name\":\"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg\",\"datePublished\":\"2019-05-01T17:34:16+00:00\",\"dateModified\":\"2019-11-04T19:13:04+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/\"]}],\"author\":\"\u00c0 propos de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/fr\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00c0 propos de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/","og_locale":"fr_FR","og_type":"article","og_title":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta","og_description":"La deuxi\u00e8me journ\u00e9e du F8 s&rsquo;est focalis\u00e9e sur les investissements \u00e0 long terme que nous faisons dans les domaines de l&rsquo;IA et de la r\u00e9alit\u00e9 augment\u00e9e et virtuelle (AR\/VR). Dans son discours d&rsquo;ouverture, Mike Schroepfer, Chief Technology Officer, a parl\u00e9 des outils d&rsquo;intelligence artificielle que nous utilisons pour relever de nombreux d\u00e9fis \u00e0 travers l&rsquo;ensemble de nos produits, ainsi que les raisons pour lesquelles il est optimiste quant au futur. Schroepfer a ensuite donn\u00e9 la parole \u00e0 Manohar Paluri et Joaquin Quinonero Candela, de l\u2019\u00e9quipe Facebook IA, \u00e0 Margaret Stewart, de l\u2019\u00e9quipe en charge de la conception des produits, et \u00e0 Lade Obamehinti, Lindsay Young et Ronald Mallet, de l\u2019\u00e9quipe de r\u00e9alit\u00e9 augment\u00e9e et de r\u00e9alit\u00e9 virtuelle. Intelligence artificielle L\u2019IA alimente un large spectre de produits et d\u2019infrastructures au sein de Facebook. Ces derni\u00e8res ann\u00e9es, cela s\u2019est \u00e9tendu \u00e0 nos efforts pour d\u00e9tecter de fa\u00e7on proactive les contenus qui violent nos Standards de la Communaut\u00e9. Pour nous aider \u00e0 identifier de plus en plus de ce contenu probl\u00e9matique, nous nous effor\u00e7ons de nous assurer que nous syst\u00e8mes d\u2019IA comprennent le contenu avec le moins de supervision humaine possible. Et nous avons fait d\u2019importants progr\u00e8s. Nos avanc\u00e9es en traitement automatique du langage naturel (NLP) nous ont aid\u00e9es \u00e0 cr\u00e9er un langage num\u00e9rique commun pour traduire les contenus pr\u00e9judiciables, afin qu&rsquo;ils puissent \u00eatre pris en compte dans davantage de langues. Et une nouvelle approche de la reconnaissance d&rsquo;objets appel\u00e9e FPN panoptique a aid\u00e9 nos syst\u00e8mes aliment\u00e9s par l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir de l&rsquo;arri\u00e8re-plan des photos. L\u00e9gende : Des technologies comme le FPN Panoptic, montr\u00e9 ici, aident les syst\u00e8mes bas\u00e9s sur l&rsquo;intelligence artificielle \u00e0 comprendre le contexte \u00e0 partir des arri\u00e8re-plans des photos. Notre travail autour du traitement du langage naturel est important, mais de nombreuses techniques fonctionnent mieux avec les langues les plus parl\u00e9es. Nous avons \u00e9galement besoin de \u00a0trouver un moyen de tenir compte des nombreuses langues pour lesquelles nous ne disposons pas de suffisamment d\u2019exemples sur lesquels s\u2019entra\u00eener. L\u2019apprentissage auto-supervis\u00e9 peut \u00eatre utile, puisque nous sommes capables d\u2019entra\u00eener des mod\u00e8les sans avoir besoin d\u2019immenses set de donn\u00e9es labellis\u00e9s par des humains. Ces techniques permettent de s&rsquo;assurer que tous nos classificateurs captent le contenu probl\u00e9matique dans un plus grand nombre de langues qu&rsquo;auparavant. Cela nous permet de mieux comprendre les contenus pertinents &#8211; y compris les violations de nos Standards de la Communaut\u00e9 &#8211; sans avoir \u00e0 traduire chaque phrase. Si l&rsquo;intelligence artificielle est essentielle pour assurer la s\u00fbret\u00e9 de notre plateforme, nous savons qu&rsquo;elle comporte des risques. Elle peut refl\u00e9ter et amplifier des biais. Pour rem\u00e9dier \u00e0 ce probl\u00e8me, nous \u00e9laborons des bonnes pratiques en mati\u00e8re d&rsquo;\u00e9quit\u00e9 pour veiller \u00e0 ce que l&rsquo;IA prot\u00e8ge les gens et ne soit pas discriminante, et ce \u00e0 chaque \u00e9tape du d\u00e9veloppement des produits. Lorsque les mod\u00e8les d&rsquo;IA sont entra\u00een\u00e9s par des humains sur des ensembles de donn\u00e9es impliquant des personnes, il y a un enjeu inh\u00e9rent de repr\u00e9sentativit\u00e9. Si les ensembles de donn\u00e9es sont limit\u00e9s, contiennent des d\u00e9fauts ou d&rsquo;autres probl\u00e8mes, les mod\u00e8les r\u00e9sultants peuvent fonctionner diff\u00e9remment pour des personnes diff\u00e9rentes. Pour pallier ce risque, nous avons \u00e9labor\u00e9 un nouveau cadre pour une IA inclusive. Ce cadre fournit des lignes directrices pour aider les chercheurs et les programmeurs \u00e0 concevoir des ensembles de donn\u00e9es, \u00e0 mesurer la performance des produits et \u00e0 mettre \u00e0 l&rsquo;essai de nouveaux syst\u00e8mes dans une optique d&rsquo;inclusivit\u00e9. Pour la vision, ces dimensions comprennent la couleur de la peau, l&rsquo;\u00e2ge et le sexe, et pour la voix, elles comprennent le dialecte, l&rsquo;\u00e2ge et le sexe. Ce cadre d&rsquo;intelligence artificielle inclusive est maintenant utilis\u00e9 par de nombreuses \u00e9quipes produits chez Facebook et a \u00e9t\u00e9 int\u00e9gr\u00e9 dans le d\u00e9veloppement de nouvelles fonctionnalit\u00e9s. Pour en savoir plus sur les mises \u00e0 jour et les progr\u00e8s de l&rsquo;IA d&rsquo;aujourd&rsquo;hui, vous pouvez consulter les articles sur notre blog d&rsquo;IA. R\u00e9alit\u00e9 virtuelle et r\u00e9alit\u00e9 augment\u00e9e (AR\/VR) L&rsquo;un des domaines dans lesquels nous utilisons le cadre d&rsquo;IA inclusive est la r\u00e9alit\u00e9 augment\u00e9e (AR). Les ing\u00e9nieurs de Spark AR l&rsquo;utilisent pour s&rsquo;assurer que leur logiciel fournit des effets de r\u00e9alit\u00e9 augment\u00e9e de qualit\u00e9 pour tous. Par exemple, certains des effets sont d\u00e9clench\u00e9s par un geste de la main, de sorte que les donn\u00e9es d&rsquo;entra\u00eenement comprennent diverses couleurs de peau dans diverses conditions d&rsquo;\u00e9clairage, pour que le syst\u00e8me puisse toujours reconna\u00eetre qu&rsquo;il y a une main devant l&rsquo;appareil. Les ing\u00e9nieurs d&rsquo;Oculus utilisent \u00e9galement ce processus pour les commandes vocales en r\u00e9alit\u00e9 virtuelle (VR), en utilisant des donn\u00e9es repr\u00e9sentatives dess dialectes, des \u00e2ges et des sexes. Tout en veillant \u00e0 ce que notre technologie n&rsquo;exclue pas les gens, nous nous effor\u00e7ons \u00e9galement de faire en sorte qu&rsquo;elle contribue \u00e0 les rapprocher. Avec la r\u00e9alit\u00e9 virtuelle, nous envisageons un avenir dans lequel les gens pourront interagir et se rassembler quelle que soit la distance qui les s\u00e9pare. Mais pour y parvenir, les gens doivent se sentir compl\u00e8tement pr\u00e9sents dans la VR. Et cela signifie que nous avons besoin d&rsquo;avatars vraiment r\u00e9alistes, avec des gestes, des expressions faciales et un ton de voix qui ajoutent de la nuance \u00e0 nos conversations. Nous avons fait preuve d&rsquo;un r\u00e9alisme innovant avec nos avatars Codec, qui permettent aux gens d&rsquo;interagir en temps r\u00e9el en VR. Toutefois, une v\u00e9ritable communication requiert le corps entier. C&rsquo;est pourquoi nous d\u00e9veloppons des mod\u00e8les enti\u00e8rement adaptatifs, bas\u00e9s sur les lois physiques, qui reproduisent un avatar 3D avec les donn\u00e9es d&rsquo;un nombre limit\u00e9 de capteurs. Nous utilisons une approche par couches qui reproduit l&rsquo;anatomie humaine et peut s&rsquo;adapter automatiquement pour \u00a0parfaitement correspondre \u00e0 l&rsquo;apparence et au mouvement uniques de chaque individu. Nous concevons ces mod\u00e8les \u00e0 partir de l\u2019int\u00e9rieur, en d\u00e9veloppant un squelette virtuel puis en superposant la structure musculaire, la peau et les v\u00eatements. Il en r\u00e9sulte des avatars r\u00e9alistes jusque dans les mouvements musculaires et le drapage des v\u00eatements. Il nous reste encore beaucoup de chemin \u00e0 parcourir avant que cette recherche aboutisse \u00e0 un produit, mais les r\u00e9sultats obtenus jusqu&rsquo;\u00e0 pr\u00e9sent nous encouragent \u00e0 pers\u00e9v\u00e9rer. Comme pour la r\u00e9alit\u00e9 augment\u00e9e, nous voulons que la r\u00e9alit\u00e9 virtuelle soit inclusive et s\u00fbre pour tous. Nous avons mis en place des syst\u00e8mes pr\u00e9ventifs &#8211; comme un code de conduite pour tous ceux qui utilisent ou construisent nos casques &#8211; qui favorisent une culture et des interactions respectueuses. Nous avons \u00e9galement construit des syst\u00e8mes r\u00e9actifs &#8211; y compris des outils pour signaler ou bloquer les utilisateurs qui enfreignent les standards. Lorsque nous avons lanc\u00e9 nos propres applications sociales de r\u00e9alit\u00e9 virtuelle, y compris Spaces, Venues et Rooms, nous avons int\u00e9gr\u00e9 la s\u00e9curit\u00e9 dans la conception de base de l&rsquo;exp\u00e9rience. Une vid\u00e9o d&rsquo;orientation pr\u00e9sente aux gens certaines des fonctionnalit\u00e9s pour qu&rsquo;ils se sentent plus \u00e0 l&rsquo;aise d&rsquo;interagir avec un grand groupe de personnes pendant leur exp\u00e9rience en r\u00e9alit\u00e9 virtuelle. Par exemple, la bulle de s\u00e9curit\u00e9 est une fonctionnalit\u00e9 qui emp\u00eache les personnes ou les objets de s&rsquo;approcher plus pr\u00e8s de vous que vous ne le souhaiteriez. Si un avatar entre dans la bulle de s\u00e9curit\u00e9 de l&rsquo;autre, les deux avatars deviennent invisibles l&rsquo;un pour l&rsquo;autre. Nous avons \u00e9galement des mod\u00e9rateurs disponibles en direct pour aider \u00e0 assurer un comportement correct et \u00e0 examiner les signalements de comportements inappropri\u00e9s. &nbsp; &nbsp; Les outils et les cadres que nous avons partag\u00e9s aujourd&rsquo;hui font tous partie de la fa\u00e7on dont nous nous pr\u00e9parons \u00e0 la suite. Pour nous, ce travail consiste \u00e0 donner une voix et des chances \u00e9gales \u00e0 tout le monde et \u00e0 aider les gens \u00e0 rester en contact les uns avec les autres. Pour en savoir plus sur les annonces d&rsquo;hier, lisez notre bilan de la premi\u00e8re journ\u00e9e. Pour plus de d\u00e9tails sur les nouvelles d&rsquo;aujourd&rsquo;hui, consultez nos blogs de d\u00e9veloppeurs, d&rsquo;IA, d&rsquo;ing\u00e9nierie, Oculus, le centre presse Instagram, et la Newsroom. Vous pouvez \u00e9galement regarder toutes les conf\u00e9rences F8 sur la page Facebook pour les d\u00e9veloppeurs. &nbsp;","og_url":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/","og_site_name":"\u00c0 propos de Meta","article_published_time":"2019-05-01T17:34:16+00:00","article_modified_time":"2019-11-04T19:13:04+00:00","og_image":[{"url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg","type":"","width":"","height":""}],"author":"solnebures","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/"},"author":"Facebook company","headline":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0","datePublished":"2019-05-01T17:34:16+00:00","dateModified":"2019-11-04T19:13:04+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/"},"wordCount":1506,"publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg","articleSection":["Intelligence Artificielle","R\u00e9alit\u00e9 Augment\u00e9e et R\u00e9alit\u00e9 Virtuelle"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/","url":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/","name":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0 | \u00c0 propos de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg","datePublished":"2019-05-01T17:34:16+00:00","dateModified":"2019-11-04T19:13:04+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/"]}],"author":"\u00c0 propos de Meta"},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#primaryimage","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2019\/05\/panoptic-fpn-1.jpg"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/fr\/news\/2019\/05\/f8-2019-progres-en-matiere-de-vision-par-ordinateur-dia-inclusive-et-autres-annonces-marquantes-du-jour-2\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/fr\/"},{"@type":"ListItem","position":2,"name":"F8 2019: Progr\u00e8s en mati\u00e8re de vision par ordinateur, d\u2019IA inclusive et autres annonces marquantes du jour 2 \u00a0"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/fr\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00c0 propos de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/fr\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7738","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/users\/150902357"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/comments?post=7738"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7738\/revisions"}],"predecessor-version":[{"id":8080,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7738\/revisions\/8080"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/media?parent=7738"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/categories?post=7738"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/tags?post=7738"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}