{"version":"1.0","provider_name":"\u00c0 propos de Meta","provider_url":"https:\/\/about.fb.com\/fr","author_name":"Meta","author_url":"https:\/\/about.fb.com\/fr","title":"Faire progresser l'intelligence artificielle gr\u00e2ce \u00e0 une recherche centr\u00e9e sur l'homme | \u00c0 propos de Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"lfP4ZpCEs9\"><a href=\"https:\/\/about.fb.com\/fr\/news\/2025\/02\/faire-progresser-lintelligence-artificielle\/\">Faire progresser l&rsquo;intelligence artificielle gr\u00e2ce \u00e0 une recherche centr\u00e9e sur l&rsquo;homme<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/fr\/news\/2025\/02\/faire-progresser-lintelligence-artificielle\/embed\/#?secret=lfP4ZpCEs9\" width=\"600\" height=\"338\" title=\"\u00ab\u00a0Faire progresser l&rsquo;intelligence artificielle gr\u00e2ce \u00e0 une recherche centr\u00e9e sur l&rsquo;homme\u00a0\u00bb &#8212; \u00c0 propos de Meta\" data-secret=\"lfP4ZpCEs9\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/fr\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","description":"Les annonces : Le laboratoire de recherche fondamentale en intelligence artificielle (FAIR) de Meta partage de nouveaux artefacts de recherche qui soulignent notre engagement en faveur de l&rsquo;Advanced Machine Intelligence (AMI) et l&rsquo;impact des technologies open-source sur l&rsquo;avancement de l&rsquo;IA. En partageant nos recherches, nous visons \u00e0 cr\u00e9er des syst\u00e8mes intelligents capables de comprendre les besoins humains complexes et d&rsquo;y r\u00e9pondre, afin d&rsquo;am\u00e9liorer notre vie quotidienne. Le travail que nous partageons comprend l&rsquo;ensemble de donn\u00e9es et le benchmark Meta PARTNR, visant \u00e0 construire des robots socialement intelligents qui peuvent aider les gens dans les t\u00e2ches quotidiennes, telles que collecter une livraison \u00e0 la porte d&rsquo;entr\u00e9e ou aider \u00e0 d&rsquo;autres t\u00e2ches m\u00e9nag\u00e8res. Dans le cadre du travail continu de FAIR avec l&rsquo;UNESCO visant \u00e0 promouvoir la diversit\u00e9 linguistique dans la technologie, les collaborateurs sont invit\u00e9s \u00e0 se joindre \u00e0 nous pour am\u00e9liorer et d\u00e9velopper la traduction automatique et les technologies linguistiques afin de promouvoir la diversit\u00e9 linguistique et l&rsquo;inclusion dans le monde num\u00e9rique. Nous partageons \u00e9galement les avanc\u00e9es en mati\u00e8re de traitement audio, de communication multilingue et de technologies linguistiques, autant de d\u00e9veloppements cruciaux sur la voie de la r\u00e9alisation de l&rsquo;AMI. En collaboration avec le Centre basque de la cognition, du cerveau et du langage (BCBL), FAIR d\u00e9voile deux avanc\u00e9es qui montrent comment l&rsquo;IA peut contribuer \u00e0 faire progresser notre compr\u00e9hension de l&rsquo;intelligence humaine, rapprochant ainsi FAIR de l&rsquo;AMI. Dans le prolongement des travaux ant\u00e9rieurs de FAIR sur le d\u00e9codage de la perception des images et de la parole \u00e0 partir de l&rsquo;activit\u00e9 c\u00e9r\u00e9brale, FAIR pr\u00e9sente des recherches qui permettent de d\u00e9coder avec succ\u00e8s la production de phrases \u00e0 partir d&rsquo;enregistrements c\u00e9r\u00e9braux non invasifs.\u00a0 L&rsquo;avancement de cette recherche majeure ne serait pas possible sans l&rsquo;\u00e9troite collaboration que FAIR favorise au sein de la communaut\u00e9 des neurosciences. Aujourd&rsquo;hui, Meta annonce un don de 2,2 millions de dollars \u00e0 la Fondation de l&rsquo;h\u00f4pital Rothschild pour soutenir ces travaux. L&rsquo;\u00e9quipe FAIR (Fundamental AI Research) de Meta se concentre sur la r\u00e9alisation de l\u2019Advanced Machine Intelligence (AMI) et son utilisation pour alimenter les produits et l&rsquo;innovation au b\u00e9n\u00e9fice de tous. Aujourd&rsquo;hui, nous sommes ravis de partager certaines de nos recherches et mod\u00e8les les plus r\u00e9cents qui soutiennent notre objectif d&rsquo;atteindre l\u2019AMI et notre engagement de longue date \u00e0 partager une science ouverte et reproductible. Meta PARTNR : faire progresser la collaboration homme-robot Imaginez un monde o\u00f9 les robots seraient des partenaires intuitifs de notre vie quotidienne. Ils font le m\u00e9nage, s&rsquo;occupent des livraisons et nous aident \u00e0 cuisiner, tout en comprenant nos besoins et en s&rsquo;adaptant \u00e0 l&rsquo;environnement dynamique d&rsquo;une maison en pleine effervescence. Aujourd&rsquo;hui, nous d\u00e9voilons PARTNR, un cadre de recherche qui nous rapproche de cette r\u00e9alit\u00e9 en alimentant la recherche sur la collaboration fluide entre l&rsquo;homme et le robot. La plupart des robots actuels fonctionnent de mani\u00e8re isol\u00e9e, ce qui limite leur potentiel en tant qu&rsquo;agents d&rsquo;assistance utiles du futur. Avec PARTNR, nous visons \u00e0 changer le statu quo en mettant \u00e0 disposition un benchmark, un ensemble de donn\u00e9es et un mod\u00e8le \u00e0 grande \u00e9chelle destin\u00e9s \u00e0 \u00e9tudier la collaboration homme-robot dans les t\u00e2ches quotidiennes. PARTNR fournit, en son sein, un m\u00e9canisme pour former les robots sociaux par le biais d&rsquo;un entra\u00eenement \u00e0 grande \u00e9chelle en simulation, suivi d&rsquo;un d\u00e9ploiement dans le monde r\u00e9el. PARTNR s&rsquo;appuie sur les travaux ant\u00e9rieurs \u00e0 fort impact partag\u00e9s avec la communaut\u00e9 open-source. Il s&rsquo;appuie sur les progr\u00e8s r\u00e9alis\u00e9s avec Habitat 1.0, qui a entra\u00een\u00e9 des robots virtuels \u00e0 naviguer dans des scans 3D de maisons r\u00e9elles, et Habitat 2.0, qui a entra\u00een\u00e9 des robots virtuels \u00e0 nettoyer des maisons en r\u00e9arrangeant des objets. Avec Habitat 3.0, un simulateur con\u00e7u pour former des mod\u00e8les de collaboration homme-robot, Meta a fait un nouveau bond en avant. Habitat 3.0 permet d&rsquo;entra\u00eener des mod\u00e8les de collaboration homme-robot \u00e0 grande \u00e9chelle, ce qui n&rsquo;est pas possible dans le monde r\u00e9el en raison de probl\u00e8mes de s\u00e9curit\u00e9 et d&rsquo;\u00e9volutivit\u00e9. Nous pr\u00e9sentons \u00e9galement le benchmark PARTNR, qui vise \u00e0 \u00e9valuer les robots collaboratifs et \u00e0 s&rsquo;assurer qu&rsquo;ils sont performants \u00e0 la fois dans des environnements simul\u00e9s et dans le monde r\u00e9el. Notre benchmark consiste en 100 000 t\u00e2ches, y compris des t\u00e2ches m\u00e9nag\u00e8res telles que le nettoyage de la vaisselle et des jouets. Nous publions \u00e9galement l&rsquo;ensemble de donn\u00e9es PARTNR, qui consiste en des d\u00e9monstrations humaines des t\u00e2ches PARTNR en simulation, et qui peut \u00eatre utilis\u00e9 pour l&rsquo;entra\u00eenement de mod\u00e8les d&rsquo;IA incarn\u00e9e. Le benchmark PARTNR met en \u00e9vidence les principales lacunes des mod\u00e8les existants, telles qu&rsquo;une mauvaise coordination et des \u00e9checs dans le suivi des t\u00e2ches et la r\u00e9cup\u00e9ration des erreurs. Nous encourageons la communaut\u00e9 universitaire \u00e0 continuer \u00e0 s&rsquo;appuyer sur notre travail et \u00e0 alimenter les progr\u00e8s dans le domaine de la collaboration homme-robot. Nous avons \u00e9galement progress\u00e9 dans la mise au point de mod\u00e8les capables de collaborer avec des humains, \u00e0 la fois en simulation et dans le monde r\u00e9el. En utilisant des donn\u00e9es de simulation \u00e0 grande \u00e9chelle, nous avons entra\u00een\u00e9 un mod\u00e8le de planification \u00e0 grande \u00e9chelle, qui surpasse les mod\u00e8les de base de l&rsquo;\u00e9tat de l&rsquo;art en termes de vitesse et de performance. Ce mod\u00e8le multiplie par 8,6 la vitesse tout en rendant les humains 24 % plus efficaces dans l&rsquo;accomplissement des t\u00e2ches par rapport aux mod\u00e8les existants les plus performants. Il est capable d&rsquo;interpr\u00e9ter des instructions \u00e0 long terme, de d\u00e9composer des t\u00e2ches complexes en \u00e9tapes exploitables et de fournir une assistance significative aux utilisateurs humains. Nous avons d\u00e9ploy\u00e9, avec succ\u00e8s, ce mod\u00e8le sur un robot Spot de Boston Dynamics, d\u00e9montrant ainsi sa capacit\u00e9 \u00e0 travailler aux c\u00f4t\u00e9s des humains dans le monde r\u00e9el. Pour renforcer la transparence et la confiance, nous avons \u00e9galement mis au point une interface de r\u00e9alit\u00e9 mixte qui visualise les actions et les processus de r\u00e9flexion du robot, offrant ainsi une fen\u00eatre sur sa prise de d\u00e9cision. Le potentiel d&rsquo;innovation et de d\u00e9veloppement dans le domaine de la collaboration homme-robot est immense. Avec PARTNR, nous souhaitons r\u00e9imaginer les robots comme de futurs partenaires, et non comme de simples agents, et relancer la recherche dans ce domaine passionnant. T\u00e9l\u00e9charger le code T\u00e9l\u00e9charger le jeu de donn\u00e9es Lire l&rsquo;article de recherche D\u00e9mocratiser les technologies du langage avec l\u2019UNESCO Le langage est un \u00e9l\u00e9ment fondamental de notre identit\u00e9, et pourtant de nombreuses personnes dans le monde sont exclues de la conversation num\u00e9rique parce que leur langue n&rsquo;est pas prise en charge par la technologie. Pour combler ce foss\u00e9, nous invitons la communaut\u00e9 linguistique \u00e0 s&rsquo;associer \u00e0 nous pour collaborer \u00e0 l&rsquo;am\u00e9lioration et \u00e0 l&rsquo;\u00e9largissement de la couverture des technologies linguistiques open-source de Meta, y compris la reconnaissance vocale et la traduction automatique. Un programme de partenariat pour les technologies linguistiques Nous recherchons des partenaires pour collaborer avec nous \u00e0 l&rsquo;avancement des technologies linguistiques, notamment la reconnaissance vocale et la traduction automatique. Nos efforts sont particuli\u00e8rement ax\u00e9s sur les langues mal desservies, en soutien au travail de l&rsquo;UNESCO et dans le cadre de la contribution du secteur priv\u00e9 \u00e0 l&rsquo;autonomisation num\u00e9rique dans le cadre de la D\u00e9cennie internationale des langues autochtones. Nous recherchons des partenaires qui peuvent fournir plus de 10 heures d&rsquo;enregistrements vocaux avec transcriptions, de grands corpus de textes \u00e9crits (plus de 200 phrases) et des ensembles de phrases traduites dans diverses langues. Les partenaires travailleront avec nos \u00e9quipes pour aider \u00e0 int\u00e9grer ces langues dans des mod\u00e8les de reconnaissance vocale et de traduction automatique pilot\u00e9s par l&rsquo;IA, que nous avons l&rsquo;intention de mettre en open-source et de mettre gratuitement \u00e0 la disposition de la communaut\u00e9. En tant que partenaire, vous aurez \u00e9galement acc\u00e8s \u00e0 des ateliers dirig\u00e9s par nos \u00e9quipes de recherche, o\u00f9 vous apprendrez comment exploiter nos mod\u00e8les open-source pour construire des technologies linguistiques. Nous sommes heureux que le gouvernement du Nunavut, au Canada, ait accept\u00e9 de travailler avec nous sur cette initiative passionnante. Pour participer \u00e0 notre programme de partenariat en technologies langagi\u00e8res, veuillez remplir ce formulaire d&rsquo;int\u00e9r\u00eat. Benchmark de traduction automatique open-source En plus de notre programme de partenariat pour les technologies linguistiques, nous lan\u00e7ons un benchmark de traduction automatique open-source, compos\u00e9 de phrases soigneusement r\u00e9dig\u00e9es par des experts linguistiques, afin de mettre en valeur la diversit\u00e9 du langage humain. Nous vous invitons \u00e0 acc\u00e9der au benchmark, en 7 langues, et \u00e0 contribuer aux traductions qui seront mises \u00e0 la disposition des autres. Notre objectif est de construire collectivement un benchmark de traduction automatique multilingue sans pr\u00e9c\u00e9dent pour la communaut\u00e9. Pour en savoir plus, cliquez ici Notre engagement sur la capacit\u00e9 \u00e0 prendre en charge davantage de langues et \u00e0 d\u00e9velopper des technologies open-source pour celles-ci est continu. En 2022, nous avons lanc\u00e9 le projet No Language Left Behind (NLLB), un moteur de traduction automatique open-source r\u00e9volutionnaire qui a jet\u00e9 les bases de la recherche et du d\u00e9veloppement futurs dans ce domaine. Premier mod\u00e8le neuronal de traduction automatique pour de nombreuses langues, NLLB a ouvert la voie \u00e0 d&rsquo;autres innovations. Depuis son lancement, la communaut\u00e9 open-source s&rsquo;est appuy\u00e9e sur ce travail, \u00e9tendant ses capacit\u00e9s pour prendre en charge des dizaines de langues suppl\u00e9mentaires. Nous sommes \u00e9galement heureux que l&rsquo;UNESCO et Hugging Face aient collabor\u00e9 avec nous pour construire un traducteur linguistique bas\u00e9 sur NLLB, que nous avons annonc\u00e9 pendant la semaine de l&rsquo;Assembl\u00e9e g\u00e9n\u00e9rale des Nations unies en septembre dernier. Alors que nous continuons \u00e0 d\u00e9velopper cette technologie, nous sommes ravis de collaborer avec les communaut\u00e9s linguistiques pour am\u00e9liorer et d\u00e9velopper la traduction automatique et d&rsquo;autres technologies linguistiques. Pour soutenir l&rsquo;autonomisation num\u00e9rique, qui est un domaine th\u00e9matique cl\u00e9 du plan d&rsquo;action mondial de la D\u00e9cennie internationale des langues autochtones, nous avons lanc\u00e9 le projet Massively Multilingual Speech (MMS), qui \u00e9tend la transcription audio \u00e0 plus de 1 100 langues. Depuis lors, nous avons continu\u00e9 d&rsquo;am\u00e9liorer et d&rsquo;\u00e9tendre ses capacit\u00e9s, notamment en ajoutant la reconnaissance vocale \u00ab zero-shot \u00bb, qui permet au mod\u00e8le de transcrire de l&rsquo;audio dans des langues qu&rsquo;il n&rsquo;a jamais vues auparavant, sans formation pr\u00e9alable. Ces technologies ont des r\u00e9percussions importantes sur le soutien linguistique et l&rsquo;accessibilit\u00e9, en particulier pour les communaut\u00e9s mal desservies. En encourageant la mise en \u0153uvre de la D\u00e9cennie internationale des langues autochtones, nous visons \u00e0 relever les d\u00e9fis pos\u00e9s par la prolif\u00e9ration des mod\u00e8les de langue anglaise et \u00e0 \u0153uvrer en faveur d&rsquo;une repr\u00e9sentation \u00e9gale de toutes les langues, contribuant ainsi \u00e0 la r\u00e9alisation des objectifs de d\u00e9veloppement durable des Nations unies. Outre son impact potentiel sur le soutien linguistique et l&rsquo;accessibilit\u00e9, notre travail a \u00e9galement des implications plus larges pour le d\u00e9veloppement de l&rsquo;AMI. En travaillant sur des probl\u00e8mes multilingues et des langues mal desservies, le mod\u00e8le d\u00e9montre sa capacit\u00e9 \u00e0 apprendre \u00e0 partir de donn\u00e9es minimales. Ces d\u00e9veloppements marquent une \u00e9tape cruciale vers la cr\u00e9ation de syst\u00e8mes intelligents capables de s&rsquo;adapter \u00e0 de nouvelles situations et d&rsquo;apprendre par l&rsquo;exp\u00e9rience. \u00c0 terme, notre objectif est de cr\u00e9er des syst\u00e8mes intelligents capables de comprendre les besoins humains complexes et d&rsquo;y r\u00e9pondre, ind\u00e9pendamment de la langue ou du contexte culturel, et de mettre au point des technologies qui int\u00e8grent les langues et les cultures de notre monde. Utiliser l&rsquo;IA pour d\u00e9coder le langage \u00e0 partir du cerveau et faire progresser notre compr\u00e9hension de la communication humaine Au cours de la derni\u00e8re d\u00e9cennie, le laboratoire de recherche en intelligence artificielle de Meta \u00e0 Paris, FAIR, a \u00e9t\u00e9 \u00e0 l&rsquo;avant-garde de l&rsquo;avancement de la recherche scientifique. Nous avons r\u00e9alis\u00e9 des perc\u00e9es dans les domaines de la m\u00e9decine, de la science du climat et de la conservation, et nous avons respect\u00e9 notre engagement en faveur d&rsquo;une science ouverte et reproductible. Pour la prochaine d\u00e9cennie, notre objectif est de parvenir \u00e0 l&rsquo;Advanced Machine Intelligence (AMI) et de l&rsquo;utiliser pour alimenter les produits et l&rsquo;innovation au b\u00e9n\u00e9fice de tous. En collaboration avec le Centre basque sur la cognition, le cerveau et le langage (BCBL), un centre de recherche interdisciplinaire de premier plan \u00e0 Saint-S\u00e9bastien, en Espagne, nous sommes heureux de d\u00e9voiler aujourd\u2019hui deux avanc\u00e9es qui montrent comment l&rsquo;IA peut aider \u00e0 faire progresser notre compr\u00e9hension de l&rsquo;intelligence humaine, nous rapprochant ainsi de l&rsquo;AMI. Dans le prolongement de nos travaux ant\u00e9rieurs sur le d\u00e9codage de la perception des images et de la parole \u00e0 partir de l&rsquo;activit\u00e9 c\u00e9r\u00e9brale, nous pr\u00e9sentons des recherches qui d\u00e9codent avec succ\u00e8s la production de phrases \u00e0 partir d&rsquo;enregistrements c\u00e9r\u00e9braux non invasifs, d\u00e9codant avec pr\u00e9cision jusqu&rsquo;\u00e0 80 % des caract\u00e8res et reconstituant ainsi souvent des phrases enti\u00e8res uniquement \u00e0 partir de signaux c\u00e9r\u00e9braux. Dans une deuxi\u00e8me \u00e9tude, nous expliquons en d\u00e9tail comment l&rsquo;IA peut \u00e9galement aider \u00e0 comprendre ces signaux c\u00e9r\u00e9braux, et nous clarifions la mani\u00e8re dont le cerveau transforme efficacement les pens\u00e9es en une s\u00e9quence de mots. L&rsquo;avancement de cette importante recherche ne serait pas possible sans l&rsquo;\u00e9troite collaboration que nous avons favoris\u00e9e au sein de la communaut\u00e9 des neurosciences. Aujourd&rsquo;hui, Meta annonce un don de 2,2 millions de dollars \u00e0 la Fondation de l&rsquo;h\u00f4pital Rothschild pour soutenir ces travaux. Nous continuons ainsi \u00e0 travailler en \u00e9troite collaboration avec certains des principaux instituts de recherche en Europe, notamment NeuroSpin (CEA), l&rsquo;INRIA et l&rsquo;ENS PSL. Ces partenariats continueront d&rsquo;\u00eatre importants pour nous, car nous travaillons ensemble pour explorer comment ces avanc\u00e9es peuvent faire la diff\u00e9rence dans le monde r\u00e9el et, en fin de compte, am\u00e9liorer la vie des gens. L&rsquo;IA pour d\u00e9coder le langage \u00e0 partir d&rsquo;enregistrements c\u00e9r\u00e9braux non invasifs Chaque ann\u00e9e, des millions de personnes souffrent de l\u00e9sions c\u00e9r\u00e9brales qui peuvent les emp\u00eacher de communiquer. Les approches actuelles montrent que la communication peut \u00eatre r\u00e9tablie gr\u00e2ce \u00e0 une neuroproth\u00e8se qui transmet des signaux de commande \u00e0 un d\u00e9codeur d&rsquo;IA. Cependant, les techniques invasives d&rsquo;enregistrement du cerveau, telles que l&rsquo;\u00e9lectroenc\u00e9phalographie st\u00e9r\u00e9otaxique et l&rsquo;\u00e9lectrocorticographie, n\u00e9cessitent des interventions neurochirurgicales et sont difficiles \u00e0 mettre en \u0153uvre. Jusqu&rsquo;\u00e0 pr\u00e9sent, l&rsquo;utilisation d&rsquo;approches non invasives a \u00e9t\u00e9 limit\u00e9e par la complexit\u00e9 du bruit des signaux qu&rsquo;elles enregistrent. Pour notre premi\u00e8re \u00e9tude, nous utilisons \u00e0 la fois la\u00a0magn\u00e9toenc\u00e9phalographie (MEG) et l&rsquo;\u00e9lectroenc\u00e9phalographie (EEG)&#8211; des dispositifs non invasifs qui mesurent les champs magn\u00e9tiques et \u00e9lectriques provoqu\u00e9s par l&rsquo;activit\u00e9 neuronale &#8211; pour enregistrer, au BCBL, 35 volontaires sains pendant qu&rsquo;ils tapent des phrases. Nous entra\u00eenons ensuite un nouveau mod\u00e8le d&rsquo;IA \u00e0 reconstruire la phrase uniquement \u00e0 partir des signaux c\u00e9r\u00e9braux. Sur de nouvelles phrases, notre mod\u00e8le d&rsquo;IA d\u00e9code jusqu&rsquo;\u00e0 80% des caract\u00e8res tap\u00e9s par les participants enregistr\u00e9s avec le MEG, soit au moins deux fois mieux que ce que l&rsquo;on peut obtenir avec le syst\u00e8me EEG classique. Cette recherche pourrait ouvrir une nouvelle voie pour les interfaces cerveau-ordinateur non invasives afin d&rsquo;aider \u00e0 restaurer la communication pour les personnes ayant perdu la capacit\u00e9 de parler, mais plusieurs d\u00e9fis importants restent \u00e0 relever avant que cette approche puisse \u00eatre appliqu\u00e9e dans des contextes cliniques. Le premier est li\u00e9 aux performances : les performances de d\u00e9codage sont encore imparfaites. Le second est plus pratique : la MEG exige que les sujets se trouvent dans une pi\u00e8ce blind\u00e9e magn\u00e9tiquement et qu&rsquo;ils restent immobiles. Enfin, bien que cette recherche ait \u00e9t\u00e9 effectu\u00e9e sur des volontaires sains, des travaux futurs devront \u00eatre men\u00e9s afin d&rsquo;explorer les avantages de cette approche pour les personnes souffrant de l\u00e9sions c\u00e9r\u00e9brales. Utiliser l&rsquo;IA pour comprendre comment le cerveau forme le langage Nous d\u00e9voilons \u00e9galement une avanc\u00e9e dans la compr\u00e9hension des m\u00e9canismes neuronaux qui coordonnent la production du langage dans le cerveau humain. L&rsquo;\u00e9tude du cerveau pendant la parole s&rsquo;est toujours r\u00e9v\u00e9l\u00e9e extr\u00eamement difficile pour les neurosciences, en partie \u00e0 cause d&rsquo;un simple probl\u00e8me technique : le fait de bouger la bouche et la langue corrompt fortement les signaux de neuro-imagerie. Pour \u00e9tudier comment le cerveau transforme les pens\u00e9es en s\u00e9quences complexes d&rsquo;actions motrices, nous avons utilis\u00e9 l&rsquo;IA pour aider \u00e0 interpr\u00e9ter les signaux MEG pendant que les participants tapaient des phrases. En prenant 1 000 clich\u00e9s du cerveau par seconde, nous pouvons d\u00e9terminer le moment pr\u00e9cis o\u00f9 les pens\u00e9es sont transform\u00e9es en mots, en syllabes et m\u00eame en lettres individuelles. Notre \u00e9tude montre que le cerveau g\u00e9n\u00e8re une s\u00e9quence de repr\u00e9sentations qui partent du niveau de repr\u00e9sentation le plus abstrait &#8211; le sens d&rsquo;une phrase &#8211; et les transforme progressivement en une myriade d&rsquo;actions, telles que le mouvement r\u00e9el du doigt sur le clavier. Fait important, l&rsquo;\u00e9tude r\u00e9v\u00e8le \u00e9galement comment le cerveau repr\u00e9sente de mani\u00e8re coh\u00e9rente et simultan\u00e9e des mots et des actions successifs. Nos r\u00e9sultats montrent que le cerveau utilise un \u00ab code neuronal dynamique \u00bb, un m\u00e9canisme neuronal sp\u00e9cial qui encha\u00eene des repr\u00e9sentations successives tout en maintenant chacune d&rsquo;entre elles sur de longues p\u00e9riodes. D\u00e9crypter le code neuronal du langage reste l&rsquo;un des principaux d\u00e9fis de l&rsquo;IA et des neurosciences. La capacit\u00e9 de langage, propre \u00e0 l&rsquo;homme, a dot\u00e9 notre esp\u00e8ce d&rsquo;une aptitude \u00e0 raisonner, \u00e0 apprendre et \u00e0 accumuler des connaissances comme aucun autre animal sur la plan\u00e8te. Comprendre son architecture neuronale et ses principes de calcul est donc une voie importante pour d\u00e9velopper l&rsquo;AMI. Permettre des avanc\u00e9es dans le domaine de la sant\u00e9 gr\u00e2ce \u00e0 l&rsquo;IA open-source Chez Meta, nous sommes dans une position unique pour aider \u00e0 r\u00e9soudre certains des plus grands d\u00e9fis mondiaux gr\u00e2ce \u00e0 l&rsquo;IA. Notre engagement en faveur de l&rsquo;open source a permis \u00e0 la communaut\u00e9 de l&rsquo;IA de s&rsquo;appuyer sur nos mod\u00e8les pour r\u00e9aliser ses propres perc\u00e9es. Le mois dernier, nous avons expliqu\u00e9 comment BrightHeart, une entreprise bas\u00e9e en France, utilise DINOv2 dans le cadre de son logiciel d&rsquo;IA pour aider les cliniciens \u00e0 identifier ou \u00e0 \u00e9carter les signes \u00e9vocateurs de malformations cardiaques cong\u00e9nitales dans les \u00e9chographies du c\u0153ur du f\u0153tus. L&rsquo;ann\u00e9e derni\u00e8re, BrightHeart a obtenu l&rsquo;autorisation 510(k) de la FDA pour son logiciel, qu&rsquo;elle attribue en partie aux contributions open source de Meta. Nous avons \u00e9galement expliqu\u00e9 comment Virgo, une entreprise bas\u00e9e aux \u00c9tats-Unis, utilise DINOv2 pour analyser des vid\u00e9os d&rsquo;endoscopie, obtenant des performances de pointe dans une large gamme de crit\u00e8res d&rsquo;\u00e9valuation de l&rsquo;IA pour l&rsquo;endoscopie, tels que la classification des rep\u00e8res anatomiques, l&rsquo;\u00e9valuation de la gravit\u00e9 de la maladie pour la colite ulc\u00e9reuse, et la segmentation des polypes. Alors que nous nous tournons vers les dix prochaines ann\u00e9es, il est passionnant de penser \u00e0 la mani\u00e8re dont les perc\u00e9es que nous avons partag\u00e9es aujourd&rsquo;hui pourraient b\u00e9n\u00e9ficier au plus grand nombre. Nous sommes impatients de poursuivre les conversations importantes que nous avons avec la communaut\u00e9 alors que nous allons de l&rsquo;avant &#8211; ensemble &#8211; pour relever certains des plus grands d\u00e9fis de la soci\u00e9t\u00e9. Articles de recherche de Jean-R\u00e9mi King : Brain-to-Text Decoding: A Non-invasive Approach via Typing From Thought to Action: How a Hierarchy of Neural Dynamics Supports Language Production Meta Audiobox Aesthetics : une nouvelle norme pour le traitement audio Traditionnellement, la mesure de l&rsquo;esth\u00e9tique audio est une t\u00e2che complexe en raison de sa nature subjective. Contrairement aux mesures objectives telles que la r\u00e9ponse en fr\u00e9quence ou le rapport signal\/bruit, l&rsquo;esth\u00e9tique audio n\u00e9cessite une compr\u00e9hension nuanc\u00e9e de la perception humaine. Aujourd&rsquo;hui, nous sommes ravis de rendre disponible Meta Audiobox Aesthetics en open-source, un mod\u00e8le qui permet l&rsquo;\u00e9valuation automatique de l&rsquo;esth\u00e9tique audio, en fournissant une \u00e9valuation compl\u00e8te de la qualit\u00e9 audio \u00e0 travers la parole, la musique et le son. Le mod\u00e8le fait des pr\u00e9dictions qui analysent l&rsquo;appr\u00e9ciation du contenu, l&rsquo;utilit\u00e9 du contenu, la complexit\u00e9 de la production et la qualit\u00e9 de la production. Relever les d\u00e9fis de l&rsquo;\u00e9valuation audio subjective permet d&rsquo;am\u00e9liorer la qualit\u00e9 du contenu audio et de d\u00e9velopper des mod\u00e8les audio g\u00e9n\u00e9ratifs plus avanc\u00e9s. Les m\u00e9thodes d&rsquo;\u00e9valuation existantes fournissent souvent des r\u00e9sultats sp\u00e9cifiques \u00e0 une sous-modalit\u00e9 avec des instructions vagues qui sont difficiles \u00e0 interpr\u00e9ter. Audiobox Aesthetics surmonte ces limites en proposant une approche structur\u00e9e de l&rsquo;\u00e9valuation audio. Pour d\u00e9velopper Audiobox Aesthetics, un protocole d&rsquo;annotation complet a \u00e9t\u00e9 con\u00e7u, ce qui a permis de collecter 562 heures de donn\u00e9es esth\u00e9tiques audio. Notre ensemble de donn\u00e9es a \u00e9t\u00e9 annot\u00e9 par des \u00e9valuateurs professionnels afin de garantir la qualit\u00e9 des donn\u00e9es. Le processus d&rsquo;annotation a consist\u00e9 \u00e0 \u00e9valuer les \u00e9chantillons audio sur une \u00e9chelle de 1 \u00e0 10 en fonction de quatre param\u00e8tres d\u00e9finis : qualit\u00e9 de la production, complexit\u00e9 de la production, plaisir du contenu et utilit\u00e9 du contenu. Ce processus a permis la cr\u00e9ation d&rsquo;un score esth\u00e9tique unifi\u00e9 calibr\u00e9 sur diff\u00e9rentes modalit\u00e9s audio, garantissant la coh\u00e9rence et la fiabilit\u00e9 des pr\u00e9dictions du mod\u00e8le. Des exp\u00e9riences approfondies ont montr\u00e9 que l&rsquo;Audiobox Aesthetics surpassait les travaux ant\u00e9rieurs avec une corr\u00e9lation plus \u00e9lev\u00e9e avec le jugement humain, ce qui prouve son efficacit\u00e9 en tant que m\u00e9trique automatique pour l&rsquo;\u00e9valuation de la qualit\u00e9. Le mod\u00e8le, qui est publi\u00e9 sous licence CC-BY 4.0, am\u00e9liore \u00e9galement la qualit\u00e9 de divers mod\u00e8les de g\u00e9n\u00e9ration audio gr\u00e2ce au filtrage des donn\u00e9es et \u00e0 l&rsquo;incitation \u00e0 la qualit\u00e9, ce qui permet d&rsquo;obtenir des am\u00e9liorations significatives dans les applications de synth\u00e8se vocale, de synth\u00e8se musicale et de synth\u00e8se sonore. Audiobox Aesthetics a d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9 pour am\u00e9liorer Meta Movie Gen, ce qui a permis de faciliter la cr\u00e9ation de contenus multim\u00e9dias de haute qualit\u00e9, et de stimuler le progr\u00e8s et l&rsquo;innovation dans l&rsquo;industrie. Nous esp\u00e9rons que ce travail sera utilis\u00e9 pour am\u00e9liorer la qualit\u00e9 du contenu audio et soutenir le d\u00e9veloppement de mod\u00e8les audio g\u00e9n\u00e9ratifs plus sophistiqu\u00e9s. T\u00e9l\u00e9chargez les poids et le code du mod\u00e8le Lire l&rsquo;article de recherche Transcriptions des messages vocaux de WhatsApp : d\u00e9bloquer une communication fluide Alors que nous continuons \u00e0 construire l&rsquo;avenir de la connexion humaine et de la technologie qui la rend possible, nous avons lanc\u00e9 une mise \u00e0 jour sur WhatsApp pour rendre la communication encore plus transparente. Les transcriptions de messages vocaux utilisent une technologie avanc\u00e9e sur l&rsquo;appareil pour g\u00e9n\u00e9rer des transcriptions de messages audio localement et en toute s\u00e9curit\u00e9, garantissant que les messages vocaux personnels sont crypt\u00e9s de bout en bout. Actuellement, cette fonctionnalit\u00e9 prend en charge l&rsquo;anglais, l&rsquo;espagnol, le portugais et le russe, \u00e9largissant ainsi sa port\u00e9e aupr\u00e8s de diverses communaut\u00e9s. Le d\u00e9veloppement des transcriptions de messages vocaux a \u00e9t\u00e9 rendu possible par l&rsquo;exploitation des r\u00e9sultats de la recherche Meta FAIR Seamless Communication. En tirant parti de cette recherche, WhatsApp peut continuer \u00e0 innover et \u00e0 am\u00e9liorer ses services, ce qui lui permettra de progresser vers l&rsquo;objectif de l&rsquo;AMI avec des capacit\u00e9s multilingues. Nous avons largement explor\u00e9, d\u00e9velopp\u00e9 et partag\u00e9 les meilleures pratiques pour l&rsquo;affinage des mod\u00e8les avec la communaut\u00e9 des chercheurs pour les versions publiques des mod\u00e8les Seamless M4T. Ces techniques ont \u00e9t\u00e9 appliqu\u00e9es et am\u00e9lior\u00e9es, ainsi que la distillation, pour les adapter au genre des messages vocaux WhatsApp. Cette avanc\u00e9e permet non seulement d&rsquo;am\u00e9liorer l&rsquo;exp\u00e9rience de l&rsquo;utilisateur tout en prot\u00e9geant la messagerie priv\u00e9e, mais elle ouvre \u00e9galement la voie \u00e0 de futures innovations dans le domaine de la communication multilingue.","thumbnail_url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=960"}