<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>&#xC0; propos de Meta</provider_name><provider_url>https://about.fb.com/fr</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/fr</author_url><title>Faire progresser l'intelligence artificielle gr&#xE2;ce &#xE0; une recherche centr&#xE9;e sur l'homme | &#xC0; propos de Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="jSpQ419Ulx"&gt;&lt;a href="https://about.fb.com/fr/news/2025/02/faire-progresser-lintelligence-artificielle/"&gt;Faire progresser l&rsquo;intelligence artificielle gr&#xE2;ce &#xE0; une recherche centr&#xE9;e sur l&rsquo;homme&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/fr/news/2025/02/faire-progresser-lintelligence-artificielle/embed/#?secret=jSpQ419Ulx" width="600" height="338" title="&#xAB;&#xA0;Faire progresser l&rsquo;intelligence artificielle gr&#xE2;ce &#xE0; une recherche centr&#xE9;e sur l&rsquo;homme&#xA0;&#xBB; &#x2014; &#xC0; propos de Meta" data-secret="jSpQ419Ulx" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/fr/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><description>Les annonces : Le laboratoire de recherche fondamentale en intelligence artificielle (FAIR) de Meta partage de nouveaux artefacts de recherche qui soulignent notre engagement en faveur de l&rsquo;Advanced Machine Intelligence (AMI) et l&rsquo;impact des technologies open-source sur l&rsquo;avancement de l&rsquo;IA. En partageant nos recherches, nous visons &#xE0; cr&#xE9;er des syst&#xE8;mes intelligents capables de comprendre les besoins humains complexes et d&rsquo;y r&#xE9;pondre, afin d&rsquo;am&#xE9;liorer notre vie quotidienne. Le travail que nous partageons comprend l&rsquo;ensemble de donn&#xE9;es et le benchmark Meta PARTNR, visant &#xE0; construire des robots socialement intelligents qui peuvent aider les gens dans les t&#xE2;ches quotidiennes, telles que collecter une livraison &#xE0; la porte d&rsquo;entr&#xE9;e ou aider &#xE0; d&rsquo;autres t&#xE2;ches m&#xE9;nag&#xE8;res. Dans le cadre du travail continu de FAIR avec l&rsquo;UNESCO visant &#xE0; promouvoir la diversit&#xE9; linguistique dans la technologie, les collaborateurs sont invit&#xE9;s &#xE0; se joindre &#xE0; nous pour am&#xE9;liorer et d&#xE9;velopper la traduction automatique et les technologies linguistiques afin de promouvoir la diversit&#xE9; linguistique et l&rsquo;inclusion dans le monde num&#xE9;rique. Nous partageons &#xE9;galement les avanc&#xE9;es en mati&#xE8;re de traitement audio, de communication multilingue et de technologies linguistiques, autant de d&#xE9;veloppements cruciaux sur la voie de la r&#xE9;alisation de l&rsquo;AMI. En collaboration avec le Centre basque de la cognition, du cerveau et du langage (BCBL), FAIR d&#xE9;voile deux avanc&#xE9;es qui montrent comment l&rsquo;IA peut contribuer &#xE0; faire progresser notre compr&#xE9;hension de l&rsquo;intelligence humaine, rapprochant ainsi FAIR de l&rsquo;AMI. Dans le prolongement des travaux ant&#xE9;rieurs de FAIR sur le d&#xE9;codage de la perception des images et de la parole &#xE0; partir de l&rsquo;activit&#xE9; c&#xE9;r&#xE9;brale, FAIR pr&#xE9;sente des recherches qui permettent de d&#xE9;coder avec succ&#xE8;s la production de phrases &#xE0; partir d&rsquo;enregistrements c&#xE9;r&#xE9;braux non invasifs.&#xA0; L&rsquo;avancement de cette recherche majeure ne serait pas possible sans l&rsquo;&#xE9;troite collaboration que FAIR favorise au sein de la communaut&#xE9; des neurosciences. Aujourd&rsquo;hui, Meta annonce un don de 2,2 millions de dollars &#xE0; la Fondation de l&rsquo;h&#xF4;pital Rothschild pour soutenir ces travaux. L&rsquo;&#xE9;quipe FAIR (Fundamental AI Research) de Meta se concentre sur la r&#xE9;alisation de l&#x2019;Advanced Machine Intelligence (AMI) et son utilisation pour alimenter les produits et l&rsquo;innovation au b&#xE9;n&#xE9;fice de tous. Aujourd&rsquo;hui, nous sommes ravis de partager certaines de nos recherches et mod&#xE8;les les plus r&#xE9;cents qui soutiennent notre objectif d&rsquo;atteindre l&#x2019;AMI et notre engagement de longue date &#xE0; partager une science ouverte et reproductible. Meta PARTNR : faire progresser la collaboration homme-robot Imaginez un monde o&#xF9; les robots seraient des partenaires intuitifs de notre vie quotidienne. Ils font le m&#xE9;nage, s&rsquo;occupent des livraisons et nous aident &#xE0; cuisiner, tout en comprenant nos besoins et en s&rsquo;adaptant &#xE0; l&rsquo;environnement dynamique d&rsquo;une maison en pleine effervescence. Aujourd&rsquo;hui, nous d&#xE9;voilons PARTNR, un cadre de recherche qui nous rapproche de cette r&#xE9;alit&#xE9; en alimentant la recherche sur la collaboration fluide entre l&rsquo;homme et le robot. La plupart des robots actuels fonctionnent de mani&#xE8;re isol&#xE9;e, ce qui limite leur potentiel en tant qu&rsquo;agents d&rsquo;assistance utiles du futur. Avec PARTNR, nous visons &#xE0; changer le statu quo en mettant &#xE0; disposition un benchmark, un ensemble de donn&#xE9;es et un mod&#xE8;le &#xE0; grande &#xE9;chelle destin&#xE9;s &#xE0; &#xE9;tudier la collaboration homme-robot dans les t&#xE2;ches quotidiennes. PARTNR fournit, en son sein, un m&#xE9;canisme pour former les robots sociaux par le biais d&rsquo;un entra&#xEE;nement &#xE0; grande &#xE9;chelle en simulation, suivi d&rsquo;un d&#xE9;ploiement dans le monde r&#xE9;el. PARTNR s&rsquo;appuie sur les travaux ant&#xE9;rieurs &#xE0; fort impact partag&#xE9;s avec la communaut&#xE9; open-source. Il s&rsquo;appuie sur les progr&#xE8;s r&#xE9;alis&#xE9;s avec Habitat 1.0, qui a entra&#xEE;n&#xE9; des robots virtuels &#xE0; naviguer dans des scans 3D de maisons r&#xE9;elles, et Habitat 2.0, qui a entra&#xEE;n&#xE9; des robots virtuels &#xE0; nettoyer des maisons en r&#xE9;arrangeant des objets. Avec Habitat 3.0, un simulateur con&#xE7;u pour former des mod&#xE8;les de collaboration homme-robot, Meta a fait un nouveau bond en avant. Habitat 3.0 permet d&rsquo;entra&#xEE;ner des mod&#xE8;les de collaboration homme-robot &#xE0; grande &#xE9;chelle, ce qui n&rsquo;est pas possible dans le monde r&#xE9;el en raison de probl&#xE8;mes de s&#xE9;curit&#xE9; et d&rsquo;&#xE9;volutivit&#xE9;. Nous pr&#xE9;sentons &#xE9;galement le benchmark PARTNR, qui vise &#xE0; &#xE9;valuer les robots collaboratifs et &#xE0; s&rsquo;assurer qu&rsquo;ils sont performants &#xE0; la fois dans des environnements simul&#xE9;s et dans le monde r&#xE9;el. Notre benchmark consiste en 100 000 t&#xE2;ches, y compris des t&#xE2;ches m&#xE9;nag&#xE8;res telles que le nettoyage de la vaisselle et des jouets. Nous publions &#xE9;galement l&rsquo;ensemble de donn&#xE9;es PARTNR, qui consiste en des d&#xE9;monstrations humaines des t&#xE2;ches PARTNR en simulation, et qui peut &#xEA;tre utilis&#xE9; pour l&rsquo;entra&#xEE;nement de mod&#xE8;les d&rsquo;IA incarn&#xE9;e. Le benchmark PARTNR met en &#xE9;vidence les principales lacunes des mod&#xE8;les existants, telles qu&rsquo;une mauvaise coordination et des &#xE9;checs dans le suivi des t&#xE2;ches et la r&#xE9;cup&#xE9;ration des erreurs. Nous encourageons la communaut&#xE9; universitaire &#xE0; continuer &#xE0; s&rsquo;appuyer sur notre travail et &#xE0; alimenter les progr&#xE8;s dans le domaine de la collaboration homme-robot. Nous avons &#xE9;galement progress&#xE9; dans la mise au point de mod&#xE8;les capables de collaborer avec des humains, &#xE0; la fois en simulation et dans le monde r&#xE9;el. En utilisant des donn&#xE9;es de simulation &#xE0; grande &#xE9;chelle, nous avons entra&#xEE;n&#xE9; un mod&#xE8;le de planification &#xE0; grande &#xE9;chelle, qui surpasse les mod&#xE8;les de base de l&rsquo;&#xE9;tat de l&rsquo;art en termes de vitesse et de performance. Ce mod&#xE8;le multiplie par 8,6 la vitesse tout en rendant les humains 24 % plus efficaces dans l&rsquo;accomplissement des t&#xE2;ches par rapport aux mod&#xE8;les existants les plus performants. Il est capable d&rsquo;interpr&#xE9;ter des instructions &#xE0; long terme, de d&#xE9;composer des t&#xE2;ches complexes en &#xE9;tapes exploitables et de fournir une assistance significative aux utilisateurs humains. Nous avons d&#xE9;ploy&#xE9;, avec succ&#xE8;s, ce mod&#xE8;le sur un robot Spot de Boston Dynamics, d&#xE9;montrant ainsi sa capacit&#xE9; &#xE0; travailler aux c&#xF4;t&#xE9;s des humains dans le monde r&#xE9;el. Pour renforcer la transparence et la confiance, nous avons &#xE9;galement mis au point une interface de r&#xE9;alit&#xE9; mixte qui visualise les actions et les processus de r&#xE9;flexion du robot, offrant ainsi une fen&#xEA;tre sur sa prise de d&#xE9;cision. Le potentiel d&rsquo;innovation et de d&#xE9;veloppement dans le domaine de la collaboration homme-robot est immense. Avec PARTNR, nous souhaitons r&#xE9;imaginer les robots comme de futurs partenaires, et non comme de simples agents, et relancer la recherche dans ce domaine passionnant. T&#xE9;l&#xE9;charger le code T&#xE9;l&#xE9;charger le jeu de donn&#xE9;es Lire l&rsquo;article de recherche D&#xE9;mocratiser les technologies du langage avec l&#x2019;UNESCO Le langage est un &#xE9;l&#xE9;ment fondamental de notre identit&#xE9;, et pourtant de nombreuses personnes dans le monde sont exclues de la conversation num&#xE9;rique parce que leur langue n&rsquo;est pas prise en charge par la technologie. Pour combler ce foss&#xE9;, nous invitons la communaut&#xE9; linguistique &#xE0; s&rsquo;associer &#xE0; nous pour collaborer &#xE0; l&rsquo;am&#xE9;lioration et &#xE0; l&rsquo;&#xE9;largissement de la couverture des technologies linguistiques open-source de Meta, y compris la reconnaissance vocale et la traduction automatique. Un programme de partenariat pour les technologies linguistiques Nous recherchons des partenaires pour collaborer avec nous &#xE0; l&rsquo;avancement des technologies linguistiques, notamment la reconnaissance vocale et la traduction automatique. Nos efforts sont particuli&#xE8;rement ax&#xE9;s sur les langues mal desservies, en soutien au travail de l&rsquo;UNESCO et dans le cadre de la contribution du secteur priv&#xE9; &#xE0; l&rsquo;autonomisation num&#xE9;rique dans le cadre de la D&#xE9;cennie internationale des langues autochtones. Nous recherchons des partenaires qui peuvent fournir plus de 10 heures d&rsquo;enregistrements vocaux avec transcriptions, de grands corpus de textes &#xE9;crits (plus de 200 phrases) et des ensembles de phrases traduites dans diverses langues. Les partenaires travailleront avec nos &#xE9;quipes pour aider &#xE0; int&#xE9;grer ces langues dans des mod&#xE8;les de reconnaissance vocale et de traduction automatique pilot&#xE9;s par l&rsquo;IA, que nous avons l&rsquo;intention de mettre en open-source et de mettre gratuitement &#xE0; la disposition de la communaut&#xE9;. En tant que partenaire, vous aurez &#xE9;galement acc&#xE8;s &#xE0; des ateliers dirig&#xE9;s par nos &#xE9;quipes de recherche, o&#xF9; vous apprendrez comment exploiter nos mod&#xE8;les open-source pour construire des technologies linguistiques. Nous sommes heureux que le gouvernement du Nunavut, au Canada, ait accept&#xE9; de travailler avec nous sur cette initiative passionnante. Pour participer &#xE0; notre programme de partenariat en technologies langagi&#xE8;res, veuillez remplir ce formulaire d&rsquo;int&#xE9;r&#xEA;t. Benchmark de traduction automatique open-source En plus de notre programme de partenariat pour les technologies linguistiques, nous lan&#xE7;ons un benchmark de traduction automatique open-source, compos&#xE9; de phrases soigneusement r&#xE9;dig&#xE9;es par des experts linguistiques, afin de mettre en valeur la diversit&#xE9; du langage humain. Nous vous invitons &#xE0; acc&#xE9;der au benchmark, en 7 langues, et &#xE0; contribuer aux traductions qui seront mises &#xE0; la disposition des autres. Notre objectif est de construire collectivement un benchmark de traduction automatique multilingue sans pr&#xE9;c&#xE9;dent pour la communaut&#xE9;. Pour en savoir plus, cliquez ici Notre engagement sur la capacit&#xE9; &#xE0; prendre en charge davantage de langues et &#xE0; d&#xE9;velopper des technologies open-source pour celles-ci est continu. En 2022, nous avons lanc&#xE9; le projet No Language Left Behind (NLLB), un moteur de traduction automatique open-source r&#xE9;volutionnaire qui a jet&#xE9; les bases de la recherche et du d&#xE9;veloppement futurs dans ce domaine. Premier mod&#xE8;le neuronal de traduction automatique pour de nombreuses langues, NLLB a ouvert la voie &#xE0; d&rsquo;autres innovations. Depuis son lancement, la communaut&#xE9; open-source s&rsquo;est appuy&#xE9;e sur ce travail, &#xE9;tendant ses capacit&#xE9;s pour prendre en charge des dizaines de langues suppl&#xE9;mentaires. Nous sommes &#xE9;galement heureux que l&rsquo;UNESCO et Hugging Face aient collabor&#xE9; avec nous pour construire un traducteur linguistique bas&#xE9; sur NLLB, que nous avons annonc&#xE9; pendant la semaine de l&rsquo;Assembl&#xE9;e g&#xE9;n&#xE9;rale des Nations unies en septembre dernier. Alors que nous continuons &#xE0; d&#xE9;velopper cette technologie, nous sommes ravis de collaborer avec les communaut&#xE9;s linguistiques pour am&#xE9;liorer et d&#xE9;velopper la traduction automatique et d&rsquo;autres technologies linguistiques. Pour soutenir l&rsquo;autonomisation num&#xE9;rique, qui est un domaine th&#xE9;matique cl&#xE9; du plan d&rsquo;action mondial de la D&#xE9;cennie internationale des langues autochtones, nous avons lanc&#xE9; le projet Massively Multilingual Speech (MMS), qui &#xE9;tend la transcription audio &#xE0; plus de 1 100 langues. Depuis lors, nous avons continu&#xE9; d&rsquo;am&#xE9;liorer et d&rsquo;&#xE9;tendre ses capacit&#xE9;s, notamment en ajoutant la reconnaissance vocale &#xAB; zero-shot &#xBB;, qui permet au mod&#xE8;le de transcrire de l&rsquo;audio dans des langues qu&rsquo;il n&rsquo;a jamais vues auparavant, sans formation pr&#xE9;alable. Ces technologies ont des r&#xE9;percussions importantes sur le soutien linguistique et l&rsquo;accessibilit&#xE9;, en particulier pour les communaut&#xE9;s mal desservies. En encourageant la mise en &#x153;uvre de la D&#xE9;cennie internationale des langues autochtones, nous visons &#xE0; relever les d&#xE9;fis pos&#xE9;s par la prolif&#xE9;ration des mod&#xE8;les de langue anglaise et &#xE0; &#x153;uvrer en faveur d&rsquo;une repr&#xE9;sentation &#xE9;gale de toutes les langues, contribuant ainsi &#xE0; la r&#xE9;alisation des objectifs de d&#xE9;veloppement durable des Nations unies. Outre son impact potentiel sur le soutien linguistique et l&rsquo;accessibilit&#xE9;, notre travail a &#xE9;galement des implications plus larges pour le d&#xE9;veloppement de l&rsquo;AMI. En travaillant sur des probl&#xE8;mes multilingues et des langues mal desservies, le mod&#xE8;le d&#xE9;montre sa capacit&#xE9; &#xE0; apprendre &#xE0; partir de donn&#xE9;es minimales. Ces d&#xE9;veloppements marquent une &#xE9;tape cruciale vers la cr&#xE9;ation de syst&#xE8;mes intelligents capables de s&rsquo;adapter &#xE0; de nouvelles situations et d&rsquo;apprendre par l&rsquo;exp&#xE9;rience. &#xC0; terme, notre objectif est de cr&#xE9;er des syst&#xE8;mes intelligents capables de comprendre les besoins humains complexes et d&rsquo;y r&#xE9;pondre, ind&#xE9;pendamment de la langue ou du contexte culturel, et de mettre au point des technologies qui int&#xE8;grent les langues et les cultures de notre monde. Utiliser l&rsquo;IA pour d&#xE9;coder le langage &#xE0; partir du cerveau et faire progresser notre compr&#xE9;hension de la communication humaine Au cours de la derni&#xE8;re d&#xE9;cennie, le laboratoire de recherche en intelligence artificielle de Meta &#xE0; Paris, FAIR, a &#xE9;t&#xE9; &#xE0; l&rsquo;avant-garde de l&rsquo;avancement de la recherche scientifique. Nous avons r&#xE9;alis&#xE9; des perc&#xE9;es dans les domaines de la m&#xE9;decine, de la science du climat et de la conservation, et nous avons respect&#xE9; notre engagement en faveur d&rsquo;une science ouverte et reproductible. Pour la prochaine d&#xE9;cennie, notre objectif est de parvenir &#xE0; l&rsquo;Advanced Machine Intelligence (AMI) et de l&rsquo;utiliser pour alimenter les produits et l&rsquo;innovation au b&#xE9;n&#xE9;fice de tous. En collaboration avec le Centre basque sur la cognition, le cerveau et le langage (BCBL), un centre de recherche interdisciplinaire de premier plan &#xE0; Saint-S&#xE9;bastien, en Espagne, nous sommes heureux de d&#xE9;voiler aujourd&#x2019;hui deux avanc&#xE9;es qui montrent comment l&rsquo;IA peut aider &#xE0; faire progresser notre compr&#xE9;hension de l&rsquo;intelligence humaine, nous rapprochant ainsi de l&rsquo;AMI. Dans le prolongement de nos travaux ant&#xE9;rieurs sur le d&#xE9;codage de la perception des images et de la parole &#xE0; partir de l&rsquo;activit&#xE9; c&#xE9;r&#xE9;brale, nous pr&#xE9;sentons des recherches qui d&#xE9;codent avec succ&#xE8;s la production de phrases &#xE0; partir d&rsquo;enregistrements c&#xE9;r&#xE9;braux non invasifs, d&#xE9;codant avec pr&#xE9;cision jusqu&rsquo;&#xE0; 80 % des caract&#xE8;res et reconstituant ainsi souvent des phrases enti&#xE8;res uniquement &#xE0; partir de signaux c&#xE9;r&#xE9;braux. Dans une deuxi&#xE8;me &#xE9;tude, nous expliquons en d&#xE9;tail comment l&rsquo;IA peut &#xE9;galement aider &#xE0; comprendre ces signaux c&#xE9;r&#xE9;braux, et nous clarifions la mani&#xE8;re dont le cerveau transforme efficacement les pens&#xE9;es en une s&#xE9;quence de mots. L&rsquo;avancement de cette importante recherche ne serait pas possible sans l&rsquo;&#xE9;troite collaboration que nous avons favoris&#xE9;e au sein de la communaut&#xE9; des neurosciences. Aujourd&rsquo;hui, Meta annonce un don de 2,2 millions de dollars &#xE0; la Fondation de l&rsquo;h&#xF4;pital Rothschild pour soutenir ces travaux. Nous continuons ainsi &#xE0; travailler en &#xE9;troite collaboration avec certains des principaux instituts de recherche en Europe, notamment NeuroSpin (CEA), l&rsquo;INRIA et l&rsquo;ENS PSL. Ces partenariats continueront d&rsquo;&#xEA;tre importants pour nous, car nous travaillons ensemble pour explorer comment ces avanc&#xE9;es peuvent faire la diff&#xE9;rence dans le monde r&#xE9;el et, en fin de compte, am&#xE9;liorer la vie des gens. L&rsquo;IA pour d&#xE9;coder le langage &#xE0; partir d&rsquo;enregistrements c&#xE9;r&#xE9;braux non invasifs Chaque ann&#xE9;e, des millions de personnes souffrent de l&#xE9;sions c&#xE9;r&#xE9;brales qui peuvent les emp&#xEA;cher de communiquer. Les approches actuelles montrent que la communication peut &#xEA;tre r&#xE9;tablie gr&#xE2;ce &#xE0; une neuroproth&#xE8;se qui transmet des signaux de commande &#xE0; un d&#xE9;codeur d&rsquo;IA. Cependant, les techniques invasives d&rsquo;enregistrement du cerveau, telles que l&rsquo;&#xE9;lectroenc&#xE9;phalographie st&#xE9;r&#xE9;otaxique et l&rsquo;&#xE9;lectrocorticographie, n&#xE9;cessitent des interventions neurochirurgicales et sont difficiles &#xE0; mettre en &#x153;uvre. Jusqu&rsquo;&#xE0; pr&#xE9;sent, l&rsquo;utilisation d&rsquo;approches non invasives a &#xE9;t&#xE9; limit&#xE9;e par la complexit&#xE9; du bruit des signaux qu&rsquo;elles enregistrent. Pour notre premi&#xE8;re &#xE9;tude, nous utilisons &#xE0; la fois la&#xA0;magn&#xE9;toenc&#xE9;phalographie (MEG) et l&rsquo;&#xE9;lectroenc&#xE9;phalographie (EEG)&#x2013; des dispositifs non invasifs qui mesurent les champs magn&#xE9;tiques et &#xE9;lectriques provoqu&#xE9;s par l&rsquo;activit&#xE9; neuronale &#x2013; pour enregistrer, au BCBL, 35 volontaires sains pendant qu&rsquo;ils tapent des phrases. Nous entra&#xEE;nons ensuite un nouveau mod&#xE8;le d&rsquo;IA &#xE0; reconstruire la phrase uniquement &#xE0; partir des signaux c&#xE9;r&#xE9;braux. Sur de nouvelles phrases, notre mod&#xE8;le d&rsquo;IA d&#xE9;code jusqu&rsquo;&#xE0; 80% des caract&#xE8;res tap&#xE9;s par les participants enregistr&#xE9;s avec le MEG, soit au moins deux fois mieux que ce que l&rsquo;on peut obtenir avec le syst&#xE8;me EEG classique. Cette recherche pourrait ouvrir une nouvelle voie pour les interfaces cerveau-ordinateur non invasives afin d&rsquo;aider &#xE0; restaurer la communication pour les personnes ayant perdu la capacit&#xE9; de parler, mais plusieurs d&#xE9;fis importants restent &#xE0; relever avant que cette approche puisse &#xEA;tre appliqu&#xE9;e dans des contextes cliniques. Le premier est li&#xE9; aux performances : les performances de d&#xE9;codage sont encore imparfaites. Le second est plus pratique : la MEG exige que les sujets se trouvent dans une pi&#xE8;ce blind&#xE9;e magn&#xE9;tiquement et qu&rsquo;ils restent immobiles. Enfin, bien que cette recherche ait &#xE9;t&#xE9; effectu&#xE9;e sur des volontaires sains, des travaux futurs devront &#xEA;tre men&#xE9;s afin d&rsquo;explorer les avantages de cette approche pour les personnes souffrant de l&#xE9;sions c&#xE9;r&#xE9;brales. Utiliser l&rsquo;IA pour comprendre comment le cerveau forme le langage Nous d&#xE9;voilons &#xE9;galement une avanc&#xE9;e dans la compr&#xE9;hension des m&#xE9;canismes neuronaux qui coordonnent la production du langage dans le cerveau humain. L&rsquo;&#xE9;tude du cerveau pendant la parole s&rsquo;est toujours r&#xE9;v&#xE9;l&#xE9;e extr&#xEA;mement difficile pour les neurosciences, en partie &#xE0; cause d&rsquo;un simple probl&#xE8;me technique : le fait de bouger la bouche et la langue corrompt fortement les signaux de neuro-imagerie. Pour &#xE9;tudier comment le cerveau transforme les pens&#xE9;es en s&#xE9;quences complexes d&rsquo;actions motrices, nous avons utilis&#xE9; l&rsquo;IA pour aider &#xE0; interpr&#xE9;ter les signaux MEG pendant que les participants tapaient des phrases. En prenant 1 000 clich&#xE9;s du cerveau par seconde, nous pouvons d&#xE9;terminer le moment pr&#xE9;cis o&#xF9; les pens&#xE9;es sont transform&#xE9;es en mots, en syllabes et m&#xEA;me en lettres individuelles. Notre &#xE9;tude montre que le cerveau g&#xE9;n&#xE8;re une s&#xE9;quence de repr&#xE9;sentations qui partent du niveau de repr&#xE9;sentation le plus abstrait &#x2013; le sens d&rsquo;une phrase &#x2013; et les transforme progressivement en une myriade d&rsquo;actions, telles que le mouvement r&#xE9;el du doigt sur le clavier. Fait important, l&rsquo;&#xE9;tude r&#xE9;v&#xE8;le &#xE9;galement comment le cerveau repr&#xE9;sente de mani&#xE8;re coh&#xE9;rente et simultan&#xE9;e des mots et des actions successifs. Nos r&#xE9;sultats montrent que le cerveau utilise un &#xAB; code neuronal dynamique &#xBB;, un m&#xE9;canisme neuronal sp&#xE9;cial qui encha&#xEE;ne des repr&#xE9;sentations successives tout en maintenant chacune d&rsquo;entre elles sur de longues p&#xE9;riodes. D&#xE9;crypter le code neuronal du langage reste l&rsquo;un des principaux d&#xE9;fis de l&rsquo;IA et des neurosciences. La capacit&#xE9; de langage, propre &#xE0; l&rsquo;homme, a dot&#xE9; notre esp&#xE8;ce d&rsquo;une aptitude &#xE0; raisonner, &#xE0; apprendre et &#xE0; accumuler des connaissances comme aucun autre animal sur la plan&#xE8;te. Comprendre son architecture neuronale et ses principes de calcul est donc une voie importante pour d&#xE9;velopper l&rsquo;AMI. Permettre des avanc&#xE9;es dans le domaine de la sant&#xE9; gr&#xE2;ce &#xE0; l&rsquo;IA open-source Chez Meta, nous sommes dans une position unique pour aider &#xE0; r&#xE9;soudre certains des plus grands d&#xE9;fis mondiaux gr&#xE2;ce &#xE0; l&rsquo;IA. Notre engagement en faveur de l&rsquo;open source a permis &#xE0; la communaut&#xE9; de l&rsquo;IA de s&rsquo;appuyer sur nos mod&#xE8;les pour r&#xE9;aliser ses propres perc&#xE9;es. Le mois dernier, nous avons expliqu&#xE9; comment BrightHeart, une entreprise bas&#xE9;e en France, utilise DINOv2 dans le cadre de son logiciel d&rsquo;IA pour aider les cliniciens &#xE0; identifier ou &#xE0; &#xE9;carter les signes &#xE9;vocateurs de malformations cardiaques cong&#xE9;nitales dans les &#xE9;chographies du c&#x153;ur du f&#x153;tus. L&rsquo;ann&#xE9;e derni&#xE8;re, BrightHeart a obtenu l&rsquo;autorisation 510(k) de la FDA pour son logiciel, qu&rsquo;elle attribue en partie aux contributions open source de Meta. Nous avons &#xE9;galement expliqu&#xE9; comment Virgo, une entreprise bas&#xE9;e aux &#xC9;tats-Unis, utilise DINOv2 pour analyser des vid&#xE9;os d&rsquo;endoscopie, obtenant des performances de pointe dans une large gamme de crit&#xE8;res d&rsquo;&#xE9;valuation de l&rsquo;IA pour l&rsquo;endoscopie, tels que la classification des rep&#xE8;res anatomiques, l&rsquo;&#xE9;valuation de la gravit&#xE9; de la maladie pour la colite ulc&#xE9;reuse, et la segmentation des polypes. Alors que nous nous tournons vers les dix prochaines ann&#xE9;es, il est passionnant de penser &#xE0; la mani&#xE8;re dont les perc&#xE9;es que nous avons partag&#xE9;es aujourd&rsquo;hui pourraient b&#xE9;n&#xE9;ficier au plus grand nombre. Nous sommes impatients de poursuivre les conversations importantes que nous avons avec la communaut&#xE9; alors que nous allons de l&rsquo;avant &#x2013; ensemble &#x2013; pour relever certains des plus grands d&#xE9;fis de la soci&#xE9;t&#xE9;. Articles de recherche de Jean-R&#xE9;mi King : Brain-to-Text Decoding: A Non-invasive Approach via Typing From Thought to Action: How a Hierarchy of Neural Dynamics Supports Language Production Meta Audiobox Aesthetics : une nouvelle norme pour le traitement audio Traditionnellement, la mesure de l&rsquo;esth&#xE9;tique audio est une t&#xE2;che complexe en raison de sa nature subjective. Contrairement aux mesures objectives telles que la r&#xE9;ponse en fr&#xE9;quence ou le rapport signal/bruit, l&rsquo;esth&#xE9;tique audio n&#xE9;cessite une compr&#xE9;hension nuanc&#xE9;e de la perception humaine. Aujourd&rsquo;hui, nous sommes ravis de rendre disponible Meta Audiobox Aesthetics en open-source, un mod&#xE8;le qui permet l&rsquo;&#xE9;valuation automatique de l&rsquo;esth&#xE9;tique audio, en fournissant une &#xE9;valuation compl&#xE8;te de la qualit&#xE9; audio &#xE0; travers la parole, la musique et le son. Le mod&#xE8;le fait des pr&#xE9;dictions qui analysent l&rsquo;appr&#xE9;ciation du contenu, l&rsquo;utilit&#xE9; du contenu, la complexit&#xE9; de la production et la qualit&#xE9; de la production. Relever les d&#xE9;fis de l&rsquo;&#xE9;valuation audio subjective permet d&rsquo;am&#xE9;liorer la qualit&#xE9; du contenu audio et de d&#xE9;velopper des mod&#xE8;les audio g&#xE9;n&#xE9;ratifs plus avanc&#xE9;s. Les m&#xE9;thodes d&rsquo;&#xE9;valuation existantes fournissent souvent des r&#xE9;sultats sp&#xE9;cifiques &#xE0; une sous-modalit&#xE9; avec des instructions vagues qui sont difficiles &#xE0; interpr&#xE9;ter. Audiobox Aesthetics surmonte ces limites en proposant une approche structur&#xE9;e de l&rsquo;&#xE9;valuation audio. Pour d&#xE9;velopper Audiobox Aesthetics, un protocole d&rsquo;annotation complet a &#xE9;t&#xE9; con&#xE7;u, ce qui a permis de collecter 562 heures de donn&#xE9;es esth&#xE9;tiques audio. Notre ensemble de donn&#xE9;es a &#xE9;t&#xE9; annot&#xE9; par des &#xE9;valuateurs professionnels afin de garantir la qualit&#xE9; des donn&#xE9;es. Le processus d&rsquo;annotation a consist&#xE9; &#xE0; &#xE9;valuer les &#xE9;chantillons audio sur une &#xE9;chelle de 1 &#xE0; 10 en fonction de quatre param&#xE8;tres d&#xE9;finis : qualit&#xE9; de la production, complexit&#xE9; de la production, plaisir du contenu et utilit&#xE9; du contenu. Ce processus a permis la cr&#xE9;ation d&rsquo;un score esth&#xE9;tique unifi&#xE9; calibr&#xE9; sur diff&#xE9;rentes modalit&#xE9;s audio, garantissant la coh&#xE9;rence et la fiabilit&#xE9; des pr&#xE9;dictions du mod&#xE8;le. Des exp&#xE9;riences approfondies ont montr&#xE9; que l&rsquo;Audiobox Aesthetics surpassait les travaux ant&#xE9;rieurs avec une corr&#xE9;lation plus &#xE9;lev&#xE9;e avec le jugement humain, ce qui prouve son efficacit&#xE9; en tant que m&#xE9;trique automatique pour l&rsquo;&#xE9;valuation de la qualit&#xE9;. Le mod&#xE8;le, qui est publi&#xE9; sous licence CC-BY 4.0, am&#xE9;liore &#xE9;galement la qualit&#xE9; de divers mod&#xE8;les de g&#xE9;n&#xE9;ration audio gr&#xE2;ce au filtrage des donn&#xE9;es et &#xE0; l&rsquo;incitation &#xE0; la qualit&#xE9;, ce qui permet d&rsquo;obtenir des am&#xE9;liorations significatives dans les applications de synth&#xE8;se vocale, de synth&#xE8;se musicale et de synth&#xE8;se sonore. Audiobox Aesthetics a d&#xE9;j&#xE0; &#xE9;t&#xE9; utilis&#xE9; pour am&#xE9;liorer Meta Movie Gen, ce qui a permis de faciliter la cr&#xE9;ation de contenus multim&#xE9;dias de haute qualit&#xE9;, et de stimuler le progr&#xE8;s et l&rsquo;innovation dans l&rsquo;industrie. Nous esp&#xE9;rons que ce travail sera utilis&#xE9; pour am&#xE9;liorer la qualit&#xE9; du contenu audio et soutenir le d&#xE9;veloppement de mod&#xE8;les audio g&#xE9;n&#xE9;ratifs plus sophistiqu&#xE9;s. T&#xE9;l&#xE9;chargez les poids et le code du mod&#xE8;le Lire l&rsquo;article de recherche Transcriptions des messages vocaux de WhatsApp : d&#xE9;bloquer une communication fluide Alors que nous continuons &#xE0; construire l&rsquo;avenir de la connexion humaine et de la technologie qui la rend possible, nous avons lanc&#xE9; une mise &#xE0; jour sur WhatsApp pour rendre la communication encore plus transparente. Les transcriptions de messages vocaux utilisent une technologie avanc&#xE9;e sur l&rsquo;appareil pour g&#xE9;n&#xE9;rer des transcriptions de messages audio localement et en toute s&#xE9;curit&#xE9;, garantissant que les messages vocaux personnels sont crypt&#xE9;s de bout en bout. Actuellement, cette fonctionnalit&#xE9; prend en charge l&rsquo;anglais, l&rsquo;espagnol, le portugais et le russe, &#xE9;largissant ainsi sa port&#xE9;e aupr&#xE8;s de diverses communaut&#xE9;s. Le d&#xE9;veloppement des transcriptions de messages vocaux a &#xE9;t&#xE9; rendu possible par l&rsquo;exploitation des r&#xE9;sultats de la recherche Meta FAIR Seamless Communication. En tirant parti de cette recherche, WhatsApp peut continuer &#xE0; innover et &#xE0; am&#xE9;liorer ses services, ce qui lui permettra de progresser vers l&rsquo;objectif de l&rsquo;AMI avec des capacit&#xE9;s multilingues. Nous avons largement explor&#xE9;, d&#xE9;velopp&#xE9; et partag&#xE9; les meilleures pratiques pour l&rsquo;affinage des mod&#xE8;les avec la communaut&#xE9; des chercheurs pour les versions publiques des mod&#xE8;les Seamless M4T. Ces techniques ont &#xE9;t&#xE9; appliqu&#xE9;es et am&#xE9;lior&#xE9;es, ainsi que la distillation, pour les adapter au genre des messages vocaux WhatsApp. Cette avanc&#xE9;e permet non seulement d&rsquo;am&#xE9;liorer l&rsquo;exp&#xE9;rience de l&rsquo;utilisateur tout en prot&#xE9;geant la messagerie priv&#xE9;e, mais elle ouvre &#xE9;galement la voie &#xE0; de futures innovations dans le domaine de la communication multilingue.</description><thumbnail_url>https://about.fb.com/fr/wp-content/uploads/sites/12/2025/02/Meta-Audiobox-Aesthetics.jpg?w=960</thumbnail_url></oembed>
