{"id":23382,"date":"2022-10-19T17:07:25","date_gmt":"2022-10-19T15:07:25","guid":{"rendered":"https:\/\/about.fb.com\/fr\/?p=23382"},"modified":"2022-10-19T17:07:25","modified_gmt":"2022-10-19T15:07:25","slug":"grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales","status":"publish","type":"post","link":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/","title":{"rendered":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Jusqu\u2019\u00e0 pr\u00e9sent, les outils de traduction reposant sur de l\u2019intelligence artificielle (IA) \u00e9taient principalement d\u00e9di\u00e9s aux langues \u00e9crites. Or, pr\u00e8s de la moiti\u00e9 des 7000 langues vivantes dans le monde sont principalement orales et n\u2019ont pas de forme \u00e9crite standard ou largement utilis\u00e9e. Il est donc impossible de cr\u00e9er un outil de traduction automatique pour ces langues \u00e0 l\u2019aide des techniques classiques, qui n\u00e9cessitent une grande quantit\u00e9 de texte \u00e9crit pour l\u2019entra\u00eenement du mod\u00e8le d\u2019IA. Pour relever ce d\u00e9fi, nous avons cr\u00e9\u00e9 le premier syst\u00e8me de traduction reposant sur une IA d\u00e9di\u00e9e \u00e0 une langue principalement orale, le Hokkien. Le Hokkien est tr\u00e8s largement utilis\u00e9 au sein de la diaspora chinoise, mais il n\u2019a pas de forme \u00e9crite standard. Notre technologie permet aux locuteurs du Hokkien de tenir une conversation avec des anglophones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ce syst\u00e8me de traduction d\u00e9velopp\u00e9 en open source fait partie du projet <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/teaching-ai-to-translate-100s-of-spoken-and-written-languages-in-real-time\/\"><span style=\"font-weight: 400\">Universal Speech Translator<\/span><\/a><span style=\"font-weight: 400\"> (UST) de Meta. Il a pour objectif de d\u00e9velopper de nouvelles m\u00e9thodes bas\u00e9es sur l\u2019IA qui, nous l\u2019esp\u00e9rons, permettront <\/span><span style=\"font-weight: 400\">\u00e0 terme <\/span><span style=\"font-weight: 400\">la traduction directe en temps r\u00e9el de toutes les langues, m\u00eame celles qui sont essentiellement des langues parl\u00e9es (c\u2019est-<\/span><span style=\"font-weight: 400\">\u00e0<\/span><span style=\"font-weight: 400\">-dire non \u00e9crites). Nous croyons que la communication orale permet de faire tomber les barri\u00e8res et de cr\u00e9er du lien entre les personnes, o\u00f9 qu\u2019elles se trouvent, y compris dans le <\/span><a href=\"https:\/\/about.facebook.com\/what-is-the-metaverse\/\"><span style=\"font-weight: 400\">m\u00e9tavers<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Pour mettre au point ce nouveau syst\u00e8me de traduction uniquement oral, nos chercheurs en IA ont d\u00fb relever de nombreux d\u00e9fis par rapport aux syst\u00e8mes de traduction automatique traditionnels, notamment en mati\u00e8re de collecte de donn\u00e9es, de conception de mod\u00e8les et d&rsquo;\u00e9valuation. Beaucoup de progr\u00e8s restent <\/span><span style=\"font-weight: 400\">\u00e0 faire avant de pouvoir \u00e9tendre l\u2019UST \u00e0 d\u2019autres langues. Toutefois, la possibilit\u00e9 de parler facilement \u00e0 des personnes dans n&rsquo;importe quelle langue est un r\u00eave de longue date, et nous sommes heureux de nous rapprocher de cet objectif. Nous mettons en open source non seulement nos mod\u00e8les de traduction en Hokkien, mais aussi l\u2019ensemble des donn\u00e9es d&rsquo;\u00e9valuation et les documents de recherche, afin que d&rsquo;autres puissent reproduire et d\u00e9velopper notre travail.<\/span><\/p>\n<div class=\"jetpack-video-wrapper\"><iframe loading=\"lazy\" title=\"The first AI-powered speech translation system for a primarily oral language | Meta AI\" width=\"960\" height=\"540\" src=\"https:\/\/www.youtube.com\/embed\/6bca6M6uEz4?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/div>\n<p><b>Surmonter les d\u00e9fis li\u00e9s aux donn\u00e9es d\u2019entra\u00eenement<\/b><\/p>\n<p><span style=\"font-weight: 400\">La collecte de donn\u00e9es en quantit\u00e9 suffisante a \u00e9t\u00e9 un obstacle de taille lors du d\u00e9veloppement du syst\u00e8me de traduction d\u00e9di\u00e9 au Hokkien. En effet,\u00a0 le Hokkien est une langue aux ressources peu nombreuses. Elle ne b\u00e9n\u00e9ficie donc pas d\u2019une vaste base de donn\u00e9es d\u2019entra\u00eenement imm\u00e9diatement accessibles, comme c\u2019est le cas pour l\u2019espagnol ou pour l\u2019anglais par exemple. De plus, les traducteurs de l\u2019anglais vers le Hokkien sont relativement rares, ce qui complique la collecte et l\u2019annotation de donn\u00e9es pour l\u2019entra\u00eenement du mod\u00e8le.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nous avons utilis\u00e9 le mandarin comme langue interm\u00e9diaire pour cr\u00e9er des traductions semi-supervis\u00e9es et humaines, en traduisant d\u2019abord de l\u2019anglais (ou du Hokkien) vers le mandarin, puis du mandarin vers le Hokkien (ou l\u2019anglais), avant d\u2019ajouter ces traductions aux donn\u00e9es d\u2019entra\u00eenement. Cette m\u00e9thode a \u00e9norm\u00e9ment am\u00e9lior\u00e9 les performances du mod\u00e8le en utilisant les donn\u00e9es d\u2019une langue similaire disposant de ressources en grande quantit\u00e9.<\/span><\/p>\n<p><span style=\"font-weight: 400\">L\u2019analyse vocale est une autre m\u00e9thode de g\u00e9n\u00e9ration de donn\u00e9es d\u2019entra\u00eenement. Gr\u00e2ce \u00e0 un <\/span><a href=\"https:\/\/proceedings.neurips.cc\/paper\/2021\/hash\/8466f9ace6a9acbe71f75762ffc890f1-Abstract.html\"><span style=\"font-weight: 400\">encodeur vocal pr\u00e9-entra\u00een\u00e9<\/span><\/a><span style=\"font-weight: 400\">, nous avons pu encoder des int\u00e9grations vocales en Hokkien dans le m\u00eame espace s\u00e9mantique que d\u2019autres langues, sans avoir \u00e0 faire appel \u00e0 une forme \u00e9crite du Hokkien. Les paroles en Hokkien peuvent \u00eatre align\u00e9es avec les paroles et le texte en anglais dont les int\u00e9grations s\u00e9mantiques sont similaires. Nous avons ensuite synth\u00e9tis\u00e9 les paroles en anglais \u00e0 partir de textes, cr\u00e9ant ainsi un alignement de paroles en Hokkien et en anglais.<\/span><\/p>\n<p><b>Une nouvelle approche de mod\u00e9lisation<\/b><\/p>\n<p><span style=\"font-weight: 400\">De nombreux syst\u00e8mes de traduction vocale reposent sur des transcriptions ou sont des syst\u00e8mes de conversion du discours oral en texte. Cependant, puisque les langues principalement orales n\u2019ont pas de forme \u00e9crite standard, il n\u2019est pas possible de g\u00e9n\u00e9rer une traduction sous la forme d\u2019un texte transcrit. Ainsi, nous nous sommes concentr\u00e9s sur la traduction de parole \u00e0 parole.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nous avons utilis\u00e9 la m\u00e9thode de traduction parole-unit\u00e9 (S2UT) pour convertir directement les entr\u00e9es vocales en une s\u00e9quence d\u2019unit\u00e9s acoustiques selon <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/advancing-direct-speech-to-speech-modeling-with-discrete-units\/\"><span style=\"font-weight: 400\">\u00a0l\u2019approche toute r\u00e9cente d\u00e9velopp\u00e9e par Meta<\/span><\/a><span style=\"font-weight: 400\">. Nous avons ensuite g\u00e9n\u00e9r\u00e9 des ondes \u00e0 partir des unit\u00e9s. De plus, UnitY a \u00e9t\u00e9 utilis\u00e9 comme syst\u00e8me de d\u00e9codage en deux \u00e9tapes. Le premier d\u00e9codeur g\u00e9n\u00e8re du texte dans une langue similaire (le mandarin), et le deuxi\u00e8me cr\u00e9e des unit\u00e9s.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-23387\" src=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890&#038;resize=890%2C501\" alt=\"\" width=\"890\" height=\"501\" srcset=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=1386 1386w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=600 600w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=300 300w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=768 768w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=1024 1024w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><b>\u00c9valuer l\u2019exactitude\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400\">Les syst\u00e8mes de traduction vocale sont g\u00e9n\u00e9ralement \u00e9valu\u00e9s \u00e0 l\u2019aide d\u2019un indicateur appel\u00e9 ASR-BLEU. Pour cela, la parole traduite est d\u2019abord convertie en texte en utilisant la reconnaissance vocale automatique (ASR), puis des scores BLEU (un indicateur standard en mati\u00e8re de traduction automatique) sont calcul\u00e9s en comparant la transcription avec un texte traduit par un humain. Cependant, l\u2019\u00e9valuation des traductions vocales pour une langue parl\u00e9e comme le Hokkien est difficile, en raison notamment de l\u2019absence de syst\u00e8me \u00e9crit standard. Pour permettre une \u00e9valuation automatique, nous avons d\u00e9velopp\u00e9 un syst\u00e8me permettant de convertir le discours oral en Hokkien en une notation phon\u00e9tique standardis\u00e9e appel\u00e9e <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/T%C3%A2i-u%C3%A2n_L%C3%B4-m%C3%A1-j%C4%AB_Phing-im_Hong-%C3%A0n\"><span style=\"font-weight: 400\">T\u00e2i-l\u00f4<\/span><\/a><span style=\"font-weight: 400\">. Gr\u00e2ce \u00e0 cette technique, nous avons pu calculer un score BLEU au niveau des syllabes et comparer facilement la qualit\u00e9 de traduction des diff\u00e9rentes approches.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00a0<\/span><span style=\"font-weight: 400\">En plus de d\u00e9velopper une m\u00e9thode d\u2019\u00e9valuation des traductions vocales Hokkien-anglais, nous avons cr\u00e9\u00e9 le premier ensemble de donn\u00e9es de r\u00e9f\u00e9rence en mati\u00e8re de traduction vocale bidirectionnelle Hokkien-anglais sur la base d\u2019un corpus vocal en Hokkien appel\u00e9 <\/span><a href=\"https:\/\/sites.google.com\/speech.ntut.edu.tw\/fsw\/home\/tat-corpus\"><span style=\"font-weight: 400\">Taiwanese Across Taiwan<\/span><\/a><span style=\"font-weight: 400\">. Cet ensemble de donn\u00e9es de r\u00e9f\u00e9rence sera publi\u00e9 en open source pour encourager la recherche et progresser ensemble dans le domaine de la traduction vocale du Hokkien.\u00a0<\/span><\/p>\n<p><b>Le futur de la traduction<\/b><\/p>\n<p><span style=\"font-weight: 400\">Dans sa phase actuelle, notre approche permet aux locuteurs du Hokkien de converser avec des anglophones. Notre mod\u00e8le est toujours en cours d\u2019am\u00e9lioration et ne permet de traduire qu\u2019une seule phrase \u00e0 la fois, mais c\u2019est une \u00e9tape qui nous rapproche d\u2019un futur o\u00f9 la traduction simultan\u00e9e entre les langues sera possible.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-23386\" src=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image2-1.png?w=602&#038;resize=602%2C339\" alt=\"\" width=\"602\" height=\"339\" srcset=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image2-1.png?w=602 602w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image2-1.png?w=600 600w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image2-1.png?w=300 300w\" sizes=\"auto, (max-width: 602px) 100vw, 602px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Les techniques que nous avons utilis\u00e9es pour la premi\u00e8re fois avec le Hokkien peuvent \u00eatre \u00e9tendues \u00e0 de nombreuses autres langues, qu\u2019elles aient une forme \u00e9crite ou non. C\u2019est pour cette raison que nous publions la matrice vocale, un vaste corpus de traductions de parole \u00e0 parole rassembl\u00e9es gr\u00e2ce \u00e0 la <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/laser-multilingual-sentence-embeddings\/\"><span style=\"font-weight: 400\">technique innovante d\u2019analyse de donn\u00e9es de Meta appel\u00e9e LASER<\/span><\/a><span style=\"font-weight: 400\"> , qui permettra aux chercheurs de cr\u00e9er leurs propres syst\u00e8mes de traduction de parole \u00e0 parole (S2ST) en s\u2019appuyant sur notre travail.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-23385\" src=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=890&#038;resize=890%2C500\" alt=\"\" width=\"890\" height=\"500\" srcset=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=941 941w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=600 600w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=300 300w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=768 768w, https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image3.png?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Les r\u00e9centes avanc\u00e9es de Meta en mati\u00e8re de reconnaissance vocale non supervis\u00e9e (<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/wav2vec-unsupervised-speech-recognition-without-supervision\/\"><span style=\"font-weight: 400\">wav2vec-U<\/span><\/a><span style=\"font-weight: 400\">) et de <\/span><a href=\"https:\/\/engineering.fb.com\/2018\/08\/31\/ai-research\/unsupervised-machine-translation-a-novel-approach-to-provide-fast-accurate-translations-for-more-languages\/\"><span style=\"font-weight: 400\">traduction automatique non supervis\u00e9e<\/span><\/a><span style=\"font-weight: 400\"> (<\/span><a href=\"https:\/\/aclanthology.org\/2020.tacl-1.47\/\"><span style=\"font-weight: 400\">mBART<\/span><\/a><span style=\"font-weight: 400\">) constituent une r\u00e9f\u00e9rence pour les futures recherches dans le domaine de la traduction des langues orales. Nos progr\u00e8s en mati\u00e8re d\u2019entra\u00eenement non supervis\u00e9 d\u00e9montrent qu\u2019il est possible de cr\u00e9er des mod\u00e8les de traduction de parole \u00e0 parole de grande qualit\u00e9 sans annotations humaines. Le syst\u00e8me r\u00e9duit consid\u00e9rablement les exigences n\u00e9cessaires \u00e0 l\u2019\u00e9largissement de la prise en charge des langues aux faibles ressources en raison de l\u2019absence de donn\u00e9es supervis\u00e9es pour grand nombre d\u2019entre elles.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00a0<\/span><span style=\"font-weight: 400\">La recherche en intelligence artificielle contribue \u00e0 faire sauter les barri\u00e8res de la langue, dans le monde r\u00e9el comme dans le m\u00e9tavers, afin d\u2019encourager la communication et la connaissance de l\u2019autre. Nous sommes enthousiastes \u00e0 l\u2019id\u00e9e d\u2019\u00e9largir nos recherches et de rendre cette technologie accessible \u00e0 plus de\u00a0 personnes \u00e0 l\u2019avenir.<\/span><\/p>\n<p><b>Pour lire les papiers de recherche :<\/b><\/p>\n<p><a href=\"https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation\"><span style=\"font-weight: 400\">https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation<\/span><\/a><\/p>\n<p><a href=\"https:\/\/research.facebook.com\/publications\/speechmatrix\"><span style=\"font-weight: 400\">https:\/\/research.facebook.com\/publications\/speechmatrix<\/span><\/a><\/p>\n<p><a href=\"https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation\"><span style=\"font-weight: 400\">https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation<\/span><\/a><\/p>\n<p><a href=\"https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation\"><span style=\"font-weight: 400\">https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation<\/span><\/a><\/p>\n<p><i><span style=\"font-weight: 400\">Ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 par une \u00e9quipe pluridisciplinaire, notamment Al Youngblood, Ana Paula Kirschner Mofarrej, Andy Chung, Angela Fan, Ann Lee, Benjamin Peloquin, Beno\u00eet Sagot, Brian Bui, Brian O\u2019Horo, Carleigh Wood, Changhan Wang, Chloe Meyere, Chris Summers, Christopher Johnson, David Wu, Diana Otero, Eric Kaplan, Ethan Ye, Gopika Jhala, Gustavo Gandia Rivera, Hirofumi Inaguma, Holger Schwenk, Hongyu Gong, Ilia Kulikov, Iska Saric, Janice Lam, Jeff Wang, Jingfei Du, Juan Pino, Julia Vargas, Justine Kao, Karla Caraballo-Torres, Kevin Tran, Koklioong Loa, Lachlan Mackenzie, Michael Auli, Natalie Hereth, Ning Dong, Oliver Libaw, Orialis Valentin, Paden Tomasello, Paul-Ambroise Duquenne, Peng-Jen Chen, Pengwei Li, Robert Lee, Safiyyah Saleem, Sascha Brodsky, Semarley Jarrett, Sravya Popuri, TJ Krusinski, Vedanuj Goswami, Wei-Ning Hsu, Xutai Ma, Yilin Yang, Yun Tang.<\/span><\/i><\/p>\n","protected":false},"excerpt":{"rendered":"Jusqu\u2019\u00e0 pr\u00e9sent, les outils de traduction reposant sur de l\u2019intelligence artificielle (IA) \u00e9taient principalement d\u00e9di\u00e9s aux langues \u00e9crites. Or, pr\u00e8s de la moiti\u00e9 des 7000 langues vivantes dans le monde sont principalement orales et n\u2019ont pas de forme \u00e9crite standard ou largement utilis\u00e9e. Il est donc impossible de cr\u00e9er un outil de traduction automatique pour ces langues \u00e0 l\u2019aide des techniques classiques, qui n\u00e9cessitent une grande quantit\u00e9 de texte \u00e9crit pour l\u2019entra\u00eenement du mod\u00e8le d\u2019IA. Pour relever ce d\u00e9fi, nous avons cr\u00e9\u00e9 le premier syst\u00e8me de traduction reposant sur une IA d\u00e9di\u00e9e \u00e0 une langue principalement orale, le Hokkien. Le Hokkien est tr\u00e8s largement utilis\u00e9 au sein de la diaspora chinoise, mais il n\u2019a pas de forme \u00e9crite standard. Notre technologie permet aux locuteurs du Hokkien de tenir une conversation avec des anglophones. Ce syst\u00e8me de traduction d\u00e9velopp\u00e9 en open source fait partie du projet Universal Speech Translator (UST) de Meta. Il a pour objectif de d\u00e9velopper de nouvelles m\u00e9thodes bas\u00e9es sur l\u2019IA qui, nous l\u2019esp\u00e9rons, permettront \u00e0 terme la traduction directe en temps r\u00e9el de toutes les langues, m\u00eame celles qui sont essentiellement des langues parl\u00e9es (c\u2019est-\u00e0-dire non \u00e9crites). Nous croyons que la communication orale permet de faire tomber les barri\u00e8res et de cr\u00e9er du lien entre les personnes, o\u00f9 qu\u2019elles se trouvent, y compris dans le m\u00e9tavers. Pour mettre au point ce nouveau syst\u00e8me de traduction uniquement oral, nos chercheurs en IA ont d\u00fb relever de nombreux d\u00e9fis par rapport aux syst\u00e8mes de traduction automatique traditionnels, notamment en mati\u00e8re de collecte de donn\u00e9es, de conception de mod\u00e8les et d&rsquo;\u00e9valuation. Beaucoup de progr\u00e8s restent \u00e0 faire avant de pouvoir \u00e9tendre l\u2019UST \u00e0 d\u2019autres langues. Toutefois, la possibilit\u00e9 de parler facilement \u00e0 des personnes dans n&rsquo;importe quelle langue est un r\u00eave de longue date, et nous sommes heureux de nous rapprocher de cet objectif. Nous mettons en open source non seulement nos mod\u00e8les de traduction en Hokkien, mais aussi l\u2019ensemble des donn\u00e9es d&rsquo;\u00e9valuation et les documents de recherche, afin que d&rsquo;autres puissent reproduire et d\u00e9velopper notre travail. Surmonter les d\u00e9fis li\u00e9s aux donn\u00e9es d\u2019entra\u00eenement La collecte de donn\u00e9es en quantit\u00e9 suffisante a \u00e9t\u00e9 un obstacle de taille lors du d\u00e9veloppement du syst\u00e8me de traduction d\u00e9di\u00e9 au Hokkien. En effet,\u00a0 le Hokkien est une langue aux ressources peu nombreuses. Elle ne b\u00e9n\u00e9ficie donc pas d\u2019une vaste base de donn\u00e9es d\u2019entra\u00eenement imm\u00e9diatement accessibles, comme c\u2019est le cas pour l\u2019espagnol ou pour l\u2019anglais par exemple. De plus, les traducteurs de l\u2019anglais vers le Hokkien sont relativement rares, ce qui complique la collecte et l\u2019annotation de donn\u00e9es pour l\u2019entra\u00eenement du mod\u00e8le. Nous avons utilis\u00e9 le mandarin comme langue interm\u00e9diaire pour cr\u00e9er des traductions semi-supervis\u00e9es et humaines, en traduisant d\u2019abord de l\u2019anglais (ou du Hokkien) vers le mandarin, puis du mandarin vers le Hokkien (ou l\u2019anglais), avant d\u2019ajouter ces traductions aux donn\u00e9es d\u2019entra\u00eenement. Cette m\u00e9thode a \u00e9norm\u00e9ment am\u00e9lior\u00e9 les performances du mod\u00e8le en utilisant les donn\u00e9es d\u2019une langue similaire disposant de ressources en grande quantit\u00e9. L\u2019analyse vocale est une autre m\u00e9thode de g\u00e9n\u00e9ration de donn\u00e9es d\u2019entra\u00eenement. Gr\u00e2ce \u00e0 un encodeur vocal pr\u00e9-entra\u00een\u00e9, nous avons pu encoder des int\u00e9grations vocales en Hokkien dans le m\u00eame espace s\u00e9mantique que d\u2019autres langues, sans avoir \u00e0 faire appel \u00e0 une forme \u00e9crite du Hokkien. Les paroles en Hokkien peuvent \u00eatre align\u00e9es avec les paroles et le texte en anglais dont les int\u00e9grations s\u00e9mantiques sont similaires. Nous avons ensuite synth\u00e9tis\u00e9 les paroles en anglais \u00e0 partir de textes, cr\u00e9ant ainsi un alignement de paroles en Hokkien et en anglais. Une nouvelle approche de mod\u00e9lisation De nombreux syst\u00e8mes de traduction vocale reposent sur des transcriptions ou sont des syst\u00e8mes de conversion du discours oral en texte. Cependant, puisque les langues principalement orales n\u2019ont pas de forme \u00e9crite standard, il n\u2019est pas possible de g\u00e9n\u00e9rer une traduction sous la forme d\u2019un texte transcrit. Ainsi, nous nous sommes concentr\u00e9s sur la traduction de parole \u00e0 parole. Nous avons utilis\u00e9 la m\u00e9thode de traduction parole-unit\u00e9 (S2UT) pour convertir directement les entr\u00e9es vocales en une s\u00e9quence d\u2019unit\u00e9s acoustiques selon \u00a0l\u2019approche toute r\u00e9cente d\u00e9velopp\u00e9e par Meta. Nous avons ensuite g\u00e9n\u00e9r\u00e9 des ondes \u00e0 partir des unit\u00e9s. De plus, UnitY a \u00e9t\u00e9 utilis\u00e9 comme syst\u00e8me de d\u00e9codage en deux \u00e9tapes. Le premier d\u00e9codeur g\u00e9n\u00e8re du texte dans une langue similaire (le mandarin), et le deuxi\u00e8me cr\u00e9e des unit\u00e9s. \u00c9valuer l\u2019exactitude\u00a0 Les syst\u00e8mes de traduction vocale sont g\u00e9n\u00e9ralement \u00e9valu\u00e9s \u00e0 l\u2019aide d\u2019un indicateur appel\u00e9 ASR-BLEU. Pour cela, la parole traduite est d\u2019abord convertie en texte en utilisant la reconnaissance vocale automatique (ASR), puis des scores BLEU (un indicateur standard en mati\u00e8re de traduction automatique) sont calcul\u00e9s en comparant la transcription avec un texte traduit par un humain. Cependant, l\u2019\u00e9valuation des traductions vocales pour une langue parl\u00e9e comme le Hokkien est difficile, en raison notamment de l\u2019absence de syst\u00e8me \u00e9crit standard. Pour permettre une \u00e9valuation automatique, nous avons d\u00e9velopp\u00e9 un syst\u00e8me permettant de convertir le discours oral en Hokkien en une notation phon\u00e9tique standardis\u00e9e appel\u00e9e T\u00e2i-l\u00f4. Gr\u00e2ce \u00e0 cette technique, nous avons pu calculer un score BLEU au niveau des syllabes et comparer facilement la qualit\u00e9 de traduction des diff\u00e9rentes approches. \u00a0En plus de d\u00e9velopper une m\u00e9thode d\u2019\u00e9valuation des traductions vocales Hokkien-anglais, nous avons cr\u00e9\u00e9 le premier ensemble de donn\u00e9es de r\u00e9f\u00e9rence en mati\u00e8re de traduction vocale bidirectionnelle Hokkien-anglais sur la base d\u2019un corpus vocal en Hokkien appel\u00e9 Taiwanese Across Taiwan. Cet ensemble de donn\u00e9es de r\u00e9f\u00e9rence sera publi\u00e9 en open source pour encourager la recherche et progresser ensemble dans le domaine de la traduction vocale du Hokkien.\u00a0 Le futur de la traduction Dans sa phase actuelle, notre approche permet aux locuteurs du Hokkien de converser avec des anglophones. Notre mod\u00e8le est toujours en cours d\u2019am\u00e9lioration et ne permet de traduire qu\u2019une seule phrase \u00e0 la fois, mais c\u2019est une \u00e9tape qui nous rapproche d\u2019un futur o\u00f9 la traduction simultan\u00e9e entre les langues sera possible. Les techniques que nous avons utilis\u00e9es pour la premi\u00e8re fois avec le Hokkien peuvent \u00eatre \u00e9tendues \u00e0 de nombreuses autres langues, qu\u2019elles aient une forme \u00e9crite ou non. C\u2019est pour cette raison que nous publions la matrice vocale, un vaste corpus de traductions de parole \u00e0 parole rassembl\u00e9es gr\u00e2ce \u00e0 la technique innovante d\u2019analyse de donn\u00e9es de Meta appel\u00e9e LASER , qui permettra aux chercheurs de cr\u00e9er leurs propres syst\u00e8mes de traduction de parole \u00e0 parole (S2ST) en s\u2019appuyant sur notre travail. Les r\u00e9centes avanc\u00e9es de Meta en mati\u00e8re de reconnaissance vocale non supervis\u00e9e (wav2vec-U) et de traduction automatique non supervis\u00e9e (mBART) constituent une r\u00e9f\u00e9rence pour les futures recherches dans le domaine de la traduction des langues orales. Nos progr\u00e8s en mati\u00e8re d\u2019entra\u00eenement non supervis\u00e9 d\u00e9montrent qu\u2019il est possible de cr\u00e9er des mod\u00e8les de traduction de parole \u00e0 parole de grande qualit\u00e9 sans annotations humaines. Le syst\u00e8me r\u00e9duit consid\u00e9rablement les exigences n\u00e9cessaires \u00e0 l\u2019\u00e9largissement de la prise en charge des langues aux faibles ressources en raison de l\u2019absence de donn\u00e9es supervis\u00e9es pour grand nombre d\u2019entre elles. \u00a0La recherche en intelligence artificielle contribue \u00e0 faire sauter les barri\u00e8res de la langue, dans le monde r\u00e9el comme dans le m\u00e9tavers, afin d\u2019encourager la communication et la connaissance de l\u2019autre. Nous sommes enthousiastes \u00e0 l\u2019id\u00e9e d\u2019\u00e9largir nos recherches et de rendre cette technologie accessible \u00e0 plus de\u00a0 personnes \u00e0 l\u2019avenir. Pour lire les papiers de recherche : <a href=\"https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation\" rel=\"nofollow\">https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation<\/a> <a href=\"https:\/\/research.facebook.com\/publications\/speechmatrix\" rel=\"nofollow\">https:\/\/research.facebook.com\/publications\/speechmatrix<\/a> <a href=\"https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation\" rel=\"nofollow\">https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation<\/a> <a href=\"https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation\" rel=\"nofollow\">https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation<\/a> Ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 par une \u00e9quipe pluridisciplinaire, notamment Al Youngblood, Ana Paula Kirschner Mofarrej, Andy Chung, Angela Fan, Ann Lee, Benjamin Peloquin, Beno\u00eet Sagot, Brian Bui, Brian O\u2019Horo, Carleigh Wood, Changhan Wang, Chloe Meyere, Chris Summers, Christopher Johnson, David Wu, Diana Otero, Eric Kaplan, Ethan Ye, Gopika Jhala, Gustavo Gandia Rivera, Hirofumi Inaguma, Holger Schwenk, Hongyu Gong, Ilia Kulikov, Iska Saric, Janice Lam, Jeff Wang, Jingfei Du, Juan Pino, Julia Vargas, Justine Kao, Karla Caraballo-Torres, Kevin Tran, Koklioong Loa, Lachlan Mackenzie, Michael Auli, Natalie Hereth, Ning Dong, Oliver Libaw, Orialis Valentin, Paden Tomasello, Paul-Ambroise Duquenne, Peng-Jen Chen, Pengwei Li, Robert Lee, Safiyyah Saleem, Sascha Brodsky, Semarley Jarrett, Sravya Popuri, TJ Krusinski, Vedanuj Goswami, Wei-Ning Hsu, Xutai Ma, Yilin Yang, Yun Tang.","protected":false},"author":164097090,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243897990,243897944],"tags":[243898122,243898262,243898193,243898121,243898216],"class_list":["post-23382","post","type-post","status-publish","format-standard","hentry","category-actualites","category-intelligence-artificielle","tag-ia","tag-langues","tag-meta","tag-recherche","tag-traduction"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta\" \/>\n<meta property=\"og:description\" content=\"Jusqu\u2019\u00e0 pr\u00e9sent, les outils de traduction reposant sur de l\u2019intelligence artificielle (IA) \u00e9taient principalement d\u00e9di\u00e9s aux langues \u00e9crites. Or, pr\u00e8s de la moiti\u00e9 des 7000 langues vivantes dans le monde sont principalement orales et n\u2019ont pas de forme \u00e9crite standard ou largement utilis\u00e9e. Il est donc impossible de cr\u00e9er un outil de traduction automatique pour ces langues \u00e0 l\u2019aide des techniques classiques, qui n\u00e9cessitent une grande quantit\u00e9 de texte \u00e9crit pour l\u2019entra\u00eenement du mod\u00e8le d\u2019IA. Pour relever ce d\u00e9fi, nous avons cr\u00e9\u00e9 le premier syst\u00e8me de traduction reposant sur une IA d\u00e9di\u00e9e \u00e0 une langue principalement orale, le Hokkien. Le Hokkien est tr\u00e8s largement utilis\u00e9 au sein de la diaspora chinoise, mais il n\u2019a pas de forme \u00e9crite standard. Notre technologie permet aux locuteurs du Hokkien de tenir une conversation avec des anglophones. Ce syst\u00e8me de traduction d\u00e9velopp\u00e9 en open source fait partie du projet Universal Speech Translator (UST) de Meta. Il a pour objectif de d\u00e9velopper de nouvelles m\u00e9thodes bas\u00e9es sur l\u2019IA qui, nous l\u2019esp\u00e9rons, permettront \u00e0 terme la traduction directe en temps r\u00e9el de toutes les langues, m\u00eame celles qui sont essentiellement des langues parl\u00e9es (c\u2019est-\u00e0-dire non \u00e9crites). Nous croyons que la communication orale permet de faire tomber les barri\u00e8res et de cr\u00e9er du lien entre les personnes, o\u00f9 qu\u2019elles se trouvent, y compris dans le m\u00e9tavers. Pour mettre au point ce nouveau syst\u00e8me de traduction uniquement oral, nos chercheurs en IA ont d\u00fb relever de nombreux d\u00e9fis par rapport aux syst\u00e8mes de traduction automatique traditionnels, notamment en mati\u00e8re de collecte de donn\u00e9es, de conception de mod\u00e8les et d&rsquo;\u00e9valuation. Beaucoup de progr\u00e8s restent \u00e0 faire avant de pouvoir \u00e9tendre l\u2019UST \u00e0 d\u2019autres langues. Toutefois, la possibilit\u00e9 de parler facilement \u00e0 des personnes dans n&rsquo;importe quelle langue est un r\u00eave de longue date, et nous sommes heureux de nous rapprocher de cet objectif. Nous mettons en open source non seulement nos mod\u00e8les de traduction en Hokkien, mais aussi l\u2019ensemble des donn\u00e9es d&rsquo;\u00e9valuation et les documents de recherche, afin que d&rsquo;autres puissent reproduire et d\u00e9velopper notre travail. Surmonter les d\u00e9fis li\u00e9s aux donn\u00e9es d\u2019entra\u00eenement La collecte de donn\u00e9es en quantit\u00e9 suffisante a \u00e9t\u00e9 un obstacle de taille lors du d\u00e9veloppement du syst\u00e8me de traduction d\u00e9di\u00e9 au Hokkien. En effet,\u00a0 le Hokkien est une langue aux ressources peu nombreuses. Elle ne b\u00e9n\u00e9ficie donc pas d\u2019une vaste base de donn\u00e9es d\u2019entra\u00eenement imm\u00e9diatement accessibles, comme c\u2019est le cas pour l\u2019espagnol ou pour l\u2019anglais par exemple. De plus, les traducteurs de l\u2019anglais vers le Hokkien sont relativement rares, ce qui complique la collecte et l\u2019annotation de donn\u00e9es pour l\u2019entra\u00eenement du mod\u00e8le. Nous avons utilis\u00e9 le mandarin comme langue interm\u00e9diaire pour cr\u00e9er des traductions semi-supervis\u00e9es et humaines, en traduisant d\u2019abord de l\u2019anglais (ou du Hokkien) vers le mandarin, puis du mandarin vers le Hokkien (ou l\u2019anglais), avant d\u2019ajouter ces traductions aux donn\u00e9es d\u2019entra\u00eenement. Cette m\u00e9thode a \u00e9norm\u00e9ment am\u00e9lior\u00e9 les performances du mod\u00e8le en utilisant les donn\u00e9es d\u2019une langue similaire disposant de ressources en grande quantit\u00e9. L\u2019analyse vocale est une autre m\u00e9thode de g\u00e9n\u00e9ration de donn\u00e9es d\u2019entra\u00eenement. Gr\u00e2ce \u00e0 un encodeur vocal pr\u00e9-entra\u00een\u00e9, nous avons pu encoder des int\u00e9grations vocales en Hokkien dans le m\u00eame espace s\u00e9mantique que d\u2019autres langues, sans avoir \u00e0 faire appel \u00e0 une forme \u00e9crite du Hokkien. Les paroles en Hokkien peuvent \u00eatre align\u00e9es avec les paroles et le texte en anglais dont les int\u00e9grations s\u00e9mantiques sont similaires. Nous avons ensuite synth\u00e9tis\u00e9 les paroles en anglais \u00e0 partir de textes, cr\u00e9ant ainsi un alignement de paroles en Hokkien et en anglais. Une nouvelle approche de mod\u00e9lisation De nombreux syst\u00e8mes de traduction vocale reposent sur des transcriptions ou sont des syst\u00e8mes de conversion du discours oral en texte. Cependant, puisque les langues principalement orales n\u2019ont pas de forme \u00e9crite standard, il n\u2019est pas possible de g\u00e9n\u00e9rer une traduction sous la forme d\u2019un texte transcrit. Ainsi, nous nous sommes concentr\u00e9s sur la traduction de parole \u00e0 parole. Nous avons utilis\u00e9 la m\u00e9thode de traduction parole-unit\u00e9 (S2UT) pour convertir directement les entr\u00e9es vocales en une s\u00e9quence d\u2019unit\u00e9s acoustiques selon \u00a0l\u2019approche toute r\u00e9cente d\u00e9velopp\u00e9e par Meta. Nous avons ensuite g\u00e9n\u00e9r\u00e9 des ondes \u00e0 partir des unit\u00e9s. De plus, UnitY a \u00e9t\u00e9 utilis\u00e9 comme syst\u00e8me de d\u00e9codage en deux \u00e9tapes. Le premier d\u00e9codeur g\u00e9n\u00e8re du texte dans une langue similaire (le mandarin), et le deuxi\u00e8me cr\u00e9e des unit\u00e9s. \u00c9valuer l\u2019exactitude\u00a0 Les syst\u00e8mes de traduction vocale sont g\u00e9n\u00e9ralement \u00e9valu\u00e9s \u00e0 l\u2019aide d\u2019un indicateur appel\u00e9 ASR-BLEU. Pour cela, la parole traduite est d\u2019abord convertie en texte en utilisant la reconnaissance vocale automatique (ASR), puis des scores BLEU (un indicateur standard en mati\u00e8re de traduction automatique) sont calcul\u00e9s en comparant la transcription avec un texte traduit par un humain. Cependant, l\u2019\u00e9valuation des traductions vocales pour une langue parl\u00e9e comme le Hokkien est difficile, en raison notamment de l\u2019absence de syst\u00e8me \u00e9crit standard. Pour permettre une \u00e9valuation automatique, nous avons d\u00e9velopp\u00e9 un syst\u00e8me permettant de convertir le discours oral en Hokkien en une notation phon\u00e9tique standardis\u00e9e appel\u00e9e T\u00e2i-l\u00f4. Gr\u00e2ce \u00e0 cette technique, nous avons pu calculer un score BLEU au niveau des syllabes et comparer facilement la qualit\u00e9 de traduction des diff\u00e9rentes approches. \u00a0En plus de d\u00e9velopper une m\u00e9thode d\u2019\u00e9valuation des traductions vocales Hokkien-anglais, nous avons cr\u00e9\u00e9 le premier ensemble de donn\u00e9es de r\u00e9f\u00e9rence en mati\u00e8re de traduction vocale bidirectionnelle Hokkien-anglais sur la base d\u2019un corpus vocal en Hokkien appel\u00e9 Taiwanese Across Taiwan. Cet ensemble de donn\u00e9es de r\u00e9f\u00e9rence sera publi\u00e9 en open source pour encourager la recherche et progresser ensemble dans le domaine de la traduction vocale du Hokkien.\u00a0 Le futur de la traduction Dans sa phase actuelle, notre approche permet aux locuteurs du Hokkien de converser avec des anglophones. Notre mod\u00e8le est toujours en cours d\u2019am\u00e9lioration et ne permet de traduire qu\u2019une seule phrase \u00e0 la fois, mais c\u2019est une \u00e9tape qui nous rapproche d\u2019un futur o\u00f9 la traduction simultan\u00e9e entre les langues sera possible. Les techniques que nous avons utilis\u00e9es pour la premi\u00e8re fois avec le Hokkien peuvent \u00eatre \u00e9tendues \u00e0 de nombreuses autres langues, qu\u2019elles aient une forme \u00e9crite ou non. C\u2019est pour cette raison que nous publions la matrice vocale, un vaste corpus de traductions de parole \u00e0 parole rassembl\u00e9es gr\u00e2ce \u00e0 la technique innovante d\u2019analyse de donn\u00e9es de Meta appel\u00e9e LASER , qui permettra aux chercheurs de cr\u00e9er leurs propres syst\u00e8mes de traduction de parole \u00e0 parole (S2ST) en s\u2019appuyant sur notre travail. Les r\u00e9centes avanc\u00e9es de Meta en mati\u00e8re de reconnaissance vocale non supervis\u00e9e (wav2vec-U) et de traduction automatique non supervis\u00e9e (mBART) constituent une r\u00e9f\u00e9rence pour les futures recherches dans le domaine de la traduction des langues orales. Nos progr\u00e8s en mati\u00e8re d\u2019entra\u00eenement non supervis\u00e9 d\u00e9montrent qu\u2019il est possible de cr\u00e9er des mod\u00e8les de traduction de parole \u00e0 parole de grande qualit\u00e9 sans annotations humaines. Le syst\u00e8me r\u00e9duit consid\u00e9rablement les exigences n\u00e9cessaires \u00e0 l\u2019\u00e9largissement de la prise en charge des langues aux faibles ressources en raison de l\u2019absence de donn\u00e9es supervis\u00e9es pour grand nombre d\u2019entre elles. \u00a0La recherche en intelligence artificielle contribue \u00e0 faire sauter les barri\u00e8res de la langue, dans le monde r\u00e9el comme dans le m\u00e9tavers, afin d\u2019encourager la communication et la connaissance de l\u2019autre. Nous sommes enthousiastes \u00e0 l\u2019id\u00e9e d\u2019\u00e9largir nos recherches et de rendre cette technologie accessible \u00e0 plus de\u00a0 personnes \u00e0 l\u2019avenir. Pour lire les papiers de recherche : https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation https:\/\/research.facebook.com\/publications\/speechmatrix https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation Ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 par une \u00e9quipe pluridisciplinaire, notamment Al Youngblood, Ana Paula Kirschner Mofarrej, Andy Chung, Angela Fan, Ann Lee, Benjamin Peloquin, Beno\u00eet Sagot, Brian Bui, Brian O\u2019Horo, Carleigh Wood, Changhan Wang, Chloe Meyere, Chris Summers, Christopher Johnson, David Wu, Diana Otero, Eric Kaplan, Ethan Ye, Gopika Jhala, Gustavo Gandia Rivera, Hirofumi Inaguma, Holger Schwenk, Hongyu Gong, Ilia Kulikov, Iska Saric, Janice Lam, Jeff Wang, Jingfei Du, Juan Pino, Julia Vargas, Justine Kao, Karla Caraballo-Torres, Kevin Tran, Koklioong Loa, Lachlan Mackenzie, Michael Auli, Natalie Hereth, Ning Dong, Oliver Libaw, Orialis Valentin, Paden Tomasello, Paul-Ambroise Duquenne, Peng-Jen Chen, Pengwei Li, Robert Lee, Safiyyah Saleem, Sascha Brodsky, Semarley Jarrett, Sravya Popuri, TJ Krusinski, Vedanuj Goswami, Wei-Ning Hsu, Xutai Ma, Yilin Yang, Yun Tang.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00c0 propos de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2022-10-19T15:07:25+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890\" \/>\n<meta name=\"author\" content=\"hopscotch\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@METAfrance\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\"},\"author\":\"Facebook company\",\"headline\":\"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales\",\"datePublished\":\"2022-10-19T15:07:25+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\"},\"wordCount\":1589,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890\",\"keywords\":[\"IA\",\"Langues\",\"Meta\",\"recherche\",\"traduction\"],\"articleSection\":[\"Actualit\u00e9s\",\"Intelligence Artificielle\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\",\"url\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\",\"name\":\"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890\",\"datePublished\":\"2022-10-19T15:07:25+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/\"]}],\"author\":\"\u00c0 propos de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/fr\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00c0 propos de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/","og_locale":"fr_FR","og_type":"article","og_title":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta","og_description":"Jusqu\u2019\u00e0 pr\u00e9sent, les outils de traduction reposant sur de l\u2019intelligence artificielle (IA) \u00e9taient principalement d\u00e9di\u00e9s aux langues \u00e9crites. Or, pr\u00e8s de la moiti\u00e9 des 7000 langues vivantes dans le monde sont principalement orales et n\u2019ont pas de forme \u00e9crite standard ou largement utilis\u00e9e. Il est donc impossible de cr\u00e9er un outil de traduction automatique pour ces langues \u00e0 l\u2019aide des techniques classiques, qui n\u00e9cessitent une grande quantit\u00e9 de texte \u00e9crit pour l\u2019entra\u00eenement du mod\u00e8le d\u2019IA. Pour relever ce d\u00e9fi, nous avons cr\u00e9\u00e9 le premier syst\u00e8me de traduction reposant sur une IA d\u00e9di\u00e9e \u00e0 une langue principalement orale, le Hokkien. Le Hokkien est tr\u00e8s largement utilis\u00e9 au sein de la diaspora chinoise, mais il n\u2019a pas de forme \u00e9crite standard. Notre technologie permet aux locuteurs du Hokkien de tenir une conversation avec des anglophones. Ce syst\u00e8me de traduction d\u00e9velopp\u00e9 en open source fait partie du projet Universal Speech Translator (UST) de Meta. Il a pour objectif de d\u00e9velopper de nouvelles m\u00e9thodes bas\u00e9es sur l\u2019IA qui, nous l\u2019esp\u00e9rons, permettront \u00e0 terme la traduction directe en temps r\u00e9el de toutes les langues, m\u00eame celles qui sont essentiellement des langues parl\u00e9es (c\u2019est-\u00e0-dire non \u00e9crites). Nous croyons que la communication orale permet de faire tomber les barri\u00e8res et de cr\u00e9er du lien entre les personnes, o\u00f9 qu\u2019elles se trouvent, y compris dans le m\u00e9tavers. Pour mettre au point ce nouveau syst\u00e8me de traduction uniquement oral, nos chercheurs en IA ont d\u00fb relever de nombreux d\u00e9fis par rapport aux syst\u00e8mes de traduction automatique traditionnels, notamment en mati\u00e8re de collecte de donn\u00e9es, de conception de mod\u00e8les et d&rsquo;\u00e9valuation. Beaucoup de progr\u00e8s restent \u00e0 faire avant de pouvoir \u00e9tendre l\u2019UST \u00e0 d\u2019autres langues. Toutefois, la possibilit\u00e9 de parler facilement \u00e0 des personnes dans n&rsquo;importe quelle langue est un r\u00eave de longue date, et nous sommes heureux de nous rapprocher de cet objectif. Nous mettons en open source non seulement nos mod\u00e8les de traduction en Hokkien, mais aussi l\u2019ensemble des donn\u00e9es d&rsquo;\u00e9valuation et les documents de recherche, afin que d&rsquo;autres puissent reproduire et d\u00e9velopper notre travail. Surmonter les d\u00e9fis li\u00e9s aux donn\u00e9es d\u2019entra\u00eenement La collecte de donn\u00e9es en quantit\u00e9 suffisante a \u00e9t\u00e9 un obstacle de taille lors du d\u00e9veloppement du syst\u00e8me de traduction d\u00e9di\u00e9 au Hokkien. En effet,\u00a0 le Hokkien est une langue aux ressources peu nombreuses. Elle ne b\u00e9n\u00e9ficie donc pas d\u2019une vaste base de donn\u00e9es d\u2019entra\u00eenement imm\u00e9diatement accessibles, comme c\u2019est le cas pour l\u2019espagnol ou pour l\u2019anglais par exemple. De plus, les traducteurs de l\u2019anglais vers le Hokkien sont relativement rares, ce qui complique la collecte et l\u2019annotation de donn\u00e9es pour l\u2019entra\u00eenement du mod\u00e8le. Nous avons utilis\u00e9 le mandarin comme langue interm\u00e9diaire pour cr\u00e9er des traductions semi-supervis\u00e9es et humaines, en traduisant d\u2019abord de l\u2019anglais (ou du Hokkien) vers le mandarin, puis du mandarin vers le Hokkien (ou l\u2019anglais), avant d\u2019ajouter ces traductions aux donn\u00e9es d\u2019entra\u00eenement. Cette m\u00e9thode a \u00e9norm\u00e9ment am\u00e9lior\u00e9 les performances du mod\u00e8le en utilisant les donn\u00e9es d\u2019une langue similaire disposant de ressources en grande quantit\u00e9. L\u2019analyse vocale est une autre m\u00e9thode de g\u00e9n\u00e9ration de donn\u00e9es d\u2019entra\u00eenement. Gr\u00e2ce \u00e0 un encodeur vocal pr\u00e9-entra\u00een\u00e9, nous avons pu encoder des int\u00e9grations vocales en Hokkien dans le m\u00eame espace s\u00e9mantique que d\u2019autres langues, sans avoir \u00e0 faire appel \u00e0 une forme \u00e9crite du Hokkien. Les paroles en Hokkien peuvent \u00eatre align\u00e9es avec les paroles et le texte en anglais dont les int\u00e9grations s\u00e9mantiques sont similaires. Nous avons ensuite synth\u00e9tis\u00e9 les paroles en anglais \u00e0 partir de textes, cr\u00e9ant ainsi un alignement de paroles en Hokkien et en anglais. Une nouvelle approche de mod\u00e9lisation De nombreux syst\u00e8mes de traduction vocale reposent sur des transcriptions ou sont des syst\u00e8mes de conversion du discours oral en texte. Cependant, puisque les langues principalement orales n\u2019ont pas de forme \u00e9crite standard, il n\u2019est pas possible de g\u00e9n\u00e9rer une traduction sous la forme d\u2019un texte transcrit. Ainsi, nous nous sommes concentr\u00e9s sur la traduction de parole \u00e0 parole. Nous avons utilis\u00e9 la m\u00e9thode de traduction parole-unit\u00e9 (S2UT) pour convertir directement les entr\u00e9es vocales en une s\u00e9quence d\u2019unit\u00e9s acoustiques selon \u00a0l\u2019approche toute r\u00e9cente d\u00e9velopp\u00e9e par Meta. Nous avons ensuite g\u00e9n\u00e9r\u00e9 des ondes \u00e0 partir des unit\u00e9s. De plus, UnitY a \u00e9t\u00e9 utilis\u00e9 comme syst\u00e8me de d\u00e9codage en deux \u00e9tapes. Le premier d\u00e9codeur g\u00e9n\u00e8re du texte dans une langue similaire (le mandarin), et le deuxi\u00e8me cr\u00e9e des unit\u00e9s. \u00c9valuer l\u2019exactitude\u00a0 Les syst\u00e8mes de traduction vocale sont g\u00e9n\u00e9ralement \u00e9valu\u00e9s \u00e0 l\u2019aide d\u2019un indicateur appel\u00e9 ASR-BLEU. Pour cela, la parole traduite est d\u2019abord convertie en texte en utilisant la reconnaissance vocale automatique (ASR), puis des scores BLEU (un indicateur standard en mati\u00e8re de traduction automatique) sont calcul\u00e9s en comparant la transcription avec un texte traduit par un humain. Cependant, l\u2019\u00e9valuation des traductions vocales pour une langue parl\u00e9e comme le Hokkien est difficile, en raison notamment de l\u2019absence de syst\u00e8me \u00e9crit standard. Pour permettre une \u00e9valuation automatique, nous avons d\u00e9velopp\u00e9 un syst\u00e8me permettant de convertir le discours oral en Hokkien en une notation phon\u00e9tique standardis\u00e9e appel\u00e9e T\u00e2i-l\u00f4. Gr\u00e2ce \u00e0 cette technique, nous avons pu calculer un score BLEU au niveau des syllabes et comparer facilement la qualit\u00e9 de traduction des diff\u00e9rentes approches. \u00a0En plus de d\u00e9velopper une m\u00e9thode d\u2019\u00e9valuation des traductions vocales Hokkien-anglais, nous avons cr\u00e9\u00e9 le premier ensemble de donn\u00e9es de r\u00e9f\u00e9rence en mati\u00e8re de traduction vocale bidirectionnelle Hokkien-anglais sur la base d\u2019un corpus vocal en Hokkien appel\u00e9 Taiwanese Across Taiwan. Cet ensemble de donn\u00e9es de r\u00e9f\u00e9rence sera publi\u00e9 en open source pour encourager la recherche et progresser ensemble dans le domaine de la traduction vocale du Hokkien.\u00a0 Le futur de la traduction Dans sa phase actuelle, notre approche permet aux locuteurs du Hokkien de converser avec des anglophones. Notre mod\u00e8le est toujours en cours d\u2019am\u00e9lioration et ne permet de traduire qu\u2019une seule phrase \u00e0 la fois, mais c\u2019est une \u00e9tape qui nous rapproche d\u2019un futur o\u00f9 la traduction simultan\u00e9e entre les langues sera possible. Les techniques que nous avons utilis\u00e9es pour la premi\u00e8re fois avec le Hokkien peuvent \u00eatre \u00e9tendues \u00e0 de nombreuses autres langues, qu\u2019elles aient une forme \u00e9crite ou non. C\u2019est pour cette raison que nous publions la matrice vocale, un vaste corpus de traductions de parole \u00e0 parole rassembl\u00e9es gr\u00e2ce \u00e0 la technique innovante d\u2019analyse de donn\u00e9es de Meta appel\u00e9e LASER , qui permettra aux chercheurs de cr\u00e9er leurs propres syst\u00e8mes de traduction de parole \u00e0 parole (S2ST) en s\u2019appuyant sur notre travail. Les r\u00e9centes avanc\u00e9es de Meta en mati\u00e8re de reconnaissance vocale non supervis\u00e9e (wav2vec-U) et de traduction automatique non supervis\u00e9e (mBART) constituent une r\u00e9f\u00e9rence pour les futures recherches dans le domaine de la traduction des langues orales. Nos progr\u00e8s en mati\u00e8re d\u2019entra\u00eenement non supervis\u00e9 d\u00e9montrent qu\u2019il est possible de cr\u00e9er des mod\u00e8les de traduction de parole \u00e0 parole de grande qualit\u00e9 sans annotations humaines. Le syst\u00e8me r\u00e9duit consid\u00e9rablement les exigences n\u00e9cessaires \u00e0 l\u2019\u00e9largissement de la prise en charge des langues aux faibles ressources en raison de l\u2019absence de donn\u00e9es supervis\u00e9es pour grand nombre d\u2019entre elles. \u00a0La recherche en intelligence artificielle contribue \u00e0 faire sauter les barri\u00e8res de la langue, dans le monde r\u00e9el comme dans le m\u00e9tavers, afin d\u2019encourager la communication et la connaissance de l\u2019autre. Nous sommes enthousiastes \u00e0 l\u2019id\u00e9e d\u2019\u00e9largir nos recherches et de rendre cette technologie accessible \u00e0 plus de\u00a0 personnes \u00e0 l\u2019avenir. Pour lire les papiers de recherche : https:\/\/research.facebook.com\/publications\/hokkien-direct-speech-to-speech-translation https:\/\/research.facebook.com\/publications\/speechmatrix https:\/\/research.facebook.com\/publications\/unsupervised-direct-speech-to-speech-translation https:\/\/research.facebook.com\/publications\/unity-direct-speech-to-speech-translation Ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 par une \u00e9quipe pluridisciplinaire, notamment Al Youngblood, Ana Paula Kirschner Mofarrej, Andy Chung, Angela Fan, Ann Lee, Benjamin Peloquin, Beno\u00eet Sagot, Brian Bui, Brian O\u2019Horo, Carleigh Wood, Changhan Wang, Chloe Meyere, Chris Summers, Christopher Johnson, David Wu, Diana Otero, Eric Kaplan, Ethan Ye, Gopika Jhala, Gustavo Gandia Rivera, Hirofumi Inaguma, Holger Schwenk, Hongyu Gong, Ilia Kulikov, Iska Saric, Janice Lam, Jeff Wang, Jingfei Du, Juan Pino, Julia Vargas, Justine Kao, Karla Caraballo-Torres, Kevin Tran, Koklioong Loa, Lachlan Mackenzie, Michael Auli, Natalie Hereth, Ning Dong, Oliver Libaw, Orialis Valentin, Paden Tomasello, Paul-Ambroise Duquenne, Peng-Jen Chen, Pengwei Li, Robert Lee, Safiyyah Saleem, Sascha Brodsky, Semarley Jarrett, Sravya Popuri, TJ Krusinski, Vedanuj Goswami, Wei-Ning Hsu, Xutai Ma, Yilin Yang, Yun Tang.","og_url":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/","og_site_name":"\u00c0 propos de Meta","article_published_time":"2022-10-19T15:07:25+00:00","og_image":[{"url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890","type":"","width":"","height":""}],"author":"hopscotch","twitter_card":"summary_large_image","twitter_creator":"@METAfrance","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/"},"author":"Facebook company","headline":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales","datePublished":"2022-10-19T15:07:25+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/"},"wordCount":1589,"publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890","keywords":["IA","Langues","Meta","recherche","traduction"],"articleSection":["Actualit\u00e9s","Intelligence Artificielle"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/","url":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/","name":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales | \u00c0 propos de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890","datePublished":"2022-10-19T15:07:25+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/"]}],"author":"\u00c0 propos de Meta"},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#primaryimage","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2022\/10\/Image1.png?w=890"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/fr\/news\/2022\/10\/grace-a-lia-le-nouveau-systeme-de-traduction-vocale-du-hokkien-developpe-par-meta-ouvre-de-nouvelles-perspectives-pour-les-langues-essentiellement-orales\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/fr\/"},{"@type":"ListItem","position":2,"name":"Gr\u00e2ce \u00e0 l\u2019IA, le nouveau syst\u00e8me de traduction vocale du Hokkien d\u00e9velopp\u00e9 par Meta ouvre de nouvelles perspectives pour les langues essentiellement orales"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/fr\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00c0 propos de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/fr\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/23382","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/users\/164097090"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/comments?post=23382"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/23382\/revisions"}],"predecessor-version":[{"id":23388,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/23382\/revisions\/23388"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/media?parent=23382"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/categories?post=23382"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/tags?post=23382"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}