{"id":26157,"date":"2025-02-07T11:08:55","date_gmt":"2025-02-07T14:08:55","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=26157"},"modified":"2025-02-07T11:08:55","modified_gmt":"2025-02-07T14:08:55","slug":"avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","title":{"rendered":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano"},"content":{"rendered":"<p><span style=\"font-weight: 400\">A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa meta de alcan\u00e7ar AMI e nosso compromisso de longa data em compartilhar ci\u00eancia aberta e reproduz\u00edvel.<\/span><\/p>\n<p><b>Meta PARTNR: Desbloqueando a colabora\u00e7\u00e3o entre humanos e rob\u00f4s<\/b><\/p>\n<p><span style=\"font-weight: 400\">Imagine um mundo em que os rob\u00f4s s\u00e3o parceiros intuitivos no dia a dia \u2014 limpam a casa, recebem entregas e ajudam a cozinhar, tudo isso enquanto entendem nossas necessidades e se adaptam a ambientes din\u00e2micos. Hoje, estamos animados em apresentar o PARTNR, uma estrutura de pesquisa voltada para a colabora\u00e7\u00e3o perfeita entre humanos e rob\u00f4s. Atualmente, a maioria dos rob\u00f4s opera de forma isolada, o que limita seu potencial como assistentes do futuro. Com o PARTNR, pretendemos mudar o <\/span><i><span style=\"font-weight: 400\">status quo<\/span><\/i><span style=\"font-weight: 400\"> ao tornar p\u00fablico um benchmark, um conjunto de dados e um modelo em larga escala para o estudo da intera\u00e7\u00e3o entre humanos e rob\u00f4s em tarefas do cotidiano. Em sua ess\u00eancia, o PARTNR permite o treinamento de rob\u00f4s sociais por meio de simula\u00e7\u00f5es em grande escala, seguido de implementa\u00e7\u00e3o no mundo real.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-26157-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-PARTNR.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-PARTNR.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-PARTNR.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">O PARTNR se baseia em pesquisas anteriores de alto impacto, compartilhados com a comunidade com enfoque de IA aberta. Ele evoluiu a partir do <\/span><a href=\"https:\/\/ai.meta.com\/blog\/open-sourcing-ai-habitat-a-simulation-platform-for-embodied-ai-research\/\"><span style=\"font-weight: 400\">Habitat 1.0<\/span><\/a><span style=\"font-weight: 400\">, que treinou rob\u00f4s virtuais para navegar em escaneamentos 3D de casas reais, e do <\/span><a href=\"https:\/\/ai.meta.com\/blog\/habitat-20-training-home-assistant-robots-with-faster-simulation-and-new-benchmarks\/\"><span style=\"font-weight: 400\">Habitat 2.0<\/span><\/a><span style=\"font-weight: 400\">, que treinou rob\u00f4s virtuais para limpar casas e organizar objetos. Com o <\/span><a href=\"https:\/\/ai.meta.com\/blog\/habitat-3-socially-intelligent-robots-siro\/\"><span style=\"font-weight: 400\">Habitat 3.0<\/span><\/a><span style=\"font-weight: 400\">, um simulador projetado para treinar modelos para colabora\u00e7\u00e3o humano-rob\u00f4, demos mais um grande salto. O Habitat 3.0 permitiu o treinamento de modelos de colabora\u00e7\u00e3o humano-rob\u00f4 em larga escala, o que n\u00e3o \u00e9 vi\u00e1vel no mundo real por quest\u00f5es de seguran\u00e7a e problemas de escalabilidade.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tamb\u00e9m estamos introduzindo o benchmark PARTNR, que visa avaliar rob\u00f4s colaborativos e garantir que eles possam ter um bom desempenho em ambientes simulados e reais. Nosso benchmark consiste em 100.000 tarefas, incluindo tarefas dom\u00e9sticas, como lavar lou\u00e7a e brinquedos. Tamb\u00e9m estamos lan\u00e7ando o conjunto de dados PARTNR, que consiste em demonstra\u00e7\u00f5es humanas das tarefas PARTNR em simula\u00e7\u00e3o, que podem ser usadas para treinar modelos de IA incorporados. O benchmark PARTNR destaca as principais defici\u00eancias dos modelos existentes, como m\u00e1 coordena\u00e7\u00e3o e falhas no rastreamento de tarefas e recupera\u00e7\u00e3o de erros. Incentivamos a comunidade acad\u00eamica a continuar a desenvolver nosso trabalho e a impulsionar o progresso no campo da colabora\u00e7\u00e3o entre humanos e rob\u00f4s.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ainda fizemos avan\u00e7os em modelos que podem colaborar com humanos em ambientes de simula\u00e7\u00e3o e do mundo real. Usando dados de simula\u00e7\u00e3o em larga escala, treinamos um grande modelo de planejamento que supera as linhas de base de \u00faltima gera\u00e7\u00e3o em termos de velocidade e desempenho. Este modelo atinge um aumento de 8,6x na velocidade, ao mesmo tempo em que permite que os humanos sejam 24% mais eficientes na conclus\u00e3o de tarefas em compara\u00e7\u00e3o aos modelos de alto desempenho existentes. Ele pode interpretar instru\u00e7\u00f5es de longo prazo, dividindo tarefas complexas em etapas acion\u00e1veis \u200b\u200be fornecendo assist\u00eancia significativa aos usu\u00e1rios humanos. Implementamos, com sucesso, este modelo no Spot da <a href=\"https:\/\/bostondynamics.com\/\">Boston Dynamics<\/a>, demonstrando sua capacidade de trabalhar junto com humanos em cen\u00e1rios reais. Para aumentar a transpar\u00eancia e a confian\u00e7a, tamb\u00e9m desenvolvemos uma interface de realidade mista que visualiza as a\u00e7\u00f5es e os processos de pensamento do rob\u00f4, oferecendo uma janela para sua tomada de decis\u00e3o.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">O potencial para inova\u00e7\u00e3o e desenvolvimento no campo da colabora\u00e7\u00e3o humano-rob\u00f4 \u00e9 amplo. Com o PARTNR, queremos reimaginar os rob\u00f4s n\u00e3o apenas como agentes aut\u00f4nomos, mas como futuros parceiros e, assim, dar in\u00edcio \u00e0 pesquisa neste campo emocionante.<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/partnr-planner\">Baixe o c\u00f3digo<\/a><\/p>\n<p><a href=\"https:\/\/huggingface.co\/datasets\/ai-habitat\/partnr_episodes\"><span style=\"font-weight: 400\">Baixe o conjunto de dados\u00a0<\/span><\/a><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/partnr-a-benchmark-for-planning-and-reasoning-in-embodied-multi-agent-tasks\/\"><span style=\"font-weight: 400\">Leia o artigo\u00a0<\/span><\/a><\/p>\n<p><b>Democratizando a tecnologia da linguagem para a D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas<\/b><\/p>\n<p><span style=\"font-weight: 400\">A linguagem \u00e9 uma parte fundamental de quem somos, e, ainda assim, muitas pessoas ao redor do mundo s\u00e3o exclu\u00eddas da conversa digital porque sua l\u00edngua n\u00e3o \u00e9 suportada pela tecnologia. Para preencher essa lacuna, estamos convidando a comunidade lingu\u00edstica para colaborar com a melhoria e amplia\u00e7\u00e3o da cobertura das tecnologias de linguagem com enfoque aberto da Meta, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-26157-2\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/now.mp4?_=2\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/now.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/now.mp4<\/a><\/video><\/div>\n<p><b>Programa de Parceiros em Tecnologia de Linguagem<\/b><\/p>\n<p><span style=\"font-weight: 400\">Estamos buscando parceiros para colaborar com o avan\u00e7o das tecnologias de linguagem, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Nossos esfor\u00e7os s\u00e3o especialmente focados em l\u00ednguas carentes, em apoio ao trabalho da UNESCO e como parte da contribui\u00e7\u00e3o do setor privado para o empoderamento digital dentro da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas. Estamos buscando parceiros que possam contribuir com mais de 10 horas de grava\u00e7\u00f5es de fala com transcri\u00e7\u00f5es, grandes corpora de texto escrito (mais de 200 frases) e conjuntos de frases traduzidas em diversos idiomas. Os parceiros trabalhar\u00e3o com nossas equipes para integrar esses idiomas a modelos de reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica baseados em IA, que ser\u00e3o disponibilizados gratuitamente para a comunidade. Os parceiros tamb\u00e9m ter\u00e3o acesso a workshops liderados por nossos pesquisadores, onde aprender\u00e3o como aproveitar nossos modelos com enfoque aberto para construir tecnologias de linguagem. Estamos felizes que o Governo de Nunavut, no Canad\u00e1, tenha concordado em trabalhar conosco nesta iniciativa empolgante.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para participar do nosso Programa de Parceiros em Tecnologia de Linguagem, preencha este <a href=\"https:\/\/docs.google.com\/forms\/d\/e\/1FAIpQLSdzcRdtkQCuTrXw727DgJgWbOPKDj5v0bArgGfQUTT6sEopFw\/viewform\">formul\u00e1rio de interesse<\/a>.<\/span><\/p>\n<p><b>Benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque de IA aberta<\/b><\/p>\n<p><span style=\"font-weight: 400\">Al\u00e9m do nosso Programa de Parceiros em Tecnologia de Linguagem, estamos lan\u00e7ando um benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto de IA, composto por frases cuidadosamente elaboradas por especialistas em lingu\u00edstica para mostrar a diversidade da linguagem humana. Convidamos voc\u00ea a acessar o benchmark em sete idiomas e contribuir com tradu\u00e7\u00f5es que ser\u00e3o disponibilizadas para a comunidade. Nosso objetivo \u00e9 construir, de forma colaborativa, um benchmark de tradu\u00e7\u00e3o autom\u00e1tica multil\u00edngue sem precedentes.<\/span><\/p>\n<p><a href=\"https:\/\/huggingface.co\/spaces\/facebook\/bouquet\"><span style=\"font-weight: 400\">Saiba mais<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400\">Nosso compromisso de oferecer suporte a mais idiomas e desenvolver tecnologias com enfoque aberto para IA para eles \u00e9 cont\u00ednuo. Em 2022, lan\u00e7amos o <\/span><a href=\"https:\/\/ai.meta.com\/blog\/nllb-200-high-quality-machine-translation\/\"><span style=\"font-weight: 400\">No Language Left Behind (NLLB)<\/span><\/a><span style=\"font-weight: 400\">, um mecanismo inovador de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto que estabeleceu a base para futuras pesquisas e desenvolvimentos nessa \u00e1rea. Como o primeiro modelo de tradu\u00e7\u00e3o neural para muitos idiomas, o NLLB abriu caminho para mais inova\u00e7\u00e3o. Desde seu lan\u00e7amento, a comunidade de enfoque aberto para IA se baseou nesse trabalho, expandindo suas capacidades para oferecer suporte a dezenas de idiomas adicionais. Tamb\u00e9m estamos satisfeitos que a UNESCO e a Hugging Face colaboraram conosco para criar um <\/span><a href=\"https:\/\/huggingface.co\/spaces\/UNESCO\/nllb\"><span style=\"font-weight: 400\">tradutor de idiomas baseado no NLLB<\/span><\/a><span style=\"font-weight: 400\">, que <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/09\/meta-at-unga-2024\/\"><span style=\"font-weight: 400\">anunciamos<\/span><\/a><span style=\"font-weight: 400\"> durante a semana da Assembleia Geral das Na\u00e7\u00f5es Unidas em setembro de 2024. \u00c0 medida que continuamos a desenvolver essa tecnologia, estamos animados para colaborar com comunidades de idiomas para aprimorar e expandir a tradu\u00e7\u00e3o autom\u00e1tica e outras tecnologias de idiomas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para dar suporte ao empoderamento digital, que \u00e9 uma \u00e1rea tem\u00e1tica fundamental do Plano de A\u00e7\u00e3o Global da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas, introduzimos recentemente o projeto <\/span><a href=\"https:\/\/huggingface.co\/spaces\/mms-meta\/MMS\"><span style=\"font-weight: 400\">Massively Multilingual Speech<\/span><\/a><span style=\"font-weight: 400\"> (MMS), que dimensiona a transcri\u00e7\u00e3o de \u00e1udio para mais de 1.100 idiomas. Continuamos a melhorar e expandir suas capacidades, incluindo a adi\u00e7\u00e3o do reconhecimento de fala <\/span><i><span style=\"font-weight: 400\">zero-shot<\/span><\/i><span style=\"font-weight: 400\">, que permite que o modelo transcreva \u00e1udio em idiomas nunca vistos antes sem treinamento pr\u00e9vio. Essas tecnologias t\u00eam implica\u00e7\u00f5es significativas para o suporte e acessibilidade de idiomas, especialmente para comunidades carentes.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ao promover a implementa\u00e7\u00e3o da D\u00e9cada Internacional de L\u00ednguas Ind\u00edgenas, pretendemos abordar os desafios impostos pelo crescimento de modelos de l\u00edngua inglesa e trabalhar para uma representa\u00e7\u00e3o igualit\u00e1ria de todos os idiomas, contribuindo para a realiza\u00e7\u00e3o dos Objetivos de Desenvolvimento Sustent\u00e1vel das Na\u00e7\u00f5es Unidas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Al\u00e9m de seu impacto potencial no suporte e acessibilidade de idiomas, nosso trabalho tamb\u00e9m tem implica\u00e7\u00f5es mais amplas para o desenvolvimento do AMI. Ao trabalhar em problemas multil\u00edngues e idiomas carentes, o modelo demonstra a capacidade de aprender com dados m\u00ednimos. Esses desenvolvimentos marcam um passo crucial para a cria\u00e7\u00e3o de sistemas inteligentes que podem se adaptar a novas situa\u00e7\u00f5es e aprender com a experi\u00eancia.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nosso grande objetivo \u00e9 criar sistemas inteligentes que possam entender e responder a necessidades humanas complexas, independentemente do idioma ou origem cultural, garantindo que a tecnologia seja inclusiva e acess\u00edvel para todas as l\u00ednguas do mundo.<\/span><\/p>\n<p><b>Meta Audiobox Aesthetics: um novo padr\u00e3o para processamento de \u00e1udio<\/b><\/p>\n<p><span style=\"font-weight: 400\">Tradicionalmente, medir a est\u00e9tica do \u00e1udio tem sido uma tarefa complexa devido \u00e0 sua natureza subjetiva. Ao contr\u00e1rio de m\u00e9tricas objetivas como resposta de frequ\u00eancia ou rela\u00e7\u00e3o sinal-ru\u00eddo, a est\u00e9tica do \u00e1udio requer uma compreens\u00e3o diferenciada da percep\u00e7\u00e3o humana. Hoje, estamos animados em trazer nosso enfoque de IA aberta para o Meta Audiobox Aesthetics, um modelo que permite a avalia\u00e7\u00e3o autom\u00e1tica da est\u00e9tica do \u00e1udio, fornecendo uma avalia\u00e7\u00e3o abrangente da qualidade do \u00e1udio em fala, m\u00fasica e som. O modelo faz previs\u00f5es que analisam o prazer do conte\u00fado, a utilidade do conte\u00fado, a complexidade e a qualidade da produ\u00e7\u00e3o. Abordar os desafios da avalia\u00e7\u00e3o subjetiva do \u00e1udio leva \u00e0 melhoria da qualidade do conte\u00fado de \u00e1udio e ao desenvolvimento de modelos de \u00e1udio generativos mais avan\u00e7ados.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-26162\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?resize=960%2C925\" alt=\"\" width=\"960\" height=\"925\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=415 415w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1121 1121w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=623 623w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Os m\u00e9todos de avalia\u00e7\u00e3o existentes geralmente fornecem resultados espec\u00edficos de submodalidade com instru\u00e7\u00f5es vagas que s\u00e3o dif\u00edceis de interpretar. O Audiobox Aesthetics supera essas limita\u00e7\u00f5es ao oferecer uma abordagem estruturada para avalia\u00e7\u00e3o de \u00e1udio.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para desenvolver o Audiobox Aesthetics, projetamos um protocolo de anota\u00e7\u00e3o abrangente, resultando na coleta de 562 horas de dados est\u00e9ticos de \u00e1udio. Nosso conjunto de dados foi anotado por avaliadores profissionais para garantir dados de alta qualidade. O processo de anota\u00e7\u00e3o envolveu a avalia\u00e7\u00e3o de amostras de \u00e1udio em uma escala de um a dez em quatro m\u00e9tricas definidas: qualidade da produ\u00e7\u00e3o, complexidade da produ\u00e7\u00e3o, aproveitamento do conte\u00fado e utilidade do conte\u00fado. Esse processo permitiu a cria\u00e7\u00e3o de uma pontua\u00e7\u00e3o est\u00e9tica unificada calibrada em diferentes modalidades de \u00e1udio, garantindo consist\u00eancia e confiabilidade nas previs\u00f5es do modelo.<\/span><\/p>\n<figure id=\"attachment_26163\" aria-describedby=\"caption-attachment-26163\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"wp-image-26163 size-full\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?resize=960%2C770\" alt=\"\" width=\"960\" height=\"770\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=499 499w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=1346 1346w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476281329_1135910010964256_8023661154335946861_n.jpg?w=748 748w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><figcaption id=\"caption-attachment-26163\" class=\"wp-caption-text\">\u25b2 quanto maior, melhor. Em todas as quatro dimens\u00f5es de avalia\u00e7\u00e3o de qualidade, o Audiobox Aesthetics mostra melhor correla\u00e7\u00e3o com o julgamento humano do que os concorrentes em fala, som e m\u00fasica.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Experimentos extensivos mostraram que o Audiobox Aesthetics superou trabalhos anteriores com maior correla\u00e7\u00e3o com o julgamento humano, provando sua efic\u00e1cia como uma m\u00e9trica autom\u00e1tica para avalia\u00e7\u00e3o de qualidade. O modelo, que est\u00e1 sendo lan\u00e7ado com uma licen\u00e7a CC-BY 4.0, tamb\u00e9m aumenta a qualidade de v\u00e1rios modelos de gera\u00e7\u00e3o de \u00e1udio por meio de filtragem de dados e solicita\u00e7\u00e3o de qualidade, alcan\u00e7ando melhorias significativas em aplicativos de texto para fala, texto para m\u00fasica e texto para som.<\/span><\/p>\n<p><span style=\"font-weight: 400\">O Audiobox Aesthetics j\u00e1 foi aproveitado para aprimorar o <\/span><a href=\"https:\/\/ai.meta.com\/blog\/movie-gen-media-foundation-models-generative-ai-video\/\"><span style=\"font-weight: 400\">Meta Movie Gen<\/span><\/a><span style=\"font-weight: 400\">, ajudando a facilitar o conte\u00fado multim\u00eddia de alta qualidade, impulsionando ainda mais o progresso e a inova\u00e7\u00e3o no setor. Esperamos que este trabalho seja usado para aprimorar a qualidade do conte\u00fado de \u00e1udio e dar suporte ao desenvolvimento de modelos de \u00e1udio generativos mais sofisticados.<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/audiobox-aesthetics\"><span style=\"font-weight: 400\">Baixe os pesos e o c\u00f3digo do modelo<\/span><\/a><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/meta-audiobox-aesthetics-unified-automatic-quality-assessment-for-speech-music-and-sound\/\"><span style=\"font-weight: 400\">Leia o artigo<\/span><\/a><\/p>\n<p><b>Transcri\u00e7\u00f5es de mensagens de voz do WhatsApp: desbloqueando a comunica\u00e7\u00e3o perfeita<\/b><\/p>\n<p><span style=\"font-weight: 400\">\u00c0 medida que continuamos a construir o futuro da conex\u00e3o humana e a tecnologia que a torna poss\u00edvel, <\/span><a href=\"https:\/\/blog.whatsapp.com\/introducing-voice-message-transcripts?lang=pt_br\"><span style=\"font-weight: 400\">lan\u00e7amos<\/span><\/a><span style=\"font-weight: 400\"> uma atualiza\u00e7\u00e3o no WhatsApp para tornar a comunica\u00e7\u00e3o ainda mais perfeita. As transcri\u00e7\u00f5es de mensagens de voz utilizam tecnologia avan\u00e7ada no dispositivo para gerar transcri\u00e7\u00f5es de mensagens de \u00e1udio localmente e com seguran\u00e7a, garantindo que as mensagens de voz pessoais sejam criptografadas de ponta a ponta. Atualmente, esse recurso oferece suporte a ingl\u00eas, espanhol, portugu\u00eas e russo, ampliando seu alcance em diversas comunidades.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-26157-3\" width=\"960\" height=\"960\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/WhatsApp-Voice-Transcript.mp4?_=3\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/WhatsApp-Voice-Transcript.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/WhatsApp-Voice-Transcript.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">O desenvolvimento das transcri\u00e7\u00f5es de mensagens de voz foi poss\u00edvel aproveitando os insights da pesquisa do FAIR da Meta sobre <\/span><a href=\"https:\/\/ai.meta.com\/research\/seamless-communication\/\"><span style=\"font-weight: 400\">Seamless Communication<\/span><\/a><span style=\"font-weight: 400\">. O WhatsApp pode continuar a inovar e melhorar seus servi\u00e7os usando essa pesquisa, impulsionando, em \u00faltima an\u00e1lise, o progresso em dire\u00e7\u00e3o \u00e0 meta de atingir AMI com recursos multil\u00edngues. N\u00f3s exploramos, desenvolvemos e compartilhamos amplamente as melhores pr\u00e1ticas para ajuste fino de modelos com a comunidade de pesquisa para os lan\u00e7amentos p\u00fablicos de modelos Seamless M4T. Essas t\u00e9cnicas foram aplicadas e aprimoradas ainda mais, junto com a destila\u00e7\u00e3o, para ajust\u00e1-las ao g\u00eanero de mensagens de voz do WhatsApp.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esse avan\u00e7o aprimora as experi\u00eancias das pessoas ao mesmo tempo em que protege as mensagens privadas e prepara o cen\u00e1rio para futuras inova\u00e7\u00f5es em comunica\u00e7\u00e3o multil\u00edngue.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa meta de alcan\u00e7ar AMI e nosso compromisso de longa data em compartilhar ci\u00eancia aberta e reproduz\u00edvel. Meta PARTNR: Desbloqueando a colabora\u00e7\u00e3o entre humanos e rob\u00f4s Imagine um mundo em que os rob\u00f4s s\u00e3o parceiros intuitivos no dia a dia \u2014 limpam a casa, recebem entregas e ajudam a cozinhar, tudo isso enquanto entendem nossas necessidades e se adaptam a ambientes din\u00e2micos. Hoje, estamos animados em apresentar o PARTNR, uma estrutura de pesquisa voltada para a colabora\u00e7\u00e3o perfeita entre humanos e rob\u00f4s. Atualmente, a maioria dos rob\u00f4s opera de forma isolada, o que limita seu potencial como assistentes do futuro. Com o PARTNR, pretendemos mudar o status quo ao tornar p\u00fablico um benchmark, um conjunto de dados e um modelo em larga escala para o estudo da intera\u00e7\u00e3o entre humanos e rob\u00f4s em tarefas do cotidiano. Em sua ess\u00eancia, o PARTNR permite o treinamento de rob\u00f4s sociais por meio de simula\u00e7\u00f5es em grande escala, seguido de implementa\u00e7\u00e3o no mundo real. O PARTNR se baseia em pesquisas anteriores de alto impacto, compartilhados com a comunidade com enfoque de IA aberta. Ele evoluiu a partir do Habitat 1.0, que treinou rob\u00f4s virtuais para navegar em escaneamentos 3D de casas reais, e do Habitat 2.0, que treinou rob\u00f4s virtuais para limpar casas e organizar objetos. Com o Habitat 3.0, um simulador projetado para treinar modelos para colabora\u00e7\u00e3o humano-rob\u00f4, demos mais um grande salto. O Habitat 3.0 permitiu o treinamento de modelos de colabora\u00e7\u00e3o humano-rob\u00f4 em larga escala, o que n\u00e3o \u00e9 vi\u00e1vel no mundo real por quest\u00f5es de seguran\u00e7a e problemas de escalabilidade. Tamb\u00e9m estamos introduzindo o benchmark PARTNR, que visa avaliar rob\u00f4s colaborativos e garantir que eles possam ter um bom desempenho em ambientes simulados e reais. Nosso benchmark consiste em 100.000 tarefas, incluindo tarefas dom\u00e9sticas, como lavar lou\u00e7a e brinquedos. Tamb\u00e9m estamos lan\u00e7ando o conjunto de dados PARTNR, que consiste em demonstra\u00e7\u00f5es humanas das tarefas PARTNR em simula\u00e7\u00e3o, que podem ser usadas para treinar modelos de IA incorporados. O benchmark PARTNR destaca as principais defici\u00eancias dos modelos existentes, como m\u00e1 coordena\u00e7\u00e3o e falhas no rastreamento de tarefas e recupera\u00e7\u00e3o de erros. Incentivamos a comunidade acad\u00eamica a continuar a desenvolver nosso trabalho e a impulsionar o progresso no campo da colabora\u00e7\u00e3o entre humanos e rob\u00f4s. Ainda fizemos avan\u00e7os em modelos que podem colaborar com humanos em ambientes de simula\u00e7\u00e3o e do mundo real. Usando dados de simula\u00e7\u00e3o em larga escala, treinamos um grande modelo de planejamento que supera as linhas de base de \u00faltima gera\u00e7\u00e3o em termos de velocidade e desempenho. Este modelo atinge um aumento de 8,6x na velocidade, ao mesmo tempo em que permite que os humanos sejam 24% mais eficientes na conclus\u00e3o de tarefas em compara\u00e7\u00e3o aos modelos de alto desempenho existentes. Ele pode interpretar instru\u00e7\u00f5es de longo prazo, dividindo tarefas complexas em etapas acion\u00e1veis \u200b\u200be fornecendo assist\u00eancia significativa aos usu\u00e1rios humanos. Implementamos, com sucesso, este modelo no Spot da Boston Dynamics, demonstrando sua capacidade de trabalhar junto com humanos em cen\u00e1rios reais. Para aumentar a transpar\u00eancia e a confian\u00e7a, tamb\u00e9m desenvolvemos uma interface de realidade mista que visualiza as a\u00e7\u00f5es e os processos de pensamento do rob\u00f4, oferecendo uma janela para sua tomada de decis\u00e3o.\u00a0 O potencial para inova\u00e7\u00e3o e desenvolvimento no campo da colabora\u00e7\u00e3o humano-rob\u00f4 \u00e9 amplo. Com o PARTNR, queremos reimaginar os rob\u00f4s n\u00e3o apenas como agentes aut\u00f4nomos, mas como futuros parceiros e, assim, dar in\u00edcio \u00e0 pesquisa neste campo emocionante. Baixe o c\u00f3digo Baixe o conjunto de dados\u00a0 Leia o artigo\u00a0 Democratizando a tecnologia da linguagem para a D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas A linguagem \u00e9 uma parte fundamental de quem somos, e, ainda assim, muitas pessoas ao redor do mundo s\u00e3o exclu\u00eddas da conversa digital porque sua l\u00edngua n\u00e3o \u00e9 suportada pela tecnologia. Para preencher essa lacuna, estamos convidando a comunidade lingu\u00edstica para colaborar com a melhoria e amplia\u00e7\u00e3o da cobertura das tecnologias de linguagem com enfoque aberto da Meta, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Programa de Parceiros em Tecnologia de Linguagem Estamos buscando parceiros para colaborar com o avan\u00e7o das tecnologias de linguagem, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Nossos esfor\u00e7os s\u00e3o especialmente focados em l\u00ednguas carentes, em apoio ao trabalho da UNESCO e como parte da contribui\u00e7\u00e3o do setor privado para o empoderamento digital dentro da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas. Estamos buscando parceiros que possam contribuir com mais de 10 horas de grava\u00e7\u00f5es de fala com transcri\u00e7\u00f5es, grandes corpora de texto escrito (mais de 200 frases) e conjuntos de frases traduzidas em diversos idiomas. Os parceiros trabalhar\u00e3o com nossas equipes para integrar esses idiomas a modelos de reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica baseados em IA, que ser\u00e3o disponibilizados gratuitamente para a comunidade. Os parceiros tamb\u00e9m ter\u00e3o acesso a workshops liderados por nossos pesquisadores, onde aprender\u00e3o como aproveitar nossos modelos com enfoque aberto para construir tecnologias de linguagem. Estamos felizes que o Governo de Nunavut, no Canad\u00e1, tenha concordado em trabalhar conosco nesta iniciativa empolgante. Para participar do nosso Programa de Parceiros em Tecnologia de Linguagem, preencha este formul\u00e1rio de interesse. Benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque de IA aberta Al\u00e9m do nosso Programa de Parceiros em Tecnologia de Linguagem, estamos lan\u00e7ando um benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto de IA, composto por frases cuidadosamente elaboradas por especialistas em lingu\u00edstica para mostrar a diversidade da linguagem humana. Convidamos voc\u00ea a acessar o benchmark em sete idiomas e contribuir com tradu\u00e7\u00f5es que ser\u00e3o disponibilizadas para a comunidade. Nosso objetivo \u00e9 construir, de forma colaborativa, um benchmark de tradu\u00e7\u00e3o autom\u00e1tica multil\u00edngue sem precedentes. Saiba mais Nosso compromisso de oferecer suporte a mais idiomas e desenvolver tecnologias com enfoque aberto para IA para eles \u00e9 cont\u00ednuo. Em 2022, lan\u00e7amos o No Language Left Behind (NLLB), um mecanismo inovador de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto que estabeleceu a base para futuras pesquisas e desenvolvimentos nessa \u00e1rea. Como o primeiro modelo de tradu\u00e7\u00e3o neural para muitos idiomas, o NLLB abriu caminho para mais inova\u00e7\u00e3o. Desde seu lan\u00e7amento, a comunidade de enfoque aberto para IA se baseou nesse trabalho, expandindo suas capacidades para oferecer suporte a dezenas de idiomas adicionais. Tamb\u00e9m estamos satisfeitos que a UNESCO e a Hugging Face colaboraram conosco para criar um tradutor de idiomas baseado no NLLB, que anunciamos durante a semana da Assembleia Geral das Na\u00e7\u00f5es Unidas em setembro de 2024. \u00c0 medida que continuamos a desenvolver essa tecnologia, estamos animados para colaborar com comunidades de idiomas para aprimorar e expandir a tradu\u00e7\u00e3o autom\u00e1tica e outras tecnologias de idiomas. Para dar suporte ao empoderamento digital, que \u00e9 uma \u00e1rea tem\u00e1tica fundamental do Plano de A\u00e7\u00e3o Global da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas, introduzimos recentemente o projeto Massively Multilingual Speech (MMS), que dimensiona a transcri\u00e7\u00e3o de \u00e1udio para mais de 1.100 idiomas. Continuamos a melhorar e expandir suas capacidades, incluindo a adi\u00e7\u00e3o do reconhecimento de fala zero-shot, que permite que o modelo transcreva \u00e1udio em idiomas nunca vistos antes sem treinamento pr\u00e9vio. Essas tecnologias t\u00eam implica\u00e7\u00f5es significativas para o suporte e acessibilidade de idiomas, especialmente para comunidades carentes. Ao promover a implementa\u00e7\u00e3o da D\u00e9cada Internacional de L\u00ednguas Ind\u00edgenas, pretendemos abordar os desafios impostos pelo crescimento de modelos de l\u00edngua inglesa e trabalhar para uma representa\u00e7\u00e3o igualit\u00e1ria de todos os idiomas, contribuindo para a realiza\u00e7\u00e3o dos Objetivos de Desenvolvimento Sustent\u00e1vel das Na\u00e7\u00f5es Unidas. Al\u00e9m de seu impacto potencial no suporte e acessibilidade de idiomas, nosso trabalho tamb\u00e9m tem implica\u00e7\u00f5es mais amplas para o desenvolvimento do AMI. Ao trabalhar em problemas multil\u00edngues e idiomas carentes, o modelo demonstra a capacidade de aprender com dados m\u00ednimos. Esses desenvolvimentos marcam um passo crucial para a cria\u00e7\u00e3o de sistemas inteligentes que podem se adaptar a novas situa\u00e7\u00f5es e aprender com a experi\u00eancia. Nosso grande objetivo \u00e9 criar sistemas inteligentes que possam entender e responder a necessidades humanas complexas, independentemente do idioma ou origem cultural, garantindo que a tecnologia seja inclusiva e acess\u00edvel para todas as l\u00ednguas do mundo. Meta Audiobox Aesthetics: um novo padr\u00e3o para processamento de \u00e1udio Tradicionalmente, medir a est\u00e9tica do \u00e1udio tem sido uma tarefa complexa devido \u00e0 sua natureza subjetiva. Ao contr\u00e1rio de m\u00e9tricas objetivas como resposta de frequ\u00eancia ou rela\u00e7\u00e3o sinal-ru\u00eddo, a est\u00e9tica do \u00e1udio requer uma compreens\u00e3o diferenciada da percep\u00e7\u00e3o humana. Hoje, estamos animados em trazer nosso enfoque de IA aberta para o Meta Audiobox Aesthetics, um modelo que permite a avalia\u00e7\u00e3o autom\u00e1tica da est\u00e9tica do \u00e1udio, fornecendo uma avalia\u00e7\u00e3o abrangente da qualidade do \u00e1udio em fala, m\u00fasica e som. O modelo faz previs\u00f5es que analisam o prazer do conte\u00fado, a utilidade do conte\u00fado, a complexidade e a qualidade da produ\u00e7\u00e3o. Abordar os desafios da avalia\u00e7\u00e3o subjetiva do \u00e1udio leva \u00e0 melhoria da qualidade do conte\u00fado de \u00e1udio e ao desenvolvimento de modelos de \u00e1udio generativos mais avan\u00e7ados. Os m\u00e9todos de avalia\u00e7\u00e3o existentes geralmente fornecem resultados espec\u00edficos de submodalidade com instru\u00e7\u00f5es vagas que s\u00e3o dif\u00edceis de interpretar. O Audiobox Aesthetics supera essas limita\u00e7\u00f5es ao oferecer uma abordagem estruturada para avalia\u00e7\u00e3o de \u00e1udio. Para desenvolver o Audiobox Aesthetics, projetamos um protocolo de anota\u00e7\u00e3o abrangente, resultando na coleta de 562 horas de dados est\u00e9ticos de \u00e1udio. Nosso conjunto de dados foi anotado por avaliadores profissionais para garantir dados de alta qualidade. O processo de anota\u00e7\u00e3o envolveu a avalia\u00e7\u00e3o de amostras de \u00e1udio em uma escala de um a dez em quatro m\u00e9tricas definidas: qualidade da produ\u00e7\u00e3o, complexidade da produ\u00e7\u00e3o, aproveitamento do conte\u00fado e utilidade do conte\u00fado. Esse processo permitiu a cria\u00e7\u00e3o de uma pontua\u00e7\u00e3o est\u00e9tica unificada calibrada em diferentes modalidades de \u00e1udio, garantindo consist\u00eancia e confiabilidade nas previs\u00f5es do modelo. Experimentos extensivos mostraram que o Audiobox Aesthetics superou trabalhos anteriores com maior correla\u00e7\u00e3o com o julgamento humano, provando sua efic\u00e1cia como uma m\u00e9trica autom\u00e1tica para avalia\u00e7\u00e3o de qualidade. O modelo, que est\u00e1 sendo lan\u00e7ado com uma licen\u00e7a CC-BY 4.0, tamb\u00e9m aumenta a qualidade de v\u00e1rios modelos de gera\u00e7\u00e3o de \u00e1udio por meio de filtragem de dados e solicita\u00e7\u00e3o de qualidade, alcan\u00e7ando melhorias significativas em aplicativos de texto para fala, texto para m\u00fasica e texto para som. O Audiobox Aesthetics j\u00e1 foi aproveitado para aprimorar o Meta Movie Gen, ajudando a facilitar o conte\u00fado multim\u00eddia de alta qualidade, impulsionando ainda mais o progresso e a inova\u00e7\u00e3o no setor. Esperamos que este trabalho seja usado para aprimorar a qualidade do conte\u00fado de \u00e1udio e dar suporte ao desenvolvimento de modelos de \u00e1udio generativos mais sofisticados. Baixe os pesos e o c\u00f3digo do modelo Leia o artigo Transcri\u00e7\u00f5es de mensagens de voz do WhatsApp: desbloqueando a comunica\u00e7\u00e3o perfeita \u00c0 medida que continuamos a construir o futuro da conex\u00e3o humana e a tecnologia que a torna poss\u00edvel, lan\u00e7amos uma atualiza\u00e7\u00e3o no WhatsApp para tornar a comunica\u00e7\u00e3o ainda mais perfeita. As transcri\u00e7\u00f5es de mensagens de voz utilizam tecnologia avan\u00e7ada no dispositivo para gerar transcri\u00e7\u00f5es de mensagens de \u00e1udio localmente e com seguran\u00e7a, garantindo que as mensagens de voz pessoais sejam criptografadas de ponta a ponta. Atualmente, esse recurso oferece suporte a ingl\u00eas, espanhol, portugu\u00eas e russo, ampliando seu alcance em diversas comunidades. O desenvolvimento das transcri\u00e7\u00f5es de mensagens de voz foi poss\u00edvel aproveitando os insights da pesquisa do FAIR da Meta sobre Seamless Communication. O WhatsApp pode continuar a inovar e melhorar seus servi\u00e7os usando essa pesquisa, impulsionando, em \u00faltima an\u00e1lise, o progresso em dire\u00e7\u00e3o \u00e0 meta de atingir AMI com recursos multil\u00edngues. N\u00f3s exploramos, desenvolvemos e compartilhamos amplamente as melhores pr\u00e1ticas para ajuste fino de modelos com a comunidade de pesquisa para os lan\u00e7amentos p\u00fablicos de modelos Seamless M4T. Essas t\u00e9cnicas foram aplicadas e aprimoradas ainda mais, junto com a destila\u00e7\u00e3o, para ajust\u00e1-las ao g\u00eanero de mensagens de voz do WhatsApp. Esse avan\u00e7o aprimora as experi\u00eancias das pessoas ao mesmo tempo em que protege as mensagens privadas e prepara o cen\u00e1rio para futuras inova\u00e7\u00f5es em comunica\u00e7\u00e3o multil\u00edngue.","protected":false},"author":164097234,"featured_media":26158,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-26157","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa meta de alcan\u00e7ar AMI e nosso compromisso de longa data em compartilhar ci\u00eancia aberta e reproduz\u00edvel. Meta PARTNR: Desbloqueando a colabora\u00e7\u00e3o entre humanos e rob\u00f4s Imagine um mundo em que os rob\u00f4s s\u00e3o parceiros intuitivos no dia a dia \u2014 limpam a casa, recebem entregas e ajudam a cozinhar, tudo isso enquanto entendem nossas necessidades e se adaptam a ambientes din\u00e2micos. Hoje, estamos animados em apresentar o PARTNR, uma estrutura de pesquisa voltada para a colabora\u00e7\u00e3o perfeita entre humanos e rob\u00f4s. Atualmente, a maioria dos rob\u00f4s opera de forma isolada, o que limita seu potencial como assistentes do futuro. Com o PARTNR, pretendemos mudar o status quo ao tornar p\u00fablico um benchmark, um conjunto de dados e um modelo em larga escala para o estudo da intera\u00e7\u00e3o entre humanos e rob\u00f4s em tarefas do cotidiano. Em sua ess\u00eancia, o PARTNR permite o treinamento de rob\u00f4s sociais por meio de simula\u00e7\u00f5es em grande escala, seguido de implementa\u00e7\u00e3o no mundo real. O PARTNR se baseia em pesquisas anteriores de alto impacto, compartilhados com a comunidade com enfoque de IA aberta. Ele evoluiu a partir do Habitat 1.0, que treinou rob\u00f4s virtuais para navegar em escaneamentos 3D de casas reais, e do Habitat 2.0, que treinou rob\u00f4s virtuais para limpar casas e organizar objetos. Com o Habitat 3.0, um simulador projetado para treinar modelos para colabora\u00e7\u00e3o humano-rob\u00f4, demos mais um grande salto. O Habitat 3.0 permitiu o treinamento de modelos de colabora\u00e7\u00e3o humano-rob\u00f4 em larga escala, o que n\u00e3o \u00e9 vi\u00e1vel no mundo real por quest\u00f5es de seguran\u00e7a e problemas de escalabilidade. Tamb\u00e9m estamos introduzindo o benchmark PARTNR, que visa avaliar rob\u00f4s colaborativos e garantir que eles possam ter um bom desempenho em ambientes simulados e reais. Nosso benchmark consiste em 100.000 tarefas, incluindo tarefas dom\u00e9sticas, como lavar lou\u00e7a e brinquedos. Tamb\u00e9m estamos lan\u00e7ando o conjunto de dados PARTNR, que consiste em demonstra\u00e7\u00f5es humanas das tarefas PARTNR em simula\u00e7\u00e3o, que podem ser usadas para treinar modelos de IA incorporados. O benchmark PARTNR destaca as principais defici\u00eancias dos modelos existentes, como m\u00e1 coordena\u00e7\u00e3o e falhas no rastreamento de tarefas e recupera\u00e7\u00e3o de erros. Incentivamos a comunidade acad\u00eamica a continuar a desenvolver nosso trabalho e a impulsionar o progresso no campo da colabora\u00e7\u00e3o entre humanos e rob\u00f4s. Ainda fizemos avan\u00e7os em modelos que podem colaborar com humanos em ambientes de simula\u00e7\u00e3o e do mundo real. Usando dados de simula\u00e7\u00e3o em larga escala, treinamos um grande modelo de planejamento que supera as linhas de base de \u00faltima gera\u00e7\u00e3o em termos de velocidade e desempenho. Este modelo atinge um aumento de 8,6x na velocidade, ao mesmo tempo em que permite que os humanos sejam 24% mais eficientes na conclus\u00e3o de tarefas em compara\u00e7\u00e3o aos modelos de alto desempenho existentes. Ele pode interpretar instru\u00e7\u00f5es de longo prazo, dividindo tarefas complexas em etapas acion\u00e1veis \u200b\u200be fornecendo assist\u00eancia significativa aos usu\u00e1rios humanos. Implementamos, com sucesso, este modelo no Spot da Boston Dynamics, demonstrando sua capacidade de trabalhar junto com humanos em cen\u00e1rios reais. Para aumentar a transpar\u00eancia e a confian\u00e7a, tamb\u00e9m desenvolvemos uma interface de realidade mista que visualiza as a\u00e7\u00f5es e os processos de pensamento do rob\u00f4, oferecendo uma janela para sua tomada de decis\u00e3o.\u00a0 O potencial para inova\u00e7\u00e3o e desenvolvimento no campo da colabora\u00e7\u00e3o humano-rob\u00f4 \u00e9 amplo. Com o PARTNR, queremos reimaginar os rob\u00f4s n\u00e3o apenas como agentes aut\u00f4nomos, mas como futuros parceiros e, assim, dar in\u00edcio \u00e0 pesquisa neste campo emocionante. Baixe o c\u00f3digo Baixe o conjunto de dados\u00a0 Leia o artigo\u00a0 Democratizando a tecnologia da linguagem para a D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas A linguagem \u00e9 uma parte fundamental de quem somos, e, ainda assim, muitas pessoas ao redor do mundo s\u00e3o exclu\u00eddas da conversa digital porque sua l\u00edngua n\u00e3o \u00e9 suportada pela tecnologia. Para preencher essa lacuna, estamos convidando a comunidade lingu\u00edstica para colaborar com a melhoria e amplia\u00e7\u00e3o da cobertura das tecnologias de linguagem com enfoque aberto da Meta, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Programa de Parceiros em Tecnologia de Linguagem Estamos buscando parceiros para colaborar com o avan\u00e7o das tecnologias de linguagem, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Nossos esfor\u00e7os s\u00e3o especialmente focados em l\u00ednguas carentes, em apoio ao trabalho da UNESCO e como parte da contribui\u00e7\u00e3o do setor privado para o empoderamento digital dentro da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas. Estamos buscando parceiros que possam contribuir com mais de 10 horas de grava\u00e7\u00f5es de fala com transcri\u00e7\u00f5es, grandes corpora de texto escrito (mais de 200 frases) e conjuntos de frases traduzidas em diversos idiomas. Os parceiros trabalhar\u00e3o com nossas equipes para integrar esses idiomas a modelos de reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica baseados em IA, que ser\u00e3o disponibilizados gratuitamente para a comunidade. Os parceiros tamb\u00e9m ter\u00e3o acesso a workshops liderados por nossos pesquisadores, onde aprender\u00e3o como aproveitar nossos modelos com enfoque aberto para construir tecnologias de linguagem. Estamos felizes que o Governo de Nunavut, no Canad\u00e1, tenha concordado em trabalhar conosco nesta iniciativa empolgante. Para participar do nosso Programa de Parceiros em Tecnologia de Linguagem, preencha este formul\u00e1rio de interesse. Benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque de IA aberta Al\u00e9m do nosso Programa de Parceiros em Tecnologia de Linguagem, estamos lan\u00e7ando um benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto de IA, composto por frases cuidadosamente elaboradas por especialistas em lingu\u00edstica para mostrar a diversidade da linguagem humana. Convidamos voc\u00ea a acessar o benchmark em sete idiomas e contribuir com tradu\u00e7\u00f5es que ser\u00e3o disponibilizadas para a comunidade. Nosso objetivo \u00e9 construir, de forma colaborativa, um benchmark de tradu\u00e7\u00e3o autom\u00e1tica multil\u00edngue sem precedentes. Saiba mais Nosso compromisso de oferecer suporte a mais idiomas e desenvolver tecnologias com enfoque aberto para IA para eles \u00e9 cont\u00ednuo. Em 2022, lan\u00e7amos o No Language Left Behind (NLLB), um mecanismo inovador de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto que estabeleceu a base para futuras pesquisas e desenvolvimentos nessa \u00e1rea. Como o primeiro modelo de tradu\u00e7\u00e3o neural para muitos idiomas, o NLLB abriu caminho para mais inova\u00e7\u00e3o. Desde seu lan\u00e7amento, a comunidade de enfoque aberto para IA se baseou nesse trabalho, expandindo suas capacidades para oferecer suporte a dezenas de idiomas adicionais. Tamb\u00e9m estamos satisfeitos que a UNESCO e a Hugging Face colaboraram conosco para criar um tradutor de idiomas baseado no NLLB, que anunciamos durante a semana da Assembleia Geral das Na\u00e7\u00f5es Unidas em setembro de 2024. \u00c0 medida que continuamos a desenvolver essa tecnologia, estamos animados para colaborar com comunidades de idiomas para aprimorar e expandir a tradu\u00e7\u00e3o autom\u00e1tica e outras tecnologias de idiomas. Para dar suporte ao empoderamento digital, que \u00e9 uma \u00e1rea tem\u00e1tica fundamental do Plano de A\u00e7\u00e3o Global da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas, introduzimos recentemente o projeto Massively Multilingual Speech (MMS), que dimensiona a transcri\u00e7\u00e3o de \u00e1udio para mais de 1.100 idiomas. Continuamos a melhorar e expandir suas capacidades, incluindo a adi\u00e7\u00e3o do reconhecimento de fala zero-shot, que permite que o modelo transcreva \u00e1udio em idiomas nunca vistos antes sem treinamento pr\u00e9vio. Essas tecnologias t\u00eam implica\u00e7\u00f5es significativas para o suporte e acessibilidade de idiomas, especialmente para comunidades carentes. Ao promover a implementa\u00e7\u00e3o da D\u00e9cada Internacional de L\u00ednguas Ind\u00edgenas, pretendemos abordar os desafios impostos pelo crescimento de modelos de l\u00edngua inglesa e trabalhar para uma representa\u00e7\u00e3o igualit\u00e1ria de todos os idiomas, contribuindo para a realiza\u00e7\u00e3o dos Objetivos de Desenvolvimento Sustent\u00e1vel das Na\u00e7\u00f5es Unidas. Al\u00e9m de seu impacto potencial no suporte e acessibilidade de idiomas, nosso trabalho tamb\u00e9m tem implica\u00e7\u00f5es mais amplas para o desenvolvimento do AMI. Ao trabalhar em problemas multil\u00edngues e idiomas carentes, o modelo demonstra a capacidade de aprender com dados m\u00ednimos. Esses desenvolvimentos marcam um passo crucial para a cria\u00e7\u00e3o de sistemas inteligentes que podem se adaptar a novas situa\u00e7\u00f5es e aprender com a experi\u00eancia. Nosso grande objetivo \u00e9 criar sistemas inteligentes que possam entender e responder a necessidades humanas complexas, independentemente do idioma ou origem cultural, garantindo que a tecnologia seja inclusiva e acess\u00edvel para todas as l\u00ednguas do mundo. Meta Audiobox Aesthetics: um novo padr\u00e3o para processamento de \u00e1udio Tradicionalmente, medir a est\u00e9tica do \u00e1udio tem sido uma tarefa complexa devido \u00e0 sua natureza subjetiva. Ao contr\u00e1rio de m\u00e9tricas objetivas como resposta de frequ\u00eancia ou rela\u00e7\u00e3o sinal-ru\u00eddo, a est\u00e9tica do \u00e1udio requer uma compreens\u00e3o diferenciada da percep\u00e7\u00e3o humana. Hoje, estamos animados em trazer nosso enfoque de IA aberta para o Meta Audiobox Aesthetics, um modelo que permite a avalia\u00e7\u00e3o autom\u00e1tica da est\u00e9tica do \u00e1udio, fornecendo uma avalia\u00e7\u00e3o abrangente da qualidade do \u00e1udio em fala, m\u00fasica e som. O modelo faz previs\u00f5es que analisam o prazer do conte\u00fado, a utilidade do conte\u00fado, a complexidade e a qualidade da produ\u00e7\u00e3o. Abordar os desafios da avalia\u00e7\u00e3o subjetiva do \u00e1udio leva \u00e0 melhoria da qualidade do conte\u00fado de \u00e1udio e ao desenvolvimento de modelos de \u00e1udio generativos mais avan\u00e7ados. Os m\u00e9todos de avalia\u00e7\u00e3o existentes geralmente fornecem resultados espec\u00edficos de submodalidade com instru\u00e7\u00f5es vagas que s\u00e3o dif\u00edceis de interpretar. O Audiobox Aesthetics supera essas limita\u00e7\u00f5es ao oferecer uma abordagem estruturada para avalia\u00e7\u00e3o de \u00e1udio. Para desenvolver o Audiobox Aesthetics, projetamos um protocolo de anota\u00e7\u00e3o abrangente, resultando na coleta de 562 horas de dados est\u00e9ticos de \u00e1udio. Nosso conjunto de dados foi anotado por avaliadores profissionais para garantir dados de alta qualidade. O processo de anota\u00e7\u00e3o envolveu a avalia\u00e7\u00e3o de amostras de \u00e1udio em uma escala de um a dez em quatro m\u00e9tricas definidas: qualidade da produ\u00e7\u00e3o, complexidade da produ\u00e7\u00e3o, aproveitamento do conte\u00fado e utilidade do conte\u00fado. Esse processo permitiu a cria\u00e7\u00e3o de uma pontua\u00e7\u00e3o est\u00e9tica unificada calibrada em diferentes modalidades de \u00e1udio, garantindo consist\u00eancia e confiabilidade nas previs\u00f5es do modelo. Experimentos extensivos mostraram que o Audiobox Aesthetics superou trabalhos anteriores com maior correla\u00e7\u00e3o com o julgamento humano, provando sua efic\u00e1cia como uma m\u00e9trica autom\u00e1tica para avalia\u00e7\u00e3o de qualidade. O modelo, que est\u00e1 sendo lan\u00e7ado com uma licen\u00e7a CC-BY 4.0, tamb\u00e9m aumenta a qualidade de v\u00e1rios modelos de gera\u00e7\u00e3o de \u00e1udio por meio de filtragem de dados e solicita\u00e7\u00e3o de qualidade, alcan\u00e7ando melhorias significativas em aplicativos de texto para fala, texto para m\u00fasica e texto para som. O Audiobox Aesthetics j\u00e1 foi aproveitado para aprimorar o Meta Movie Gen, ajudando a facilitar o conte\u00fado multim\u00eddia de alta qualidade, impulsionando ainda mais o progresso e a inova\u00e7\u00e3o no setor. Esperamos que este trabalho seja usado para aprimorar a qualidade do conte\u00fado de \u00e1udio e dar suporte ao desenvolvimento de modelos de \u00e1udio generativos mais sofisticados. Baixe os pesos e o c\u00f3digo do modelo Leia o artigo Transcri\u00e7\u00f5es de mensagens de voz do WhatsApp: desbloqueando a comunica\u00e7\u00e3o perfeita \u00c0 medida que continuamos a construir o futuro da conex\u00e3o humana e a tecnologia que a torna poss\u00edvel, lan\u00e7amos uma atualiza\u00e7\u00e3o no WhatsApp para tornar a comunica\u00e7\u00e3o ainda mais perfeita. As transcri\u00e7\u00f5es de mensagens de voz utilizam tecnologia avan\u00e7ada no dispositivo para gerar transcri\u00e7\u00f5es de mensagens de \u00e1udio localmente e com seguran\u00e7a, garantindo que as mensagens de voz pessoais sejam criptografadas de ponta a ponta. Atualmente, esse recurso oferece suporte a ingl\u00eas, espanhol, portugu\u00eas e russo, ampliando seu alcance em diversas comunidades. O desenvolvimento das transcri\u00e7\u00f5es de mensagens de voz foi poss\u00edvel aproveitando os insights da pesquisa do FAIR da Meta sobre Seamless Communication. O WhatsApp pode continuar a inovar e melhorar seus servi\u00e7os usando essa pesquisa, impulsionando, em \u00faltima an\u00e1lise, o progresso em dire\u00e7\u00e3o \u00e0 meta de atingir AMI com recursos multil\u00edngues. N\u00f3s exploramos, desenvolvemos e compartilhamos amplamente as melhores pr\u00e1ticas para ajuste fino de modelos com a comunidade de pesquisa para os lan\u00e7amentos p\u00fablicos de modelos Seamless M4T. Essas t\u00e9cnicas foram aplicadas e aprimoradas ainda mais, junto com a destila\u00e7\u00e3o, para ajust\u00e1-las ao g\u00eanero de mensagens de voz do WhatsApp. Esse avan\u00e7o aprimora as experi\u00eancias das pessoas ao mesmo tempo em que protege as mensagens privadas e prepara o cen\u00e1rio para futuras inova\u00e7\u00f5es em comunica\u00e7\u00e3o multil\u00edngue.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2025-02-07T14:08:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\"},\"author\":\"Facebook company\",\"headline\":\"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano\",\"datePublished\":\"2025-02-07T14:08:55+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\"},\"wordCount\":2308,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\",\"name\":\"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080\",\"datePublished\":\"2025-02-07T14:08:55+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","og_locale":"pt_BR","og_type":"article","og_title":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta","og_description":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa meta de alcan\u00e7ar AMI e nosso compromisso de longa data em compartilhar ci\u00eancia aberta e reproduz\u00edvel. Meta PARTNR: Desbloqueando a colabora\u00e7\u00e3o entre humanos e rob\u00f4s Imagine um mundo em que os rob\u00f4s s\u00e3o parceiros intuitivos no dia a dia \u2014 limpam a casa, recebem entregas e ajudam a cozinhar, tudo isso enquanto entendem nossas necessidades e se adaptam a ambientes din\u00e2micos. Hoje, estamos animados em apresentar o PARTNR, uma estrutura de pesquisa voltada para a colabora\u00e7\u00e3o perfeita entre humanos e rob\u00f4s. Atualmente, a maioria dos rob\u00f4s opera de forma isolada, o que limita seu potencial como assistentes do futuro. Com o PARTNR, pretendemos mudar o status quo ao tornar p\u00fablico um benchmark, um conjunto de dados e um modelo em larga escala para o estudo da intera\u00e7\u00e3o entre humanos e rob\u00f4s em tarefas do cotidiano. Em sua ess\u00eancia, o PARTNR permite o treinamento de rob\u00f4s sociais por meio de simula\u00e7\u00f5es em grande escala, seguido de implementa\u00e7\u00e3o no mundo real. O PARTNR se baseia em pesquisas anteriores de alto impacto, compartilhados com a comunidade com enfoque de IA aberta. Ele evoluiu a partir do Habitat 1.0, que treinou rob\u00f4s virtuais para navegar em escaneamentos 3D de casas reais, e do Habitat 2.0, que treinou rob\u00f4s virtuais para limpar casas e organizar objetos. Com o Habitat 3.0, um simulador projetado para treinar modelos para colabora\u00e7\u00e3o humano-rob\u00f4, demos mais um grande salto. O Habitat 3.0 permitiu o treinamento de modelos de colabora\u00e7\u00e3o humano-rob\u00f4 em larga escala, o que n\u00e3o \u00e9 vi\u00e1vel no mundo real por quest\u00f5es de seguran\u00e7a e problemas de escalabilidade. Tamb\u00e9m estamos introduzindo o benchmark PARTNR, que visa avaliar rob\u00f4s colaborativos e garantir que eles possam ter um bom desempenho em ambientes simulados e reais. Nosso benchmark consiste em 100.000 tarefas, incluindo tarefas dom\u00e9sticas, como lavar lou\u00e7a e brinquedos. Tamb\u00e9m estamos lan\u00e7ando o conjunto de dados PARTNR, que consiste em demonstra\u00e7\u00f5es humanas das tarefas PARTNR em simula\u00e7\u00e3o, que podem ser usadas para treinar modelos de IA incorporados. O benchmark PARTNR destaca as principais defici\u00eancias dos modelos existentes, como m\u00e1 coordena\u00e7\u00e3o e falhas no rastreamento de tarefas e recupera\u00e7\u00e3o de erros. Incentivamos a comunidade acad\u00eamica a continuar a desenvolver nosso trabalho e a impulsionar o progresso no campo da colabora\u00e7\u00e3o entre humanos e rob\u00f4s. Ainda fizemos avan\u00e7os em modelos que podem colaborar com humanos em ambientes de simula\u00e7\u00e3o e do mundo real. Usando dados de simula\u00e7\u00e3o em larga escala, treinamos um grande modelo de planejamento que supera as linhas de base de \u00faltima gera\u00e7\u00e3o em termos de velocidade e desempenho. Este modelo atinge um aumento de 8,6x na velocidade, ao mesmo tempo em que permite que os humanos sejam 24% mais eficientes na conclus\u00e3o de tarefas em compara\u00e7\u00e3o aos modelos de alto desempenho existentes. Ele pode interpretar instru\u00e7\u00f5es de longo prazo, dividindo tarefas complexas em etapas acion\u00e1veis \u200b\u200be fornecendo assist\u00eancia significativa aos usu\u00e1rios humanos. Implementamos, com sucesso, este modelo no Spot da Boston Dynamics, demonstrando sua capacidade de trabalhar junto com humanos em cen\u00e1rios reais. Para aumentar a transpar\u00eancia e a confian\u00e7a, tamb\u00e9m desenvolvemos uma interface de realidade mista que visualiza as a\u00e7\u00f5es e os processos de pensamento do rob\u00f4, oferecendo uma janela para sua tomada de decis\u00e3o.\u00a0 O potencial para inova\u00e7\u00e3o e desenvolvimento no campo da colabora\u00e7\u00e3o humano-rob\u00f4 \u00e9 amplo. Com o PARTNR, queremos reimaginar os rob\u00f4s n\u00e3o apenas como agentes aut\u00f4nomos, mas como futuros parceiros e, assim, dar in\u00edcio \u00e0 pesquisa neste campo emocionante. Baixe o c\u00f3digo Baixe o conjunto de dados\u00a0 Leia o artigo\u00a0 Democratizando a tecnologia da linguagem para a D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas A linguagem \u00e9 uma parte fundamental de quem somos, e, ainda assim, muitas pessoas ao redor do mundo s\u00e3o exclu\u00eddas da conversa digital porque sua l\u00edngua n\u00e3o \u00e9 suportada pela tecnologia. Para preencher essa lacuna, estamos convidando a comunidade lingu\u00edstica para colaborar com a melhoria e amplia\u00e7\u00e3o da cobertura das tecnologias de linguagem com enfoque aberto da Meta, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Programa de Parceiros em Tecnologia de Linguagem Estamos buscando parceiros para colaborar com o avan\u00e7o das tecnologias de linguagem, incluindo reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica. Nossos esfor\u00e7os s\u00e3o especialmente focados em l\u00ednguas carentes, em apoio ao trabalho da UNESCO e como parte da contribui\u00e7\u00e3o do setor privado para o empoderamento digital dentro da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas. Estamos buscando parceiros que possam contribuir com mais de 10 horas de grava\u00e7\u00f5es de fala com transcri\u00e7\u00f5es, grandes corpora de texto escrito (mais de 200 frases) e conjuntos de frases traduzidas em diversos idiomas. Os parceiros trabalhar\u00e3o com nossas equipes para integrar esses idiomas a modelos de reconhecimento de fala e tradu\u00e7\u00e3o autom\u00e1tica baseados em IA, que ser\u00e3o disponibilizados gratuitamente para a comunidade. Os parceiros tamb\u00e9m ter\u00e3o acesso a workshops liderados por nossos pesquisadores, onde aprender\u00e3o como aproveitar nossos modelos com enfoque aberto para construir tecnologias de linguagem. Estamos felizes que o Governo de Nunavut, no Canad\u00e1, tenha concordado em trabalhar conosco nesta iniciativa empolgante. Para participar do nosso Programa de Parceiros em Tecnologia de Linguagem, preencha este formul\u00e1rio de interesse. Benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque de IA aberta Al\u00e9m do nosso Programa de Parceiros em Tecnologia de Linguagem, estamos lan\u00e7ando um benchmark de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto de IA, composto por frases cuidadosamente elaboradas por especialistas em lingu\u00edstica para mostrar a diversidade da linguagem humana. Convidamos voc\u00ea a acessar o benchmark em sete idiomas e contribuir com tradu\u00e7\u00f5es que ser\u00e3o disponibilizadas para a comunidade. Nosso objetivo \u00e9 construir, de forma colaborativa, um benchmark de tradu\u00e7\u00e3o autom\u00e1tica multil\u00edngue sem precedentes. Saiba mais Nosso compromisso de oferecer suporte a mais idiomas e desenvolver tecnologias com enfoque aberto para IA para eles \u00e9 cont\u00ednuo. Em 2022, lan\u00e7amos o No Language Left Behind (NLLB), um mecanismo inovador de tradu\u00e7\u00e3o autom\u00e1tica com enfoque aberto que estabeleceu a base para futuras pesquisas e desenvolvimentos nessa \u00e1rea. Como o primeiro modelo de tradu\u00e7\u00e3o neural para muitos idiomas, o NLLB abriu caminho para mais inova\u00e7\u00e3o. Desde seu lan\u00e7amento, a comunidade de enfoque aberto para IA se baseou nesse trabalho, expandindo suas capacidades para oferecer suporte a dezenas de idiomas adicionais. Tamb\u00e9m estamos satisfeitos que a UNESCO e a Hugging Face colaboraram conosco para criar um tradutor de idiomas baseado no NLLB, que anunciamos durante a semana da Assembleia Geral das Na\u00e7\u00f5es Unidas em setembro de 2024. \u00c0 medida que continuamos a desenvolver essa tecnologia, estamos animados para colaborar com comunidades de idiomas para aprimorar e expandir a tradu\u00e7\u00e3o autom\u00e1tica e outras tecnologias de idiomas. Para dar suporte ao empoderamento digital, que \u00e9 uma \u00e1rea tem\u00e1tica fundamental do Plano de A\u00e7\u00e3o Global da D\u00e9cada Internacional das L\u00ednguas Ind\u00edgenas, introduzimos recentemente o projeto Massively Multilingual Speech (MMS), que dimensiona a transcri\u00e7\u00e3o de \u00e1udio para mais de 1.100 idiomas. Continuamos a melhorar e expandir suas capacidades, incluindo a adi\u00e7\u00e3o do reconhecimento de fala zero-shot, que permite que o modelo transcreva \u00e1udio em idiomas nunca vistos antes sem treinamento pr\u00e9vio. Essas tecnologias t\u00eam implica\u00e7\u00f5es significativas para o suporte e acessibilidade de idiomas, especialmente para comunidades carentes. Ao promover a implementa\u00e7\u00e3o da D\u00e9cada Internacional de L\u00ednguas Ind\u00edgenas, pretendemos abordar os desafios impostos pelo crescimento de modelos de l\u00edngua inglesa e trabalhar para uma representa\u00e7\u00e3o igualit\u00e1ria de todos os idiomas, contribuindo para a realiza\u00e7\u00e3o dos Objetivos de Desenvolvimento Sustent\u00e1vel das Na\u00e7\u00f5es Unidas. Al\u00e9m de seu impacto potencial no suporte e acessibilidade de idiomas, nosso trabalho tamb\u00e9m tem implica\u00e7\u00f5es mais amplas para o desenvolvimento do AMI. Ao trabalhar em problemas multil\u00edngues e idiomas carentes, o modelo demonstra a capacidade de aprender com dados m\u00ednimos. Esses desenvolvimentos marcam um passo crucial para a cria\u00e7\u00e3o de sistemas inteligentes que podem se adaptar a novas situa\u00e7\u00f5es e aprender com a experi\u00eancia. Nosso grande objetivo \u00e9 criar sistemas inteligentes que possam entender e responder a necessidades humanas complexas, independentemente do idioma ou origem cultural, garantindo que a tecnologia seja inclusiva e acess\u00edvel para todas as l\u00ednguas do mundo. Meta Audiobox Aesthetics: um novo padr\u00e3o para processamento de \u00e1udio Tradicionalmente, medir a est\u00e9tica do \u00e1udio tem sido uma tarefa complexa devido \u00e0 sua natureza subjetiva. Ao contr\u00e1rio de m\u00e9tricas objetivas como resposta de frequ\u00eancia ou rela\u00e7\u00e3o sinal-ru\u00eddo, a est\u00e9tica do \u00e1udio requer uma compreens\u00e3o diferenciada da percep\u00e7\u00e3o humana. Hoje, estamos animados em trazer nosso enfoque de IA aberta para o Meta Audiobox Aesthetics, um modelo que permite a avalia\u00e7\u00e3o autom\u00e1tica da est\u00e9tica do \u00e1udio, fornecendo uma avalia\u00e7\u00e3o abrangente da qualidade do \u00e1udio em fala, m\u00fasica e som. O modelo faz previs\u00f5es que analisam o prazer do conte\u00fado, a utilidade do conte\u00fado, a complexidade e a qualidade da produ\u00e7\u00e3o. Abordar os desafios da avalia\u00e7\u00e3o subjetiva do \u00e1udio leva \u00e0 melhoria da qualidade do conte\u00fado de \u00e1udio e ao desenvolvimento de modelos de \u00e1udio generativos mais avan\u00e7ados. Os m\u00e9todos de avalia\u00e7\u00e3o existentes geralmente fornecem resultados espec\u00edficos de submodalidade com instru\u00e7\u00f5es vagas que s\u00e3o dif\u00edceis de interpretar. O Audiobox Aesthetics supera essas limita\u00e7\u00f5es ao oferecer uma abordagem estruturada para avalia\u00e7\u00e3o de \u00e1udio. Para desenvolver o Audiobox Aesthetics, projetamos um protocolo de anota\u00e7\u00e3o abrangente, resultando na coleta de 562 horas de dados est\u00e9ticos de \u00e1udio. Nosso conjunto de dados foi anotado por avaliadores profissionais para garantir dados de alta qualidade. O processo de anota\u00e7\u00e3o envolveu a avalia\u00e7\u00e3o de amostras de \u00e1udio em uma escala de um a dez em quatro m\u00e9tricas definidas: qualidade da produ\u00e7\u00e3o, complexidade da produ\u00e7\u00e3o, aproveitamento do conte\u00fado e utilidade do conte\u00fado. Esse processo permitiu a cria\u00e7\u00e3o de uma pontua\u00e7\u00e3o est\u00e9tica unificada calibrada em diferentes modalidades de \u00e1udio, garantindo consist\u00eancia e confiabilidade nas previs\u00f5es do modelo. Experimentos extensivos mostraram que o Audiobox Aesthetics superou trabalhos anteriores com maior correla\u00e7\u00e3o com o julgamento humano, provando sua efic\u00e1cia como uma m\u00e9trica autom\u00e1tica para avalia\u00e7\u00e3o de qualidade. O modelo, que est\u00e1 sendo lan\u00e7ado com uma licen\u00e7a CC-BY 4.0, tamb\u00e9m aumenta a qualidade de v\u00e1rios modelos de gera\u00e7\u00e3o de \u00e1udio por meio de filtragem de dados e solicita\u00e7\u00e3o de qualidade, alcan\u00e7ando melhorias significativas em aplicativos de texto para fala, texto para m\u00fasica e texto para som. O Audiobox Aesthetics j\u00e1 foi aproveitado para aprimorar o Meta Movie Gen, ajudando a facilitar o conte\u00fado multim\u00eddia de alta qualidade, impulsionando ainda mais o progresso e a inova\u00e7\u00e3o no setor. Esperamos que este trabalho seja usado para aprimorar a qualidade do conte\u00fado de \u00e1udio e dar suporte ao desenvolvimento de modelos de \u00e1udio generativos mais sofisticados. Baixe os pesos e o c\u00f3digo do modelo Leia o artigo Transcri\u00e7\u00f5es de mensagens de voz do WhatsApp: desbloqueando a comunica\u00e7\u00e3o perfeita \u00c0 medida que continuamos a construir o futuro da conex\u00e3o humana e a tecnologia que a torna poss\u00edvel, lan\u00e7amos uma atualiza\u00e7\u00e3o no WhatsApp para tornar a comunica\u00e7\u00e3o ainda mais perfeita. As transcri\u00e7\u00f5es de mensagens de voz utilizam tecnologia avan\u00e7ada no dispositivo para gerar transcri\u00e7\u00f5es de mensagens de \u00e1udio localmente e com seguran\u00e7a, garantindo que as mensagens de voz pessoais sejam criptografadas de ponta a ponta. Atualmente, esse recurso oferece suporte a ingl\u00eas, espanhol, portugu\u00eas e russo, ampliando seu alcance em diversas comunidades. O desenvolvimento das transcri\u00e7\u00f5es de mensagens de voz foi poss\u00edvel aproveitando os insights da pesquisa do FAIR da Meta sobre Seamless Communication. O WhatsApp pode continuar a inovar e melhorar seus servi\u00e7os usando essa pesquisa, impulsionando, em \u00faltima an\u00e1lise, o progresso em dire\u00e7\u00e3o \u00e0 meta de atingir AMI com recursos multil\u00edngues. N\u00f3s exploramos, desenvolvemos e compartilhamos amplamente as melhores pr\u00e1ticas para ajuste fino de modelos com a comunidade de pesquisa para os lan\u00e7amentos p\u00fablicos de modelos Seamless M4T. Essas t\u00e9cnicas foram aplicadas e aprimoradas ainda mais, junto com a destila\u00e7\u00e3o, para ajust\u00e1-las ao g\u00eanero de mensagens de voz do WhatsApp. Esse avan\u00e7o aprimora as experi\u00eancias das pessoas ao mesmo tempo em que protege as mensagens privadas e prepara o cen\u00e1rio para futuras inova\u00e7\u00f5es em comunica\u00e7\u00e3o multil\u00edngue.","og_url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","og_site_name":"Sobre a Meta","article_published_time":"2025-02-07T14:08:55+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/"},"author":"Facebook company","headline":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano","datePublished":"2025-02-07T14:08:55+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/"},"wordCount":2308,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","name":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080","datePublished":"2025-02-07T14:08:55+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080","jetpack-related-posts":[{"id":26149,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","url_meta":{"origin":26157,"position":0},"title":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26166,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/anunciando-o-programa-de-parceria-em-tecnologia-de-linguagem\/","url_meta":{"origin":26157,"position":1},"title":"Anunciando o Programa de Parceria em Tecnologia de Linguagem","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) \u2014 uma IA que pode usar o racioc\u00ednio humano para realizar tarefas cognitivamente exigentes, como a tradu\u00e7\u00e3o \u2014 e us\u00e1-la para impulsionar produtos e inova\u00e7\u00f5es que beneficiem\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":26290,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/modelos-llama-4\/","url_meta":{"origin":26157,"position":2},"title":"A Cole\u00e7\u00e3o de Modelos Llama 4: o In\u00edcio de uma nova era de inova\u00e7\u00e3o em IA multimodal nativa","author":"Meta","date":"05\/04\/2025","format":false,"excerpt":"\u00c0 medida que mais pessoas continuam a usar a intelig\u00eancia artificial para melhorar suas vidas di\u00e1rias, \u00e9 importante que os modelos e sistemas l\u00edderes estejam dispon\u00edveis abertamente para que todos possam construir o futuro das experi\u00eancias personalizadas. Hoje, estamos entusiasmados em anunciar a su\u00edte de modelos mais avan\u00e7ada que suporta\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26552,"url":"https:\/\/about.fb.com\/br\/news\/2025\/07\/superinteligencia-pessoal-para-todos\/","url_meta":{"origin":26157,"position":3},"title":"Superintelig\u00eancia pessoal para todos","author":"Meta","date":"30\/07\/2025","format":false,"excerpt":"Hoje, o fundador e CEO da Meta, Mark Zuckerberg, compartilhou sua vis\u00e3o de levar superintelig\u00eancia pessoal a todos. Acreditamos em colocar esse poder nas m\u00e3os das pessoas para direcion\u00e1-lo ao que elas valorizam em suas pr\u00f3prias vidas. Leia aqui a carta original na \u00edntegra e confira abaixo a tradu\u00e7\u00e3o para\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26678,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/apresentando-o-vibes-uma-nova-forma-de-descobrir-e-criar-videos-com-ia\/","url_meta":{"origin":26157,"position":4},"title":"Apresentando o Vibes: uma nova forma de descobrir e criar v\u00eddeos com IA","author":"Meta","date":"25\/09\/2025","format":false,"excerpt":"Hoje estamos lan\u00e7ando a pr\u00f3xima vers\u00e3o do app Meta AI, incluindo uma pr\u00e9via do Vibes e um novo feed \u2013 tamb\u00e9m dispon\u00edvel em meta.ai \u2013, onde voc\u00ea pode criar e compartilhar v\u00eddeos curtos gerados por IA. O Vibes foi pensado para facilitar a busca por inspira\u00e7\u00e3o criativa e experimentar as\u2026","rel":"","context":"In &quot;Meta AI&quot;","block_context":{"text":"Meta AI","link":"https:\/\/about.fb.com\/br\/news\/category\/technologies\/meta-ai\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=700%2C400 2x"},"classes":[]},{"id":26574,"url":"https:\/\/about.fb.com\/br\/news\/2025\/08\/apresentando-o-app-meta-ai-uma-nova-forma-de-acessar-seu-assistente-de-inteligencia-artificial\/","url_meta":{"origin":26157,"position":5},"title":"Apresentando o app Meta AI: uma nova forma de acessar seu assistente de intelig\u00eancia artificial","author":"Meta","date":"11\/08\/2025","format":false,"excerpt":"Estamos lan\u00e7ando no Brasil o novo app Meta AI, desenvolvido com o Llama, um primeiro passo na constru\u00e7\u00e3o de uma IA mais pessoal. Pessoas ao redor do mundo j\u00e1 utilizam a Meta AI diariamente no WhatsApp, Instagram, Facebook e Messenger. Agora, elas tamb\u00e9m poder\u00e3o optar por interagir com uma IA\u2026","rel":"","context":"In &quot;Meta AI&quot;","block_context":{"text":"Meta AI","link":"https:\/\/about.fb.com\/br\/news\/category\/technologies\/meta-ai\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26157","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=26157"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26157\/revisions"}],"predecessor-version":[{"id":26165,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26157\/revisions\/26165"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/26158"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=26157"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=26157"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=26157"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}