{"id":25386,"date":"2023-12-18T13:49:57","date_gmt":"2023-12-18T16:49:57","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25386"},"modified":"2024-06-05T16:59:23","modified_gmt":"2024-06-05T19:59:23","slug":"progresso-da-meta-em-ia-e-realidade-mista","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/","title":{"rendered":"Vivendo no futuro"},"content":{"rendered":"<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25386-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/Boz-EOY-Recap_Header.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/Boz-EOY-Recap_Header.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/Boz-EOY-Recap_Header.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Bill Gates disse certa vez que as pessoas &#8220;superestimam o que podem fazer em um ano e subestimam o que podem fazer em dez anos&#8221;. Os avan\u00e7os individuais tendem a se acumular de forma n\u00e3o linear at\u00e9 que, de repente, o futuro entra em foco. Como diz o velho ditado, isso acontece de duas maneiras:<\/span><a href=\"https:\/\/www.oreilly.com\/radar\/gradually-then-suddenly\/\"> <span style=\"font-weight: 400\">gradualmente e depois de repente<\/span><\/a><span style=\"font-weight: 400\">. Ao encerrarmos 12 meses de um progresso tecnol\u00f3gico feroz, acho que \u00e9 justo dizer que 2023 foi um ano do tipo &#8220;repentino&#8221;.<\/span><\/p>\n<p><span style=\"font-weight: 400\">No m\u00eas passado, comemoramos o d\u00e9cimo anivers\u00e1rio da funda\u00e7\u00e3o do FAIR, nosso laborat\u00f3rio de pesquisa Fundamental AI Research. Quando o anunciamos em 2013, havia uma enorme empolga\u00e7\u00e3o em todo o setor sobre o papel que a IA desempenharia no futuro, e as primeiras aplica\u00e7\u00f5es de aprendizado de m\u00e1quina j\u00e1 estavam desempenhando um papel essencial no Facebook. Poucos poderiam imaginar naquela \u00e9poca o qu\u00e3o impressionante seria o progresso. De fato, mesmo h\u00e1 apenas dois anos, muitos poderiam ter questionado isso.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ao olharmos para 2024, outro grande marco est\u00e1 chegando: ser\u00e3o dez anos desde que a Meta come\u00e7ou a trabalhar na plataforma de computa\u00e7\u00e3o do futuro no Reality Labs. Essas duas tecnologias emergentes &#8211; IA e metaverso &#8211; representam as maiores apostas de longo prazo da Meta para o futuro. E, em 2023, come\u00e7amos a ver esses dois caminhos tecnol\u00f3gicos se cruzarem na forma de produtos acess\u00edveis a um grande n\u00famero de pessoas.<\/span><\/p>\n<p><b>IA<\/b><\/p>\n<p><span style=\"font-weight: 400\">Na Meta, um dos destaques do ano foi a forma como o <\/span><a href=\"https:\/\/ai.meta.com\/llama\/\"><span style=\"font-weight: 400\">Llama e o Llama 2<\/span><\/a><span style=\"font-weight: 400\"> foram adotados pela comunidade de desenvolvedores, tendo mais de 100 milh\u00f5es de downloads, bem como melhorias constantes vindas de organiza\u00e7\u00f5es do mundo inteiro \u00e0 medida que elas melhoravam. Na \u00cdndia, a Jio, operadora de rede m\u00f3vel,<\/span><a href=\"https:\/\/blog.gofynd.com\/fine-tuning-metas-llama-2-to-power-jio-copilot-part-1-afa527744d36\"> <span style=\"font-weight: 400\">adequou-se rapidamente<\/span><\/a><span style=\"font-weight: 400\"> para criar uma nova ferramenta para atender seus mais de meio bilh\u00e3o de clientes. A<\/span><a href=\"https:\/\/huggingface.co\/spaces\/HuggingFaceH4\/open_llm_leaderboard\"> <span style=\"font-weight: 400\">tabela de classifica\u00e7\u00e3o do Open LLM<\/span><\/a><span style=\"font-weight: 400\"> da HuggingFace, por sua vez, foi preenchida com projetos impressionantes criados com o Llama 2 que est\u00e3o liderando o caminho. Essas s\u00e3o apenas algumas das mais de 13.000 variantes do Llama hospedadas l\u00e1.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como qualquer nova tecnologia, a IA ter\u00e1 maior impacto quando estiver dispon\u00edvel para todos. N\u00e3o faz muito tempo que a capacidade de gerar belas imagens usando instru\u00e7\u00f5es de texto era efetivamente inacess\u00edvel para a maioria das pessoas. Contudo, hoje estamos<\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/12\/novidades-em-nossas-experiencias-de-ia\/\"> <span style=\"font-weight: 400\">adicionando ferramentas<\/span><\/a> <span style=\"font-weight: 400\">como gera\u00e7\u00e3o de imagens colaborativas, assistentes de conversa\u00e7\u00e3o, ajudantes de escrita e editores de imagens inteligentes em produtos j\u00e1 usados por bilh\u00f5es de pessoas ao redor do mundo.<\/span><\/p>\n<p><span style=\"font-weight: 400\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25391\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800&#038;resize=800%2C800\" alt=\"\" width=\"800\" height=\"800\" \/><\/span><\/p>\n<p><b>MUDAN\u00c7A DE PLATAFORMA<\/b><\/p>\n<p><span style=\"font-weight: 400\">A mudan\u00e7a que vimos no \u00faltimo ano sugere que h\u00e1 um caminho para que a IA se torne a principal forma de intera\u00e7\u00e3o das pessoas com as m\u00e1quinas. O cen\u00e1rio est\u00e1 pronto para novos tipos de dispositivos que podem perceber, entender e interagir com o mundo ao nosso redor de maneiras nunca antes poss\u00edveis.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nossos \u00f3culos Ray-Ban Meta alimentados por IA mostram um desses caminhos. A IA da Meta, nosso novo assistente, combina vis\u00e3o e compreens\u00e3o de linguagem para ver o mundo a partir de sua perspectiva e trabalhar com voc\u00ea para compreend\u00ea-lo. Estamos testando, tamb\u00e9m, novos recursos de IA multimodal nos \u00f3culos inteligentes. Com isso habilitado, eles podem traduzir um idioma estrangeiro que voc\u00ea est\u00e1 tentando ler ou at\u00e9 mesmo explicar a hist\u00f3ria de um edif\u00edcio hist\u00f3rico que voc\u00ea est\u00e1 vendo. Eles podem fazer isso sem que voc\u00ea precise pegar um telefone ou utilizar um aplicativo.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25386-2\" width=\"960\" height=\"960\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/02_MULTIMODAL-ON-SMART-GLASSES.mp4?_=2\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/02_MULTIMODAL-ON-SMART-GLASSES.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/02_MULTIMODAL-ON-SMART-GLASSES.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Acreditamos que uma das manifesta\u00e7\u00f5es mais poderosas da IA de \u00faltima gera\u00e7\u00e3o ser\u00e3o assistentes como esse, que podem entender o mundo ao seu redor e ajud\u00e1-lo ao longo do dia, eventualmente sem a necessidade de serem acionados. Os \u00f3culos s\u00e3o o formato ideal para isso &#8211; eles podem ver e ouvir o mundo do seu ponto de vista, j\u00e1 s\u00e3o socialmente aceit\u00e1veis, podem ser usados o dia todo e permitem que voc\u00ea fique totalmente presente no momento.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Na Reality Labs, investimos em anos de pesquisa sobre as tecnologias necess\u00e1rias para avan\u00e7ar nesse sentido &#8211; coisas como sensores de baix\u00edssima pot\u00eancia sempre ativos e sistemas de percep\u00e7\u00e3o de m\u00e1quina capazes de compreender seu contexto. N\u00e3o estamos apenas sendo pioneiros em um novo tipo de dispositivo, mas tamb\u00e9m estaremos o impulsionando nos pr\u00f3ximos anos.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25390\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/03_BOZ-MR-IMAGE.gif?w=800&#038;resize=800%2C800\" alt=\"\" width=\"800\" height=\"800\" \/><\/p>\n<p><span style=\"font-weight: 400\">A realidade mista e a computa\u00e7\u00e3o espacial representam outro caminho a seguir &#8211; estas n\u00e3o s\u00e3o simplesmente melhorias incrementais no paradigma da computa\u00e7\u00e3o pessoal, que dominou nos \u00faltimos 50 anos -, mas sim representam uma mudan\u00e7a fundamental, que est\u00e1 apenas come\u00e7ando a entrar em foco.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Disponibilizar essas novas tecnologias para o maior n\u00famero de pessoas tem sido uma das principais prioridades do Reality Labs h\u00e1 muitos anos, portanto, <\/span><a href=\"https:\/\/about.fb.com\/news\/2023\/09\/meet-meta-quest-3-mixed-reality-headset\/\"><span style=\"font-weight: 400\">o lan\u00e7amento do primeiro headset de realidade mista para o mercado geral<\/span><\/a><span style=\"font-weight: 400\"> em setembro foi outro destaque de 2023 para n\u00f3s.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Poucos meses ap\u00f3s o lan\u00e7amento do Meta Quest 3, sete dos 20 principais aplicativos s\u00e3o aplicativos de realidade mista. Estamos vendo fortes sinais de que as pessoas realmente valorizam essas experi\u00eancias \u2013 agora existem mais de 220 aplicativos Quest 3 em que a grande maioria dos usu\u00e1rios usa recursos de realidade mista. Ver o que acontece quando muitas pessoas colocam as m\u00e3os em uma nova tecnologia como esta foi maravilhoso:<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25388\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/04_INSERT-VISUAL_VIDEO-OF-FUN-MR-USE-CASE.gif?w=800&#038;resize=800%2C800\" alt=\"\" width=\"800\" height=\"800\" \/><\/p>\n<p><span style=\"font-weight: 400\">Veremos a acelera\u00e7\u00e3o desse progresso em 2024, \u00e0 medida que mais pessoas tiverem acesso \u00e0 realidade mista e os desenvolvedores aprenderem a aproveitar seu potencial. Seja uma exibi\u00e7\u00e3o imersiva da NBA no Xtadium ou uma abordagem totalmente nova para aprender m\u00fasica no Pianovision, j\u00e1 estamos vendo a realidade mista proporcionar experi\u00eancias que seriam imposs\u00edveis em qualquer outro tipo de dispositivo.<\/span><\/p>\n<p><b>VIS\u00c3O A LONGO PRAZO<\/b><\/p>\n<p><span style=\"font-weight: 400\">Fazer apostas de longo prazo em tecnologias emergentes n\u00e3o \u00e9 f\u00e1cil. N\u00e3o \u00e9 garantido que v\u00e1 funcionar e certamente n\u00e3o \u00e9 algo barato. \u00c9 tamb\u00e9m uma das coisas mais valiosas que uma empresa de tecnologia pode fazer e a \u00fanica maneira de permanecer relevante com o passar do tempo. Ver as duas maiores apostas tecnol\u00f3gicas de longo prazo da Meta amadurecerem e se interligarem este ano foi um lembrete extremamente poderoso da import\u00e2ncia de manter um investimento saud\u00e1vel em tecnologias futuras. E nos deu uma vis\u00e3o ainda mais clara da inova\u00e7\u00e3o que precisamos proporcionar durante a pr\u00f3xima d\u00e9cada.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Na IA, isso significa avan\u00e7ar trabalhando intensamente no que vem a seguir: o que vir\u00e1 depois da atual gera\u00e7\u00e3o de LLMs e da IA generativa? A maioria dos pesquisadores concorda que ainda h\u00e1 muitas oportunidades para construir modelos maiores e melhores de linguagem, imagem e v\u00eddeo com as tecnologias que temos hoje. Mas ainda existem avan\u00e7os fundamentais e arquiteturas inteiramente novas a serem descobertas, e nossas equipes de pesquisa de IA na Meta est\u00e3o no caminho certo para encontr\u00e1-las.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Isto significa investiga\u00e7\u00e3o cont\u00ednua em \u00e1reas como a IA incorporada, que visa construir modelos que experimentem o mundo da mesma forma que os humanos. O caminho para a IA de n\u00edvel humano, segundo acreditam os nossos pesquisadores, exigir\u00e1 sistemas que tenham uma <\/span><a href=\"https:\/\/ai.meta.com\/blog\/yann-lecun-advances-in-ai-research\/\"><span style=\"font-weight: 400\">compreens\u00e3o mais profunda de como o mundo funciona<\/span><\/a><span style=\"font-weight: 400\">, e as nossas equipes <\/span><a href=\"https:\/\/ai.meta.com\/blog\/yann-lecun-ai-model-i-jepa\/\"><span style=\"font-weight: 400\">j\u00e1 est\u00e3o fazendo progressos<\/span><\/a><span style=\"font-weight: 400\"> neste sentido, mas com anos de trabalho ainda pela frente.<\/span><\/p>\n<p><span style=\"font-weight: 400\">E no Reality Labs, os nossos pesquisadores est\u00e3o avan\u00e7ando em algumas das tecnologias mais promissoras, que tornar\u00e3o a pr\u00f3xima plataforma de computa\u00e7\u00e3o uma realidade poss\u00edvel. Ao longo dos anos, essa pesquisa levou a avan\u00e7os como as lentes tipo \u201cpanqueca\u201d no Quest Pro e no Quest 3, ou o prot\u00f3tipo incr\u00edvel de Codec Avatars que o <\/span><a href=\"https:\/\/www.youtube.com\/watch?v=MVYrJJNdrEg\"><span style=\"font-weight: 400\">Mark Zuckerberg e o Lex Fridman testaram este ano<\/span><\/a><span style=\"font-weight: 400\">. Mas esta \u00e9 apenas a ponta do iceberg &#8211; e os avan\u00e7os da pesquisa do Reality Labs nos permitir\u00e3o lan\u00e7ar nos pr\u00f3ximos anos uma s\u00e9rie de produtos pioneiros no setor.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Mas de todas as coisas que mencionei aqui, as tecnologias mais valiosas hoje s\u00e3o aquelas que est\u00e3o nas m\u00e3os das pessoas. O progresso alcan\u00e7ado em 2023 significa que a IA generativa est\u00e1 chegando ao cora\u00e7\u00e3o dos aplicativos mais populares do mundo, a realidade mista est\u00e1 agora no centro do mercado de headsets e os \u00f3culos inteligentes permitir\u00e3o que a IA veja o mundo da nossa perspectiva pela primeira vez. Este \u00e9 um momento extremamente emocionante para estar construindo o futuro. Mais importante ainda &#8211; \u00e9 um \u00f3timo momento para viver nele.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Bill Gates disse certa vez que as pessoas &#8220;superestimam o que podem fazer em um ano e subestimam o que podem fazer em dez anos&#8221;. Os avan\u00e7os individuais tendem a se acumular de forma n\u00e3o linear at\u00e9 que, de repente, o futuro entra em foco. Como diz o velho ditado, isso acontece de duas maneiras: gradualmente e depois de repente. Ao encerrarmos 12 meses de um progresso tecnol\u00f3gico feroz, acho que \u00e9 justo dizer que 2023 foi um ano do tipo &#8220;repentino&#8221;. No m\u00eas passado, comemoramos o d\u00e9cimo anivers\u00e1rio da funda\u00e7\u00e3o do FAIR, nosso laborat\u00f3rio de pesquisa Fundamental AI Research. Quando o anunciamos em 2013, havia uma enorme empolga\u00e7\u00e3o em todo o setor sobre o papel que a IA desempenharia no futuro, e as primeiras aplica\u00e7\u00f5es de aprendizado de m\u00e1quina j\u00e1 estavam desempenhando um papel essencial no Facebook. Poucos poderiam imaginar naquela \u00e9poca o qu\u00e3o impressionante seria o progresso. De fato, mesmo h\u00e1 apenas dois anos, muitos poderiam ter questionado isso. Ao olharmos para 2024, outro grande marco est\u00e1 chegando: ser\u00e3o dez anos desde que a Meta come\u00e7ou a trabalhar na plataforma de computa\u00e7\u00e3o do futuro no Reality Labs. Essas duas tecnologias emergentes &#8211; IA e metaverso &#8211; representam as maiores apostas de longo prazo da Meta para o futuro. E, em 2023, come\u00e7amos a ver esses dois caminhos tecnol\u00f3gicos se cruzarem na forma de produtos acess\u00edveis a um grande n\u00famero de pessoas. IA Na Meta, um dos destaques do ano foi a forma como o Llama e o Llama 2 foram adotados pela comunidade de desenvolvedores, tendo mais de 100 milh\u00f5es de downloads, bem como melhorias constantes vindas de organiza\u00e7\u00f5es do mundo inteiro \u00e0 medida que elas melhoravam. Na \u00cdndia, a Jio, operadora de rede m\u00f3vel, adequou-se rapidamente para criar uma nova ferramenta para atender seus mais de meio bilh\u00e3o de clientes. A tabela de classifica\u00e7\u00e3o do Open LLM da HuggingFace, por sua vez, foi preenchida com projetos impressionantes criados com o Llama 2 que est\u00e3o liderando o caminho. Essas s\u00e3o apenas algumas das mais de 13.000 variantes do Llama hospedadas l\u00e1. Como qualquer nova tecnologia, a IA ter\u00e1 maior impacto quando estiver dispon\u00edvel para todos. N\u00e3o faz muito tempo que a capacidade de gerar belas imagens usando instru\u00e7\u00f5es de texto era efetivamente inacess\u00edvel para a maioria das pessoas. Contudo, hoje estamos adicionando ferramentas como gera\u00e7\u00e3o de imagens colaborativas, assistentes de conversa\u00e7\u00e3o, ajudantes de escrita e editores de imagens inteligentes em produtos j\u00e1 usados por bilh\u00f5es de pessoas ao redor do mundo. MUDAN\u00c7A DE PLATAFORMA A mudan\u00e7a que vimos no \u00faltimo ano sugere que h\u00e1 um caminho para que a IA se torne a principal forma de intera\u00e7\u00e3o das pessoas com as m\u00e1quinas. O cen\u00e1rio est\u00e1 pronto para novos tipos de dispositivos que podem perceber, entender e interagir com o mundo ao nosso redor de maneiras nunca antes poss\u00edveis. Nossos \u00f3culos Ray-Ban Meta alimentados por IA mostram um desses caminhos. A IA da Meta, nosso novo assistente, combina vis\u00e3o e compreens\u00e3o de linguagem para ver o mundo a partir de sua perspectiva e trabalhar com voc\u00ea para compreend\u00ea-lo. Estamos testando, tamb\u00e9m, novos recursos de IA multimodal nos \u00f3culos inteligentes. Com isso habilitado, eles podem traduzir um idioma estrangeiro que voc\u00ea est\u00e1 tentando ler ou at\u00e9 mesmo explicar a hist\u00f3ria de um edif\u00edcio hist\u00f3rico que voc\u00ea est\u00e1 vendo. Eles podem fazer isso sem que voc\u00ea precise pegar um telefone ou utilizar um aplicativo. Acreditamos que uma das manifesta\u00e7\u00f5es mais poderosas da IA de \u00faltima gera\u00e7\u00e3o ser\u00e3o assistentes como esse, que podem entender o mundo ao seu redor e ajud\u00e1-lo ao longo do dia, eventualmente sem a necessidade de serem acionados. Os \u00f3culos s\u00e3o o formato ideal para isso &#8211; eles podem ver e ouvir o mundo do seu ponto de vista, j\u00e1 s\u00e3o socialmente aceit\u00e1veis, podem ser usados o dia todo e permitem que voc\u00ea fique totalmente presente no momento. Na Reality Labs, investimos em anos de pesquisa sobre as tecnologias necess\u00e1rias para avan\u00e7ar nesse sentido &#8211; coisas como sensores de baix\u00edssima pot\u00eancia sempre ativos e sistemas de percep\u00e7\u00e3o de m\u00e1quina capazes de compreender seu contexto. N\u00e3o estamos apenas sendo pioneiros em um novo tipo de dispositivo, mas tamb\u00e9m estaremos o impulsionando nos pr\u00f3ximos anos. A realidade mista e a computa\u00e7\u00e3o espacial representam outro caminho a seguir &#8211; estas n\u00e3o s\u00e3o simplesmente melhorias incrementais no paradigma da computa\u00e7\u00e3o pessoal, que dominou nos \u00faltimos 50 anos -, mas sim representam uma mudan\u00e7a fundamental, que est\u00e1 apenas come\u00e7ando a entrar em foco. Disponibilizar essas novas tecnologias para o maior n\u00famero de pessoas tem sido uma das principais prioridades do Reality Labs h\u00e1 muitos anos, portanto, o lan\u00e7amento do primeiro headset de realidade mista para o mercado geral em setembro foi outro destaque de 2023 para n\u00f3s. Poucos meses ap\u00f3s o lan\u00e7amento do Meta Quest 3, sete dos 20 principais aplicativos s\u00e3o aplicativos de realidade mista. Estamos vendo fortes sinais de que as pessoas realmente valorizam essas experi\u00eancias \u2013 agora existem mais de 220 aplicativos Quest 3 em que a grande maioria dos usu\u00e1rios usa recursos de realidade mista. Ver o que acontece quando muitas pessoas colocam as m\u00e3os em uma nova tecnologia como esta foi maravilhoso: Veremos a acelera\u00e7\u00e3o desse progresso em 2024, \u00e0 medida que mais pessoas tiverem acesso \u00e0 realidade mista e os desenvolvedores aprenderem a aproveitar seu potencial. Seja uma exibi\u00e7\u00e3o imersiva da NBA no Xtadium ou uma abordagem totalmente nova para aprender m\u00fasica no Pianovision, j\u00e1 estamos vendo a realidade mista proporcionar experi\u00eancias que seriam imposs\u00edveis em qualquer outro tipo de dispositivo. VIS\u00c3O A LONGO PRAZO Fazer apostas de longo prazo em tecnologias emergentes n\u00e3o \u00e9 f\u00e1cil. N\u00e3o \u00e9 garantido que v\u00e1 funcionar e certamente n\u00e3o \u00e9 algo barato. \u00c9 tamb\u00e9m uma das coisas mais valiosas que uma empresa de tecnologia pode fazer e a \u00fanica maneira de permanecer relevante com o passar do tempo. Ver as duas maiores apostas tecnol\u00f3gicas de longo prazo da Meta amadurecerem e se interligarem este ano foi um lembrete extremamente poderoso da import\u00e2ncia de manter um investimento saud\u00e1vel em tecnologias futuras. E nos deu uma vis\u00e3o ainda mais clara da inova\u00e7\u00e3o que precisamos proporcionar durante a pr\u00f3xima d\u00e9cada. Na IA, isso significa avan\u00e7ar trabalhando intensamente no que vem a seguir: o que vir\u00e1 depois da atual gera\u00e7\u00e3o de LLMs e da IA generativa? A maioria dos pesquisadores concorda que ainda h\u00e1 muitas oportunidades para construir modelos maiores e melhores de linguagem, imagem e v\u00eddeo com as tecnologias que temos hoje. Mas ainda existem avan\u00e7os fundamentais e arquiteturas inteiramente novas a serem descobertas, e nossas equipes de pesquisa de IA na Meta est\u00e3o no caminho certo para encontr\u00e1-las. Isto significa investiga\u00e7\u00e3o cont\u00ednua em \u00e1reas como a IA incorporada, que visa construir modelos que experimentem o mundo da mesma forma que os humanos. O caminho para a IA de n\u00edvel humano, segundo acreditam os nossos pesquisadores, exigir\u00e1 sistemas que tenham uma compreens\u00e3o mais profunda de como o mundo funciona, e as nossas equipes j\u00e1 est\u00e3o fazendo progressos neste sentido, mas com anos de trabalho ainda pela frente. E no Reality Labs, os nossos pesquisadores est\u00e3o avan\u00e7ando em algumas das tecnologias mais promissoras, que tornar\u00e3o a pr\u00f3xima plataforma de computa\u00e7\u00e3o uma realidade poss\u00edvel. Ao longo dos anos, essa pesquisa levou a avan\u00e7os como as lentes tipo \u201cpanqueca\u201d no Quest Pro e no Quest 3, ou o prot\u00f3tipo incr\u00edvel de Codec Avatars que o Mark Zuckerberg e o Lex Fridman testaram este ano. Mas esta \u00e9 apenas a ponta do iceberg &#8211; e os avan\u00e7os da pesquisa do Reality Labs nos permitir\u00e3o lan\u00e7ar nos pr\u00f3ximos anos uma s\u00e9rie de produtos pioneiros no setor. Mas de todas as coisas que mencionei aqui, as tecnologias mais valiosas hoje s\u00e3o aquelas que est\u00e3o nas m\u00e3os das pessoas. O progresso alcan\u00e7ado em 2023 significa que a IA generativa est\u00e1 chegando ao cora\u00e7\u00e3o dos aplicativos mais populares do mundo, a realidade mista est\u00e1 agora no centro do mercado de headsets e os \u00f3culos inteligentes permitir\u00e3o que a IA veja o mundo da nossa perspectiva pela primeira vez. Este \u00e9 um momento extremamente emocionante para estar construindo o futuro. Mais importante ainda &#8211; \u00e9 um \u00f3timo momento para viver nele.","protected":false},"author":164097222,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,396542170],"tags":[396542241,396541945,396542187,396542250,396542249],"class_list":["post-25386","post","type-post","status-publish","format-standard","hentry","category-meta","category-tecnologia-e-inovacao","tag-aprendizado-de-maquina","tag-inteligencia-artificial","tag-metaverso","tag-oculos-inteligentes","tag-ray-ban-meta"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Vivendo no futuro | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Vivendo no futuro | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Bill Gates disse certa vez que as pessoas &#8220;superestimam o que podem fazer em um ano e subestimam o que podem fazer em dez anos&#8221;. Os avan\u00e7os individuais tendem a se acumular de forma n\u00e3o linear at\u00e9 que, de repente, o futuro entra em foco. Como diz o velho ditado, isso acontece de duas maneiras: gradualmente e depois de repente. Ao encerrarmos 12 meses de um progresso tecnol\u00f3gico feroz, acho que \u00e9 justo dizer que 2023 foi um ano do tipo &#8220;repentino&#8221;. No m\u00eas passado, comemoramos o d\u00e9cimo anivers\u00e1rio da funda\u00e7\u00e3o do FAIR, nosso laborat\u00f3rio de pesquisa Fundamental AI Research. Quando o anunciamos em 2013, havia uma enorme empolga\u00e7\u00e3o em todo o setor sobre o papel que a IA desempenharia no futuro, e as primeiras aplica\u00e7\u00f5es de aprendizado de m\u00e1quina j\u00e1 estavam desempenhando um papel essencial no Facebook. Poucos poderiam imaginar naquela \u00e9poca o qu\u00e3o impressionante seria o progresso. De fato, mesmo h\u00e1 apenas dois anos, muitos poderiam ter questionado isso. Ao olharmos para 2024, outro grande marco est\u00e1 chegando: ser\u00e3o dez anos desde que a Meta come\u00e7ou a trabalhar na plataforma de computa\u00e7\u00e3o do futuro no Reality Labs. Essas duas tecnologias emergentes &#8211; IA e metaverso &#8211; representam as maiores apostas de longo prazo da Meta para o futuro. E, em 2023, come\u00e7amos a ver esses dois caminhos tecnol\u00f3gicos se cruzarem na forma de produtos acess\u00edveis a um grande n\u00famero de pessoas. IA Na Meta, um dos destaques do ano foi a forma como o Llama e o Llama 2 foram adotados pela comunidade de desenvolvedores, tendo mais de 100 milh\u00f5es de downloads, bem como melhorias constantes vindas de organiza\u00e7\u00f5es do mundo inteiro \u00e0 medida que elas melhoravam. Na \u00cdndia, a Jio, operadora de rede m\u00f3vel, adequou-se rapidamente para criar uma nova ferramenta para atender seus mais de meio bilh\u00e3o de clientes. A tabela de classifica\u00e7\u00e3o do Open LLM da HuggingFace, por sua vez, foi preenchida com projetos impressionantes criados com o Llama 2 que est\u00e3o liderando o caminho. Essas s\u00e3o apenas algumas das mais de 13.000 variantes do Llama hospedadas l\u00e1. Como qualquer nova tecnologia, a IA ter\u00e1 maior impacto quando estiver dispon\u00edvel para todos. N\u00e3o faz muito tempo que a capacidade de gerar belas imagens usando instru\u00e7\u00f5es de texto era efetivamente inacess\u00edvel para a maioria das pessoas. Contudo, hoje estamos adicionando ferramentas como gera\u00e7\u00e3o de imagens colaborativas, assistentes de conversa\u00e7\u00e3o, ajudantes de escrita e editores de imagens inteligentes em produtos j\u00e1 usados por bilh\u00f5es de pessoas ao redor do mundo. MUDAN\u00c7A DE PLATAFORMA A mudan\u00e7a que vimos no \u00faltimo ano sugere que h\u00e1 um caminho para que a IA se torne a principal forma de intera\u00e7\u00e3o das pessoas com as m\u00e1quinas. O cen\u00e1rio est\u00e1 pronto para novos tipos de dispositivos que podem perceber, entender e interagir com o mundo ao nosso redor de maneiras nunca antes poss\u00edveis. Nossos \u00f3culos Ray-Ban Meta alimentados por IA mostram um desses caminhos. A IA da Meta, nosso novo assistente, combina vis\u00e3o e compreens\u00e3o de linguagem para ver o mundo a partir de sua perspectiva e trabalhar com voc\u00ea para compreend\u00ea-lo. Estamos testando, tamb\u00e9m, novos recursos de IA multimodal nos \u00f3culos inteligentes. Com isso habilitado, eles podem traduzir um idioma estrangeiro que voc\u00ea est\u00e1 tentando ler ou at\u00e9 mesmo explicar a hist\u00f3ria de um edif\u00edcio hist\u00f3rico que voc\u00ea est\u00e1 vendo. Eles podem fazer isso sem que voc\u00ea precise pegar um telefone ou utilizar um aplicativo. Acreditamos que uma das manifesta\u00e7\u00f5es mais poderosas da IA de \u00faltima gera\u00e7\u00e3o ser\u00e3o assistentes como esse, que podem entender o mundo ao seu redor e ajud\u00e1-lo ao longo do dia, eventualmente sem a necessidade de serem acionados. Os \u00f3culos s\u00e3o o formato ideal para isso &#8211; eles podem ver e ouvir o mundo do seu ponto de vista, j\u00e1 s\u00e3o socialmente aceit\u00e1veis, podem ser usados o dia todo e permitem que voc\u00ea fique totalmente presente no momento. Na Reality Labs, investimos em anos de pesquisa sobre as tecnologias necess\u00e1rias para avan\u00e7ar nesse sentido &#8211; coisas como sensores de baix\u00edssima pot\u00eancia sempre ativos e sistemas de percep\u00e7\u00e3o de m\u00e1quina capazes de compreender seu contexto. N\u00e3o estamos apenas sendo pioneiros em um novo tipo de dispositivo, mas tamb\u00e9m estaremos o impulsionando nos pr\u00f3ximos anos. A realidade mista e a computa\u00e7\u00e3o espacial representam outro caminho a seguir &#8211; estas n\u00e3o s\u00e3o simplesmente melhorias incrementais no paradigma da computa\u00e7\u00e3o pessoal, que dominou nos \u00faltimos 50 anos -, mas sim representam uma mudan\u00e7a fundamental, que est\u00e1 apenas come\u00e7ando a entrar em foco. Disponibilizar essas novas tecnologias para o maior n\u00famero de pessoas tem sido uma das principais prioridades do Reality Labs h\u00e1 muitos anos, portanto, o lan\u00e7amento do primeiro headset de realidade mista para o mercado geral em setembro foi outro destaque de 2023 para n\u00f3s. Poucos meses ap\u00f3s o lan\u00e7amento do Meta Quest 3, sete dos 20 principais aplicativos s\u00e3o aplicativos de realidade mista. Estamos vendo fortes sinais de que as pessoas realmente valorizam essas experi\u00eancias \u2013 agora existem mais de 220 aplicativos Quest 3 em que a grande maioria dos usu\u00e1rios usa recursos de realidade mista. Ver o que acontece quando muitas pessoas colocam as m\u00e3os em uma nova tecnologia como esta foi maravilhoso: Veremos a acelera\u00e7\u00e3o desse progresso em 2024, \u00e0 medida que mais pessoas tiverem acesso \u00e0 realidade mista e os desenvolvedores aprenderem a aproveitar seu potencial. Seja uma exibi\u00e7\u00e3o imersiva da NBA no Xtadium ou uma abordagem totalmente nova para aprender m\u00fasica no Pianovision, j\u00e1 estamos vendo a realidade mista proporcionar experi\u00eancias que seriam imposs\u00edveis em qualquer outro tipo de dispositivo. VIS\u00c3O A LONGO PRAZO Fazer apostas de longo prazo em tecnologias emergentes n\u00e3o \u00e9 f\u00e1cil. N\u00e3o \u00e9 garantido que v\u00e1 funcionar e certamente n\u00e3o \u00e9 algo barato. \u00c9 tamb\u00e9m uma das coisas mais valiosas que uma empresa de tecnologia pode fazer e a \u00fanica maneira de permanecer relevante com o passar do tempo. Ver as duas maiores apostas tecnol\u00f3gicas de longo prazo da Meta amadurecerem e se interligarem este ano foi um lembrete extremamente poderoso da import\u00e2ncia de manter um investimento saud\u00e1vel em tecnologias futuras. E nos deu uma vis\u00e3o ainda mais clara da inova\u00e7\u00e3o que precisamos proporcionar durante a pr\u00f3xima d\u00e9cada. Na IA, isso significa avan\u00e7ar trabalhando intensamente no que vem a seguir: o que vir\u00e1 depois da atual gera\u00e7\u00e3o de LLMs e da IA generativa? A maioria dos pesquisadores concorda que ainda h\u00e1 muitas oportunidades para construir modelos maiores e melhores de linguagem, imagem e v\u00eddeo com as tecnologias que temos hoje. Mas ainda existem avan\u00e7os fundamentais e arquiteturas inteiramente novas a serem descobertas, e nossas equipes de pesquisa de IA na Meta est\u00e3o no caminho certo para encontr\u00e1-las. Isto significa investiga\u00e7\u00e3o cont\u00ednua em \u00e1reas como a IA incorporada, que visa construir modelos que experimentem o mundo da mesma forma que os humanos. O caminho para a IA de n\u00edvel humano, segundo acreditam os nossos pesquisadores, exigir\u00e1 sistemas que tenham uma compreens\u00e3o mais profunda de como o mundo funciona, e as nossas equipes j\u00e1 est\u00e3o fazendo progressos neste sentido, mas com anos de trabalho ainda pela frente. E no Reality Labs, os nossos pesquisadores est\u00e3o avan\u00e7ando em algumas das tecnologias mais promissoras, que tornar\u00e3o a pr\u00f3xima plataforma de computa\u00e7\u00e3o uma realidade poss\u00edvel. Ao longo dos anos, essa pesquisa levou a avan\u00e7os como as lentes tipo \u201cpanqueca\u201d no Quest Pro e no Quest 3, ou o prot\u00f3tipo incr\u00edvel de Codec Avatars que o Mark Zuckerberg e o Lex Fridman testaram este ano. Mas esta \u00e9 apenas a ponta do iceberg &#8211; e os avan\u00e7os da pesquisa do Reality Labs nos permitir\u00e3o lan\u00e7ar nos pr\u00f3ximos anos uma s\u00e9rie de produtos pioneiros no setor. Mas de todas as coisas que mencionei aqui, as tecnologias mais valiosas hoje s\u00e3o aquelas que est\u00e3o nas m\u00e3os das pessoas. O progresso alcan\u00e7ado em 2023 significa que a IA generativa est\u00e1 chegando ao cora\u00e7\u00e3o dos aplicativos mais populares do mundo, a realidade mista est\u00e1 agora no centro do mercado de headsets e os \u00f3culos inteligentes permitir\u00e3o que a IA veja o mundo da nossa perspectiva pela primeira vez. Este \u00e9 um momento extremamente emocionante para estar construindo o futuro. Mais importante ainda &#8211; \u00e9 um \u00f3timo momento para viver nele.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-18T16:49:57+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-06-05T19:59:23+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800\" \/>\n<meta name=\"author\" content=\"vivianlusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\"},\"author\":\"Facebook company\",\"headline\":\"Vivendo no futuro\",\"datePublished\":\"2023-12-18T16:49:57+00:00\",\"dateModified\":\"2024-06-05T19:59:23+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\"},\"wordCount\":1478,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800\",\"keywords\":[\"Aprendizado de m\u00e1quina\",\"intelig\u00eancia artificial\",\"Metaverso\",\"\u00d3culos inteligentes\",\"Ray-Ban Meta\"],\"articleSection\":[\"Meta\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\",\"name\":\"Vivendo no futuro | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800\",\"datePublished\":\"2023-12-18T16:49:57+00:00\",\"dateModified\":\"2024-06-05T19:59:23+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Vivendo no futuro\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Vivendo no futuro | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/","og_locale":"pt_BR","og_type":"article","og_title":"Vivendo no futuro | Sobre a Meta","og_description":"Bill Gates disse certa vez que as pessoas &#8220;superestimam o que podem fazer em um ano e subestimam o que podem fazer em dez anos&#8221;. Os avan\u00e7os individuais tendem a se acumular de forma n\u00e3o linear at\u00e9 que, de repente, o futuro entra em foco. Como diz o velho ditado, isso acontece de duas maneiras: gradualmente e depois de repente. Ao encerrarmos 12 meses de um progresso tecnol\u00f3gico feroz, acho que \u00e9 justo dizer que 2023 foi um ano do tipo &#8220;repentino&#8221;. No m\u00eas passado, comemoramos o d\u00e9cimo anivers\u00e1rio da funda\u00e7\u00e3o do FAIR, nosso laborat\u00f3rio de pesquisa Fundamental AI Research. Quando o anunciamos em 2013, havia uma enorme empolga\u00e7\u00e3o em todo o setor sobre o papel que a IA desempenharia no futuro, e as primeiras aplica\u00e7\u00f5es de aprendizado de m\u00e1quina j\u00e1 estavam desempenhando um papel essencial no Facebook. Poucos poderiam imaginar naquela \u00e9poca o qu\u00e3o impressionante seria o progresso. De fato, mesmo h\u00e1 apenas dois anos, muitos poderiam ter questionado isso. Ao olharmos para 2024, outro grande marco est\u00e1 chegando: ser\u00e3o dez anos desde que a Meta come\u00e7ou a trabalhar na plataforma de computa\u00e7\u00e3o do futuro no Reality Labs. Essas duas tecnologias emergentes &#8211; IA e metaverso &#8211; representam as maiores apostas de longo prazo da Meta para o futuro. E, em 2023, come\u00e7amos a ver esses dois caminhos tecnol\u00f3gicos se cruzarem na forma de produtos acess\u00edveis a um grande n\u00famero de pessoas. IA Na Meta, um dos destaques do ano foi a forma como o Llama e o Llama 2 foram adotados pela comunidade de desenvolvedores, tendo mais de 100 milh\u00f5es de downloads, bem como melhorias constantes vindas de organiza\u00e7\u00f5es do mundo inteiro \u00e0 medida que elas melhoravam. Na \u00cdndia, a Jio, operadora de rede m\u00f3vel, adequou-se rapidamente para criar uma nova ferramenta para atender seus mais de meio bilh\u00e3o de clientes. A tabela de classifica\u00e7\u00e3o do Open LLM da HuggingFace, por sua vez, foi preenchida com projetos impressionantes criados com o Llama 2 que est\u00e3o liderando o caminho. Essas s\u00e3o apenas algumas das mais de 13.000 variantes do Llama hospedadas l\u00e1. Como qualquer nova tecnologia, a IA ter\u00e1 maior impacto quando estiver dispon\u00edvel para todos. N\u00e3o faz muito tempo que a capacidade de gerar belas imagens usando instru\u00e7\u00f5es de texto era efetivamente inacess\u00edvel para a maioria das pessoas. Contudo, hoje estamos adicionando ferramentas como gera\u00e7\u00e3o de imagens colaborativas, assistentes de conversa\u00e7\u00e3o, ajudantes de escrita e editores de imagens inteligentes em produtos j\u00e1 usados por bilh\u00f5es de pessoas ao redor do mundo. MUDAN\u00c7A DE PLATAFORMA A mudan\u00e7a que vimos no \u00faltimo ano sugere que h\u00e1 um caminho para que a IA se torne a principal forma de intera\u00e7\u00e3o das pessoas com as m\u00e1quinas. O cen\u00e1rio est\u00e1 pronto para novos tipos de dispositivos que podem perceber, entender e interagir com o mundo ao nosso redor de maneiras nunca antes poss\u00edveis. Nossos \u00f3culos Ray-Ban Meta alimentados por IA mostram um desses caminhos. A IA da Meta, nosso novo assistente, combina vis\u00e3o e compreens\u00e3o de linguagem para ver o mundo a partir de sua perspectiva e trabalhar com voc\u00ea para compreend\u00ea-lo. Estamos testando, tamb\u00e9m, novos recursos de IA multimodal nos \u00f3culos inteligentes. Com isso habilitado, eles podem traduzir um idioma estrangeiro que voc\u00ea est\u00e1 tentando ler ou at\u00e9 mesmo explicar a hist\u00f3ria de um edif\u00edcio hist\u00f3rico que voc\u00ea est\u00e1 vendo. Eles podem fazer isso sem que voc\u00ea precise pegar um telefone ou utilizar um aplicativo. Acreditamos que uma das manifesta\u00e7\u00f5es mais poderosas da IA de \u00faltima gera\u00e7\u00e3o ser\u00e3o assistentes como esse, que podem entender o mundo ao seu redor e ajud\u00e1-lo ao longo do dia, eventualmente sem a necessidade de serem acionados. Os \u00f3culos s\u00e3o o formato ideal para isso &#8211; eles podem ver e ouvir o mundo do seu ponto de vista, j\u00e1 s\u00e3o socialmente aceit\u00e1veis, podem ser usados o dia todo e permitem que voc\u00ea fique totalmente presente no momento. Na Reality Labs, investimos em anos de pesquisa sobre as tecnologias necess\u00e1rias para avan\u00e7ar nesse sentido &#8211; coisas como sensores de baix\u00edssima pot\u00eancia sempre ativos e sistemas de percep\u00e7\u00e3o de m\u00e1quina capazes de compreender seu contexto. N\u00e3o estamos apenas sendo pioneiros em um novo tipo de dispositivo, mas tamb\u00e9m estaremos o impulsionando nos pr\u00f3ximos anos. A realidade mista e a computa\u00e7\u00e3o espacial representam outro caminho a seguir &#8211; estas n\u00e3o s\u00e3o simplesmente melhorias incrementais no paradigma da computa\u00e7\u00e3o pessoal, que dominou nos \u00faltimos 50 anos -, mas sim representam uma mudan\u00e7a fundamental, que est\u00e1 apenas come\u00e7ando a entrar em foco. Disponibilizar essas novas tecnologias para o maior n\u00famero de pessoas tem sido uma das principais prioridades do Reality Labs h\u00e1 muitos anos, portanto, o lan\u00e7amento do primeiro headset de realidade mista para o mercado geral em setembro foi outro destaque de 2023 para n\u00f3s. Poucos meses ap\u00f3s o lan\u00e7amento do Meta Quest 3, sete dos 20 principais aplicativos s\u00e3o aplicativos de realidade mista. Estamos vendo fortes sinais de que as pessoas realmente valorizam essas experi\u00eancias \u2013 agora existem mais de 220 aplicativos Quest 3 em que a grande maioria dos usu\u00e1rios usa recursos de realidade mista. Ver o que acontece quando muitas pessoas colocam as m\u00e3os em uma nova tecnologia como esta foi maravilhoso: Veremos a acelera\u00e7\u00e3o desse progresso em 2024, \u00e0 medida que mais pessoas tiverem acesso \u00e0 realidade mista e os desenvolvedores aprenderem a aproveitar seu potencial. Seja uma exibi\u00e7\u00e3o imersiva da NBA no Xtadium ou uma abordagem totalmente nova para aprender m\u00fasica no Pianovision, j\u00e1 estamos vendo a realidade mista proporcionar experi\u00eancias que seriam imposs\u00edveis em qualquer outro tipo de dispositivo. VIS\u00c3O A LONGO PRAZO Fazer apostas de longo prazo em tecnologias emergentes n\u00e3o \u00e9 f\u00e1cil. N\u00e3o \u00e9 garantido que v\u00e1 funcionar e certamente n\u00e3o \u00e9 algo barato. \u00c9 tamb\u00e9m uma das coisas mais valiosas que uma empresa de tecnologia pode fazer e a \u00fanica maneira de permanecer relevante com o passar do tempo. Ver as duas maiores apostas tecnol\u00f3gicas de longo prazo da Meta amadurecerem e se interligarem este ano foi um lembrete extremamente poderoso da import\u00e2ncia de manter um investimento saud\u00e1vel em tecnologias futuras. E nos deu uma vis\u00e3o ainda mais clara da inova\u00e7\u00e3o que precisamos proporcionar durante a pr\u00f3xima d\u00e9cada. Na IA, isso significa avan\u00e7ar trabalhando intensamente no que vem a seguir: o que vir\u00e1 depois da atual gera\u00e7\u00e3o de LLMs e da IA generativa? A maioria dos pesquisadores concorda que ainda h\u00e1 muitas oportunidades para construir modelos maiores e melhores de linguagem, imagem e v\u00eddeo com as tecnologias que temos hoje. Mas ainda existem avan\u00e7os fundamentais e arquiteturas inteiramente novas a serem descobertas, e nossas equipes de pesquisa de IA na Meta est\u00e3o no caminho certo para encontr\u00e1-las. Isto significa investiga\u00e7\u00e3o cont\u00ednua em \u00e1reas como a IA incorporada, que visa construir modelos que experimentem o mundo da mesma forma que os humanos. O caminho para a IA de n\u00edvel humano, segundo acreditam os nossos pesquisadores, exigir\u00e1 sistemas que tenham uma compreens\u00e3o mais profunda de como o mundo funciona, e as nossas equipes j\u00e1 est\u00e3o fazendo progressos neste sentido, mas com anos de trabalho ainda pela frente. E no Reality Labs, os nossos pesquisadores est\u00e3o avan\u00e7ando em algumas das tecnologias mais promissoras, que tornar\u00e3o a pr\u00f3xima plataforma de computa\u00e7\u00e3o uma realidade poss\u00edvel. Ao longo dos anos, essa pesquisa levou a avan\u00e7os como as lentes tipo \u201cpanqueca\u201d no Quest Pro e no Quest 3, ou o prot\u00f3tipo incr\u00edvel de Codec Avatars que o Mark Zuckerberg e o Lex Fridman testaram este ano. Mas esta \u00e9 apenas a ponta do iceberg &#8211; e os avan\u00e7os da pesquisa do Reality Labs nos permitir\u00e3o lan\u00e7ar nos pr\u00f3ximos anos uma s\u00e9rie de produtos pioneiros no setor. Mas de todas as coisas que mencionei aqui, as tecnologias mais valiosas hoje s\u00e3o aquelas que est\u00e3o nas m\u00e3os das pessoas. O progresso alcan\u00e7ado em 2023 significa que a IA generativa est\u00e1 chegando ao cora\u00e7\u00e3o dos aplicativos mais populares do mundo, a realidade mista est\u00e1 agora no centro do mercado de headsets e os \u00f3culos inteligentes permitir\u00e3o que a IA veja o mundo da nossa perspectiva pela primeira vez. Este \u00e9 um momento extremamente emocionante para estar construindo o futuro. Mais importante ainda &#8211; \u00e9 um \u00f3timo momento para viver nele.","og_url":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/","og_site_name":"Sobre a Meta","article_published_time":"2023-12-18T16:49:57+00:00","article_modified_time":"2024-06-05T19:59:23+00:00","og_image":[{"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800","type":"","width":"","height":""}],"author":"vivianlusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/"},"author":"Facebook company","headline":"Vivendo no futuro","datePublished":"2023-12-18T16:49:57+00:00","dateModified":"2024-06-05T19:59:23+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/"},"wordCount":1478,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800","keywords":["Aprendizado de m\u00e1quina","intelig\u00eancia artificial","Metaverso","\u00d3culos inteligentes","Ray-Ban Meta"],"articleSection":["Meta","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/","url":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/","name":"Vivendo no futuro | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800","datePublished":"2023-12-18T16:49:57+00:00","dateModified":"2024-06-05T19:59:23+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/12\/01_NEW-IG-BACKGROUND-EDITOR.gif?w=800"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2023\/12\/progresso-da-meta-em-ia-e-realidade-mista\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Vivendo no futuro"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":26367,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/insights-dos-resultados-do-1o-trimestre-da-meta-para-impulsionar-o-desempenho-dos-negocios\/","url_meta":{"origin":25386,"position":0},"title":"Insights dos resultados do 1\u00ba trimestre da Meta para impulsionar o desempenho dos neg\u00f3cios","author":"Meta","date":"02\/05\/2025","format":false,"excerpt":"Hoje, estamos compartilhando alguns insights importantes sobre ganhos de performance com o uso de produtos de an\u00fancios baseados em intelig\u00eancia artificial, v\u00eddeos e Reels, al\u00e9m de a\u00e7\u00f5es que as empresas podem adotar para atrair mais clientes e aproveitar ao m\u00e1ximo cada investimento em marketing. As dicas se baseiam nos destaques\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26630,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/oakley-meta-vanguard-a-nova-era-dos-oculos-inteligentes-para-performance\/","url_meta":{"origin":25386,"position":1},"title":"Oakley Meta Vanguard: A Nova Era dos \u00d3culos Inteligentes para Performance","author":"Meta","date":"17\/09\/2025","format":false,"excerpt":"Atualizado em 27 de outubro, \u00e0s 13h (hor\u00e1rio de Bras\u00edlia): Oakley Meta Vanguard chega ao Brasil Oakley Meta Vanguard, a nova linha de \u00f3culos de performance com intelig\u00eancia artificial desenvolvida para esportes de alta intensidade, chega ao Brasil em 31 de outubro, nas lojas da Oakley em S\u00e3o Paulo, e\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Oakley-Meta-Vanguard-Black-with-PRIZM-Road-Lens3.png?fit=4096%2C2304&resize=1400%2C800 4x"},"classes":[]},{"id":26634,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/meta-connect-2025-a-evolucao-dos-oculos-inteligentes-o-avanco-do-metaverso-e-muito-mais\/","url_meta":{"origin":25386,"position":2},"title":"Meta Connect 2025: A Evolu\u00e7\u00e3o dos \u00d3culos Inteligentes, o Avan\u00e7o do Metaverso e Muito Mais","author":"Meta","date":"17\/09\/2025","format":false,"excerpt":"Mark Zuckerberg e Diplo sa\u00edram correndo do palco do Connect \u2013 literalmente \u2013 para dar in\u00edcio \u00e0 after party, e n\u00f3s estamos aqui para recapitular todas as novidades que voc\u00ea pode ter perdido. Mas antes, vamos falar sobre outra dupla din\u00e2mica que est\u00e1 conquistando o mundo: \u00f3culos e intelig\u00eancia artificial.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1400%2C800 4x"},"classes":[]},{"id":26899,"url":"https:\/\/about.fb.com\/br\/news\/2026\/01\/ces-2026-novidades-no-meta-ray-ban-display-colaboracoes-com-a-industria-e-pesquisa-e-mais\/","url_meta":{"origin":25386,"position":3},"title":"CES 2026: novidades no Meta Ray-Ban Display, colabora\u00e7\u00f5es com a ind\u00fastria e pesquisa e mais","author":"Meta","date":"06\/01\/2026","format":false,"excerpt":"Estamos presentes na CES 2026 esta semana, e h\u00e1 muitos motivos para se empolgar dentro e fora do evento. E voc\u00ea n\u00e3o precisa ir at\u00e9 Las Vegas para ficar por dentro das novidades dos nossos \u00f3culos de IA. Novos Recursos Chegando ao Display Com o lan\u00e7amento do Meta Ray-Ban Display\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/01\/Captura-de-tela-2026-01-06-121310.png?fit=936%2C526&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/01\/Captura-de-tela-2026-01-06-121310.png?fit=936%2C526&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/01\/Captura-de-tela-2026-01-06-121310.png?fit=936%2C526&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/01\/Captura-de-tela-2026-01-06-121310.png?fit=936%2C526&resize=700%2C400 2x"},"classes":[]},{"id":26872,"url":"https:\/\/about.fb.com\/br\/news\/2025\/12\/resumo-dos-novos-recursos-recados-para-ligacoes-nao-atendidas-novas-figurinhas-de-status-e-muito-mais\/","url_meta":{"origin":25386,"position":4},"title":"Resumo dos novos recursos: recados para liga\u00e7\u00f5es n\u00e3o atendidas, novas figurinhas de status e muito mais!","author":"Meta","date":"11\/12\/2025","format":false,"excerpt":"Estamos lan\u00e7ando mais um pacote de recursos a tempo das festas de fim de ano. Esta edi\u00e7\u00e3o est\u00e1 repleta de novas atualiza\u00e7\u00f5es interessantes, incluindo recados para liga\u00e7\u00f5es n\u00e3o atendidas, figurinhas divertidas para o status, gera\u00e7\u00e3o de imagens com a Meta AI aprimorada e muito mais. Tudo isso para facilitar ainda\u2026","rel":"","context":"In &quot;Feed - Categorias&quot;","block_context":{"text":"Feed - Categorias","link":"https:\/\/about.fb.com\/br\/news\/category\/technologies\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/596387419_1360761639062906_2694588393236778653_n.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26118,"url":"https:\/\/about.fb.com\/br\/news\/2025\/01\/refletindo-sobre-o-investimento-de-us-8-bilhoes-da-meta-em-privacidade\/","url_meta":{"origin":25386,"position":5},"title":"Refletindo sobre o investimento de US$ 8 bilh\u00f5es da Meta em privacidade","author":"Meta","date":"28\/01\/2025","format":false,"excerpt":"Nos \u00faltimos anos, na Meta, destacamos o Dia da Privacidade de Dados com uma retrospectiva de nossos marcos de privacidade do ano anterior. Quando olhamos para tr\u00e1s, para nossas inova\u00e7\u00f5es tecnol\u00f3gicas de 2024, o denominador comum em todas elas \u00e9 uma base s\u00f3lida de privacidade. Essa base s\u00f3 foi poss\u00edvel\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25386","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097222"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25386"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25386\/revisions"}],"predecessor-version":[{"id":25634,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25386\/revisions\/25634"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25386"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25386"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25386"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}