{"id":25669,"date":"2024-06-18T13:09:55","date_gmt":"2024-06-18T16:09:55","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25669"},"modified":"2024-06-18T13:18:25","modified_gmt":"2024-06-18T16:18:25","slug":"compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/","title":{"rendered":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR"},"content":{"rendered":"<p><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/11\/uma-decada-de-avancos-na-evolucao-da-ia-por-meio-de-pesquisa-aberta\/\"><span style=\"font-weight: 400\">H\u00e1 mais de uma d\u00e9cada<\/span><\/a><span style=\"font-weight: 400\"> a equipe de Fundamental AI Research (FAIR) da Meta tem se concentrado no avan\u00e7o da IA por meio de pesquisa aberta. Como a inova\u00e7\u00e3o no campo continua evoluindo em um ritmo acelerado, acreditamos que a colabora\u00e7\u00e3o com a comunidade global de IA \u00e9 mais importante do que nunca. Manter uma abordagem de ci\u00eancia aberta e compartilhar nosso trabalho com a comunidade nos ajuda a permanecer fi\u00e9is ao nosso objetivo de criar sistemas de IA que funcionem bem para todos e que aproximem o mundo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Hoje, estamos animados em compartilhar alguns dos modelos de pesquisa da FAIR mais recentes com a comunidade global. Estamos lan\u00e7ando publicamente seis m\u00f3dulos de pesquisa que se concentram em temas fundamentais do nosso trabalho: inova\u00e7\u00e3o, criatividade, efici\u00eancia e responsabilidade. Esses lan\u00e7amentos incluem modelos de gera\u00e7\u00e3o de imagem para texto e de texto para m\u00fasica, um modelo de previs\u00e3o de m\u00faltiplos tokens e uma t\u00e9cnica para detectar fala gerada por IA. Ao compartilhar publicamente nosso trabalho de pesquisa inicial, esperamos inspirar itera\u00e7\u00f5es e, por fim, ajudar a promover a IA de forma respons\u00e1vel. Estamos ansiosos para ver o que a comunidade desenvolver\u00e1 com essas vers\u00f5es mais recentes e seguir com as conversas importantes que estamos tendo com a comunidade de c\u00f3digo aberto.<\/span><\/p>\n<h3><strong>Meta Chameleon\u00a0<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Conforme compartilhamos em nosso<\/span><a href=\"https:\/\/arxiv.org\/abs\/2405.09818\"> <span style=\"font-weight: 400\">artigo de pesquisa<\/span><\/a><span style=\"font-weight: 400\"> no m\u00eas passado, o Meta Chameleon \u00e9 uma fam\u00edlia de modelos que pode combinar texto e imagens na entrada e na sa\u00edda de qualquer combina\u00e7\u00e3o de texto, bem como imagens com uma \u00fanica arquitetura unificada para codifica\u00e7\u00e3o e decodifica\u00e7\u00e3o. Enquanto a maioria dos modelos de fus\u00e3o tardia atuais utilizam aprendizado baseado em difus\u00e3o, o Meta Chameleon usa tokeniza\u00e7\u00e3o para texto e imagens. Isso permite uma abordagem mais unificada e torna o modelo mais f\u00e1cil de projetar, manter e dimensionar. As possibilidades s\u00e3o infinitas &#8211; imagine a gera\u00e7\u00e3o de legendas criativas para imagens ou o uso de uma combina\u00e7\u00e3o de prompts de texto e imagens para criar uma cena totalmente nova.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25669-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/An_LX71-jgAsdPRBadNxUjUGNaLoVts_pCskTay9WdjNJV8nU6Am-OoszOWP2sDcBK5BCMx_yIHuTgIXRwYqs7c.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/An_LX71-jgAsdPRBadNxUjUGNaLoVts_pCskTay9WdjNJV8nU6Am-OoszOWP2sDcBK5BCMx_yIHuTgIXRwYqs7c.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/An_LX71-jgAsdPRBadNxUjUGNaLoVts_pCskTay9WdjNJV8nU6Am-OoszOWP2sDcBK5BCMx_yIHuTgIXRwYqs7c.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Hoje, estamos lan\u00e7ando publicamente os principais componentes dos nossos modelos Chameleon 7B e 34B sob uma licen\u00e7a exclusiva para pesquisa. Os modelos que estamos disponibilizando foram ajustados com seguran\u00e7a e s\u00e3o compat\u00edveis com entradas de modalidades mistas e sa\u00edda somente de texto para serem usados para fins de pesquisa. Embora tenhamos tomado medidas para desenvolver esses modelos de forma respons\u00e1vel, reconhecemos que ainda existem riscos, portanto, n\u00e3o estamos liberando o modelo de gera\u00e7\u00e3o de imagens do Chameleon no momento. Com os modelos existentes que estamos compartilhando hoje, esperamos incentivar a comunidade de pesquisa a criar novas estrat\u00e9gias de detec\u00e7\u00e3o e mitiga\u00e7\u00e3o que ajudar\u00e3o a dimensionar a pesquisa de modelos generativos de forma respons\u00e1vel.<\/span><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/resources\/models-and-libraries\/chameleon-downloads\/?gk_enable=chameleon_web_flow_is_live\"><span style=\"font-weight: 400\">Obtenha os modelos<\/span><\/a><\/p>\n<h3><strong>Previs\u00e3o de m\u00faltiplos tokens<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">A maioria dos LLMs (grandes modelos de linguagem) modernos apresentam um objetivo de treinamento simples: prever a pr\u00f3xima palavra. Embora essa abordagem seja simples e escalon\u00e1vel, ela tamb\u00e9m \u00e9 ineficiente, pois requer muitas ordens de magnitude a mais de texto do que as crian\u00e7as precisam para aprender o mesmo grau de flu\u00eancia no idioma.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Em abril, propusemos uma nova abordagem para criar LLMs melhores e mais r\u00e1pidos usando a<\/span><a href=\"https:\/\/arxiv.org\/abs\/2404.19737\"> <span style=\"font-weight: 400\">previs\u00e3o de m\u00faltiplos tokens<\/span><\/a><span style=\"font-weight: 400\">. Com essa abordagem, treinamos modelos de linguagem para prever diversas palavras futuras de uma s\u00f3 vez, ao inv\u00e9s da antiga abordagem de uma por vez. Isso melhora os recursos do modelo e a efici\u00eancia do treinamento, al\u00e9m de permitir velocidades mais r\u00e1pidas. No contexto da ci\u00eancia aberta respons\u00e1vel, estamos liberando os modelos pr\u00e9-treinados para o preenchimento de c\u00f3digo sob uma licen\u00e7a n\u00e3o comercial\/apenas para pesquisa. Esperamos que essa medida permita que a comunidade de pesquisa investigue nosso m\u00e9todo e os comportamentos dos modelos treinados de forma independente.<\/span><\/p>\n<p><a href=\"https:\/\/huggingface.co\/facebook\/multi-token-prediction\"><span style=\"font-weight: 400\">Obtenha os modelos<\/span><\/a><\/p>\n<h3><strong>Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal\u00a0<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">A IA generativa permitiu que as pessoas explorassem sua criatividade de novas maneiras, como, por exemplo, transformando um prompt de texto em um trecho de m\u00fasica. Embora os modelos existentes de texto para m\u00fasica, como o<\/span><a href=\"https:\/\/ai.meta.com\/blog\/audiocraft-musicgen-audiogen-encodec-generative-ai-audio\/\"> <span style=\"font-weight: 400\">MusicGen<\/span><\/a><span style=\"font-weight: 400\">, dependam principalmente de entradas de texto para a gera\u00e7\u00e3o de m\u00fasica, nosso novo modelo, o Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal (JASCO na sigla em ingl\u00eas), \u00e9 capaz de aceitar variadas entradas de condicionamento, como acordes ou batidas espec\u00edficas, para melhorar o controle sobre os resultados musicais gerados. Especificamente, aplicamos camadas de gargalo de informa\u00e7\u00e3o em conjunto com desfoque temporal para extrair informa\u00e7\u00f5es relevantes em rela\u00e7\u00e3o a controles espec\u00edficos. Isso permite a incorpora\u00e7\u00e3o de condi\u00e7\u00f5es baseadas tanto em s\u00edmbolos quanto em \u00e1udio no mesmo modelo de gera\u00e7\u00e3o de texto para m\u00fasica.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os resultados sugerem que o JASCO \u00e9 equivalente aos modelos de base avaliados em termos de qualidade de gera\u00e7\u00e3o, enquanto permite controles significativamente melhores e mais vers\u00e1teis sobre a m\u00fasica gerada. Hoje, estamos lan\u00e7ando o artigo de pesquisa junto com uma p\u00e1gina de amostras. Ainda este m\u00eas, vamos lan\u00e7ar o c\u00f3digo de infer\u00eancia como parte do reposit\u00f3rio<\/span><a href=\"https:\/\/github.com\/facebookresearch\/audiocraft\"> <span style=\"font-weight: 400\">AudioCraft<\/span><\/a><span style=\"font-weight: 400\"> sob a licen\u00e7a MIT e o modelo pr\u00e9-treinado sob a licen\u00e7a CC-BY-NC. Estamos ansiosos para disponibilizar o c\u00f3digo e os modelos no futuro.<\/span><\/p>\n<p><a href=\"https:\/\/pages.cs.huji.ac.il\/adiyoss-lab\/JASCO\/\"><span style=\"font-weight: 400\">Ou\u00e7a amostras de nosso trabalho<\/span><\/a><\/p>\n<h3><strong>AudioSeal<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Ferramentas de IA generativa est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Como em todas as inova\u00e7\u00f5es em IA, \u00e9 importante que fa\u00e7amos nossa parte para garantir o uso respons\u00e1vel dessas ferramentas. Hoje, estamos lan\u00e7ando o AudioSeal, que acreditamos ser a primeira t\u00e9cnica de marca d&#8217;\u00e1gua de \u00e1udio projetada especificamente para a detec\u00e7\u00e3o localizada de fala gerada por IA, possibilitando identificar segmentos gerados por IA dentro de um trecho de \u00e1udio mais longo. O AudioSeal renova a marca d&#8217;\u00e1gua de \u00e1udio cl\u00e1ssica ao focar na detec\u00e7\u00e3o de conte\u00fado gerado por IA em vez de esteganografia. Diferente dos m\u00e9todos tradicionais que dependem de algoritmos de decodifica\u00e7\u00e3o complexos, a abordagem de detec\u00e7\u00e3o localizada do AudioSeal permite uma detec\u00e7\u00e3o mais r\u00e1pida e eficiente. Esse design aumenta a velocidade de detec\u00e7\u00e3o em at\u00e9 485 vezes em compara\u00e7\u00e3o com os m\u00e9todos anteriores, tornando-o altamente adequado para aplica\u00e7\u00f5es em grande escala e em tempo real. Nossa abordagem atinge desempenho de ponta em marca d&#8217;\u00e1gua de \u00e1udio em termos de robustez e imperceptibilidade.<\/span><\/p>\n<p><span style=\"font-weight: 400\">O AudioSeal est\u00e1 sendo lan\u00e7ado sob uma licen\u00e7a comercial. \u00c9 apenas uma das v\u00e1rias iniciativas de pesquisa respons\u00e1vel que compartilhamos para ajudar a prevenir o uso indevido de ferramentas de IA generativa. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo<\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/08\/aproximando-o-mundo-com-um-modelo-multimodal-fundamental-para-traducao-de-fala\/\"> <span style=\"font-weight: 400\">SeamlessM4T v2<\/span><\/a><span style=\"font-weight: 400\">,<\/span><span style=\"font-weight: 400\"> nosso modelo fundamental de tradu\u00e7\u00e3o para texto e fala, e pelo<\/span><a href=\"https:\/\/audiobox.metademolab.com\/\"> <span style=\"font-weight: 400\">Audiobox<\/span><\/a><span style=\"font-weight: 400\">. <\/span><span style=\"font-weight: 400\">Detalhamos ainda mais nossa abordagem de marca\u00e7\u00e3o d&#8217;\u00e1gua para modelos de<\/span><a href=\"https:\/\/arxiv.org\/abs\/2303.15435\"> <span style=\"font-weight: 400\">imagens<\/span><\/a><span style=\"font-weight: 400\">,<\/span><a href=\"https:\/\/ai.meta.com\/research\/publications\/seamless-multilingual-expressive-and-streaming-speech-translation\/\"> <span style=\"font-weight: 400\">fala<\/span><\/a> <span style=\"font-weight: 400\">e<\/span><a href=\"https:\/\/arxiv.org\/abs\/2308.00113\"> <span style=\"font-weight: 400\">texto<\/span><\/a> <span style=\"font-weight: 400\">em lan\u00e7amentos recentes.<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/audioseal\"><span style=\"font-weight: 400\">Obtenha o modelo e o c\u00f3digo de treinamento<\/span><\/a><\/p>\n<h3><strong>Parceria para apoiar o lan\u00e7amento do conjunto de dados PRISM<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Obter feedback de um grupo diversificado de pessoas \u00e9 importante para melhorar os LLMs, no entanto, quest\u00f5es abertas t\u00eam surgido na comunidade de pesquisa sobre m\u00e9todos, dom\u00ednios e objetivos em torno do processo de feedback. Trabalhamos com nossos<\/span><a href=\"https:\/\/hannahkirk.github.io\/prism-alignment\/\"> <span style=\"font-weight: 400\">parceiros externos<\/span><\/a><span style=\"font-weight: 400\"> para lidar com essas quest\u00f5es, apoiando o lan\u00e7amento do conjunto de dados PRISM, que mapeia as caracter\u00edsticas sociodemogr\u00e1ficas e as prefer\u00eancias declaradas de 1.500 participantes diversos de 75 pa\u00edses. O conjunto de dados mapeia as prefer\u00eancias de cada pessoa e o feedback detalhado para 8.011 conversas ao vivo com 21 LLMs diferentes.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A Meta prestou consultoria sobre a compila\u00e7\u00e3o do conjunto de dados PRISM de nossos parceiros externos, concentrando as conversas que centralizam perspectivas subjetivas e multiculturais em t\u00f3picos em que \u00e9 prov\u00e1vel que haja discord\u00e2ncia interpessoal e transcultural. Nosso artigo demonstra a utilidade do PRISM por meio de tr\u00eas estudos de caso de diversidade de di\u00e1logos, diversidade de prefer\u00eancias e resultados de bem-estar, mostrando que \u00e9 importante que os seres humanos definem normas de alinhamento. Embora esperemos que este documento sirva como um recurso da comunidade, tamb\u00e9m queremos que ele inspire uma participa\u00e7\u00e3o mais ampla no desenvolvimento de IA e promova uma abordagem mais inclusiva para o design de tecnologia.<\/span><\/p>\n<p><a href=\"https:\/\/huggingface.co\/datasets\/HannahRoseKirk\/prism-alignment\">Obtenha o conjunto de dados dos parceiros externos<\/a><\/p>\n<p><a href=\"https:\/\/arxiv.org\/abs\/2404.16019\"><span style=\"font-weight: 400\">Leia o relat\u00f3rio t\u00e9cnico<\/span><\/a><\/p>\n<h3><strong>Mensura\u00e7\u00e3o e aprimoramento de disparidades geogr\u00e1ficas em sistemas de gera\u00e7\u00e3o de texto para imagem<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">\u00c9 importante que os modelos de texto para imagem funcionem bem para todos e reflitam a diversidade geogr\u00e1fica e cultural do mundo. Para aprimorar esses modelos, s\u00e3o necess\u00e1rias novas ferramentas que possibilitem aos pesquisadores compreender melhor onde os modelos existentes podem ser insuficientes. Para atingir esse objetivo, estamos detalhando nossos esfor\u00e7os e progressos recentes em pesquisa:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Desenvolvemos<\/span><a href=\"https:\/\/arxiv.org\/pdf\/2308.06198\"> <span style=\"font-weight: 400\">indicadores autom\u00e1ticos<\/span><\/a><span style=\"font-weight: 400\"> chamados &#8220;DIG In&#8221; para avaliar poss\u00edveis disparidades geogr\u00e1ficas em modelos de texto para imagem. Al\u00e9m disso, para entender como as pessoas em diferentes regi\u00f5es variam em suas percep\u00e7\u00f5es de representa\u00e7\u00e3o geogr\u00e1fica, realizamos um estudo de anota\u00e7\u00f5es em grande escala. Coletamos mais de 65.000 anota\u00e7\u00f5es e mais de 20 respostas de pesquisa abrangendo apelo, similaridade, consist\u00eancia e<\/span><a href=\"https:\/\/arxiv.org\/abs\/2405.04457\"> <span style=\"font-weight: 400\">recomenda\u00e7\u00f5es<\/span><\/a><span style=\"font-weight: 400\"> compartilhadas para melhorar as avalia\u00e7\u00f5es autom\u00e1ticas e humanas dos modelos de texto para imagem.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Com esse trabalho, aprendemos que as pessoas utilizam componentes espec\u00edficos em uma imagem ao perceber a representa\u00e7\u00e3o geogr\u00e1fica, em vez de visualizar a imagem inteira de forma hol\u00edstica. Como parte de nossa abordagem colaborativa na FAIR, orientamos uma equipe de alunos de p\u00f3s-gradua\u00e7\u00e3o da UMass Amherst em uma avalia\u00e7\u00e3o de acompanhamento que decomp\u00f5e os indicadores autom\u00e1ticos introduzidos anteriormente em conceitos em primeiro plano e representa\u00e7\u00f5es em segundo plano.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Informado pelo trabalho de mensura\u00e7\u00e3o do DIG In, tamb\u00e9m exploramos m\u00e9todos para melhorar a diversidade de resultados dos modelos de texto para imagem. Nesse sentido, apresentamos a<\/span><a href=\"https:\/\/arxiv.org\/abs\/2406.04551\"> <span style=\"font-weight: 400\">orienta\u00e7\u00e3o contextualizada da Pontua\u00e7\u00e3o Vendi<\/span><\/a><span style=\"font-weight: 400\">, que amplia nosso<\/span><a href=\"https:\/\/arxiv.org\/abs\/2310.00158\"> <span style=\"font-weight: 400\">trabalho anterior de orienta\u00e7\u00e3o de feedback<\/span><\/a><span style=\"font-weight: 400\"> e usa uma interven\u00e7\u00e3o em tempo de infer\u00eancia que orienta os modelos de difus\u00e3o latente de texto para imagem de \u00faltima gera\u00e7\u00e3o para aumentar a diversidade de representa\u00e7\u00e3o das amostras geradas, mantendo ou melhorando a qualidade da imagem e a consist\u00eancia da gera\u00e7\u00e3o imediata.<\/span><\/li>\n<\/ul>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/DIG-In\"><span style=\"font-weight: 400\">Obtenha<\/span><\/a><span style=\"font-weight: 400\"> o c\u00f3digo de avalia\u00e7\u00e3o dos indicadores autom\u00e1ticos DIG In para avaliar as disparidades geogr\u00e1ficas<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/DIG-In\/blob\/main\/task2_geode.csv\"><span style=\"font-weight: 400\">Obtenha nossas anota\u00e7\u00f5es<\/span><\/a><span style=\"font-weight: 400\"> que abrangem apelo, similaridade e consist\u00eancia<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"H\u00e1 mais de uma d\u00e9cada a equipe de Fundamental AI Research (FAIR) da Meta tem se concentrado no avan\u00e7o da IA por meio de pesquisa aberta. Como a inova\u00e7\u00e3o no campo continua evoluindo em um ritmo acelerado, acreditamos que a colabora\u00e7\u00e3o com a comunidade global de IA \u00e9 mais importante do que nunca. Manter uma abordagem de ci\u00eancia aberta e compartilhar nosso trabalho com a comunidade nos ajuda a permanecer fi\u00e9is ao nosso objetivo de criar sistemas de IA que funcionem bem para todos e que aproximem o mundo. Hoje, estamos animados em compartilhar alguns dos modelos de pesquisa da FAIR mais recentes com a comunidade global. Estamos lan\u00e7ando publicamente seis m\u00f3dulos de pesquisa que se concentram em temas fundamentais do nosso trabalho: inova\u00e7\u00e3o, criatividade, efici\u00eancia e responsabilidade. Esses lan\u00e7amentos incluem modelos de gera\u00e7\u00e3o de imagem para texto e de texto para m\u00fasica, um modelo de previs\u00e3o de m\u00faltiplos tokens e uma t\u00e9cnica para detectar fala gerada por IA. Ao compartilhar publicamente nosso trabalho de pesquisa inicial, esperamos inspirar itera\u00e7\u00f5es e, por fim, ajudar a promover a IA de forma respons\u00e1vel. Estamos ansiosos para ver o que a comunidade desenvolver\u00e1 com essas vers\u00f5es mais recentes e seguir com as conversas importantes que estamos tendo com a comunidade de c\u00f3digo aberto. Meta Chameleon\u00a0 Conforme compartilhamos em nosso artigo de pesquisa no m\u00eas passado, o Meta Chameleon \u00e9 uma fam\u00edlia de modelos que pode combinar texto e imagens na entrada e na sa\u00edda de qualquer combina\u00e7\u00e3o de texto, bem como imagens com uma \u00fanica arquitetura unificada para codifica\u00e7\u00e3o e decodifica\u00e7\u00e3o. Enquanto a maioria dos modelos de fus\u00e3o tardia atuais utilizam aprendizado baseado em difus\u00e3o, o Meta Chameleon usa tokeniza\u00e7\u00e3o para texto e imagens. Isso permite uma abordagem mais unificada e torna o modelo mais f\u00e1cil de projetar, manter e dimensionar. As possibilidades s\u00e3o infinitas &#8211; imagine a gera\u00e7\u00e3o de legendas criativas para imagens ou o uso de uma combina\u00e7\u00e3o de prompts de texto e imagens para criar uma cena totalmente nova. Hoje, estamos lan\u00e7ando publicamente os principais componentes dos nossos modelos Chameleon 7B e 34B sob uma licen\u00e7a exclusiva para pesquisa. Os modelos que estamos disponibilizando foram ajustados com seguran\u00e7a e s\u00e3o compat\u00edveis com entradas de modalidades mistas e sa\u00edda somente de texto para serem usados para fins de pesquisa. Embora tenhamos tomado medidas para desenvolver esses modelos de forma respons\u00e1vel, reconhecemos que ainda existem riscos, portanto, n\u00e3o estamos liberando o modelo de gera\u00e7\u00e3o de imagens do Chameleon no momento. Com os modelos existentes que estamos compartilhando hoje, esperamos incentivar a comunidade de pesquisa a criar novas estrat\u00e9gias de detec\u00e7\u00e3o e mitiga\u00e7\u00e3o que ajudar\u00e3o a dimensionar a pesquisa de modelos generativos de forma respons\u00e1vel. Obtenha os modelos Previs\u00e3o de m\u00faltiplos tokens A maioria dos LLMs (grandes modelos de linguagem) modernos apresentam um objetivo de treinamento simples: prever a pr\u00f3xima palavra. Embora essa abordagem seja simples e escalon\u00e1vel, ela tamb\u00e9m \u00e9 ineficiente, pois requer muitas ordens de magnitude a mais de texto do que as crian\u00e7as precisam para aprender o mesmo grau de flu\u00eancia no idioma. Em abril, propusemos uma nova abordagem para criar LLMs melhores e mais r\u00e1pidos usando a previs\u00e3o de m\u00faltiplos tokens. Com essa abordagem, treinamos modelos de linguagem para prever diversas palavras futuras de uma s\u00f3 vez, ao inv\u00e9s da antiga abordagem de uma por vez. Isso melhora os recursos do modelo e a efici\u00eancia do treinamento, al\u00e9m de permitir velocidades mais r\u00e1pidas. No contexto da ci\u00eancia aberta respons\u00e1vel, estamos liberando os modelos pr\u00e9-treinados para o preenchimento de c\u00f3digo sob uma licen\u00e7a n\u00e3o comercial\/apenas para pesquisa. Esperamos que essa medida permita que a comunidade de pesquisa investigue nosso m\u00e9todo e os comportamentos dos modelos treinados de forma independente. Obtenha os modelos Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal\u00a0 A IA generativa permitiu que as pessoas explorassem sua criatividade de novas maneiras, como, por exemplo, transformando um prompt de texto em um trecho de m\u00fasica. Embora os modelos existentes de texto para m\u00fasica, como o MusicGen, dependam principalmente de entradas de texto para a gera\u00e7\u00e3o de m\u00fasica, nosso novo modelo, o Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal (JASCO na sigla em ingl\u00eas), \u00e9 capaz de aceitar variadas entradas de condicionamento, como acordes ou batidas espec\u00edficas, para melhorar o controle sobre os resultados musicais gerados. Especificamente, aplicamos camadas de gargalo de informa\u00e7\u00e3o em conjunto com desfoque temporal para extrair informa\u00e7\u00f5es relevantes em rela\u00e7\u00e3o a controles espec\u00edficos. Isso permite a incorpora\u00e7\u00e3o de condi\u00e7\u00f5es baseadas tanto em s\u00edmbolos quanto em \u00e1udio no mesmo modelo de gera\u00e7\u00e3o de texto para m\u00fasica. Os resultados sugerem que o JASCO \u00e9 equivalente aos modelos de base avaliados em termos de qualidade de gera\u00e7\u00e3o, enquanto permite controles significativamente melhores e mais vers\u00e1teis sobre a m\u00fasica gerada. Hoje, estamos lan\u00e7ando o artigo de pesquisa junto com uma p\u00e1gina de amostras. Ainda este m\u00eas, vamos lan\u00e7ar o c\u00f3digo de infer\u00eancia como parte do reposit\u00f3rio AudioCraft sob a licen\u00e7a MIT e o modelo pr\u00e9-treinado sob a licen\u00e7a CC-BY-NC. Estamos ansiosos para disponibilizar o c\u00f3digo e os modelos no futuro. Ou\u00e7a amostras de nosso trabalho AudioSeal Ferramentas de IA generativa est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Como em todas as inova\u00e7\u00f5es em IA, \u00e9 importante que fa\u00e7amos nossa parte para garantir o uso respons\u00e1vel dessas ferramentas. Hoje, estamos lan\u00e7ando o AudioSeal, que acreditamos ser a primeira t\u00e9cnica de marca d&#8217;\u00e1gua de \u00e1udio projetada especificamente para a detec\u00e7\u00e3o localizada de fala gerada por IA, possibilitando identificar segmentos gerados por IA dentro de um trecho de \u00e1udio mais longo. O AudioSeal renova a marca d&#8217;\u00e1gua de \u00e1udio cl\u00e1ssica ao focar na detec\u00e7\u00e3o de conte\u00fado gerado por IA em vez de esteganografia. Diferente dos m\u00e9todos tradicionais que dependem de algoritmos de decodifica\u00e7\u00e3o complexos, a abordagem de detec\u00e7\u00e3o localizada do AudioSeal permite uma detec\u00e7\u00e3o mais r\u00e1pida e eficiente. Esse design aumenta a velocidade de detec\u00e7\u00e3o em at\u00e9 485 vezes em compara\u00e7\u00e3o com os m\u00e9todos anteriores, tornando-o altamente adequado para aplica\u00e7\u00f5es em grande escala e em tempo real. Nossa abordagem atinge desempenho de ponta em marca d&#8217;\u00e1gua de \u00e1udio em termos de robustez e imperceptibilidade. O AudioSeal est\u00e1 sendo lan\u00e7ado sob uma licen\u00e7a comercial. \u00c9 apenas uma das v\u00e1rias iniciativas de pesquisa respons\u00e1vel que compartilhamos para ajudar a prevenir o uso indevido de ferramentas de IA generativa. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo fundamental de tradu\u00e7\u00e3o para texto e fala, e pelo Audiobox. Detalhamos ainda mais nossa abordagem de marca\u00e7\u00e3o d&#8217;\u00e1gua para modelos de imagens, fala e texto em lan\u00e7amentos recentes. Obtenha o modelo e o c\u00f3digo de treinamento Parceria para apoiar o lan\u00e7amento do conjunto de dados PRISM Obter feedback de um grupo diversificado de pessoas \u00e9 importante para melhorar os LLMs, no entanto, quest\u00f5es abertas t\u00eam surgido na comunidade de pesquisa sobre m\u00e9todos, dom\u00ednios e objetivos em torno do processo de feedback. Trabalhamos com nossos parceiros externos para lidar com essas quest\u00f5es, apoiando o lan\u00e7amento do conjunto de dados PRISM, que mapeia as caracter\u00edsticas sociodemogr\u00e1ficas e as prefer\u00eancias declaradas de 1.500 participantes diversos de 75 pa\u00edses. O conjunto de dados mapeia as prefer\u00eancias de cada pessoa e o feedback detalhado para 8.011 conversas ao vivo com 21 LLMs diferentes. A Meta prestou consultoria sobre a compila\u00e7\u00e3o do conjunto de dados PRISM de nossos parceiros externos, concentrando as conversas que centralizam perspectivas subjetivas e multiculturais em t\u00f3picos em que \u00e9 prov\u00e1vel que haja discord\u00e2ncia interpessoal e transcultural. Nosso artigo demonstra a utilidade do PRISM por meio de tr\u00eas estudos de caso de diversidade de di\u00e1logos, diversidade de prefer\u00eancias e resultados de bem-estar, mostrando que \u00e9 importante que os seres humanos definem normas de alinhamento. Embora esperemos que este documento sirva como um recurso da comunidade, tamb\u00e9m queremos que ele inspire uma participa\u00e7\u00e3o mais ampla no desenvolvimento de IA e promova uma abordagem mais inclusiva para o design de tecnologia. Obtenha o conjunto de dados dos parceiros externos Leia o relat\u00f3rio t\u00e9cnico Mensura\u00e7\u00e3o e aprimoramento de disparidades geogr\u00e1ficas em sistemas de gera\u00e7\u00e3o de texto para imagem \u00c9 importante que os modelos de texto para imagem funcionem bem para todos e reflitam a diversidade geogr\u00e1fica e cultural do mundo. Para aprimorar esses modelos, s\u00e3o necess\u00e1rias novas ferramentas que possibilitem aos pesquisadores compreender melhor onde os modelos existentes podem ser insuficientes. Para atingir esse objetivo, estamos detalhando nossos esfor\u00e7os e progressos recentes em pesquisa: Desenvolvemos indicadores autom\u00e1ticos chamados &#8220;DIG In&#8221; para avaliar poss\u00edveis disparidades geogr\u00e1ficas em modelos de texto para imagem. Al\u00e9m disso, para entender como as pessoas em diferentes regi\u00f5es variam em suas percep\u00e7\u00f5es de representa\u00e7\u00e3o geogr\u00e1fica, realizamos um estudo de anota\u00e7\u00f5es em grande escala. Coletamos mais de 65.000 anota\u00e7\u00f5es e mais de 20 respostas de pesquisa abrangendo apelo, similaridade, consist\u00eancia e recomenda\u00e7\u00f5es compartilhadas para melhorar as avalia\u00e7\u00f5es autom\u00e1ticas e humanas dos modelos de texto para imagem. Com esse trabalho, aprendemos que as pessoas utilizam componentes espec\u00edficos em uma imagem ao perceber a representa\u00e7\u00e3o geogr\u00e1fica, em vez de visualizar a imagem inteira de forma hol\u00edstica. Como parte de nossa abordagem colaborativa na FAIR, orientamos uma equipe de alunos de p\u00f3s-gradua\u00e7\u00e3o da UMass Amherst em uma avalia\u00e7\u00e3o de acompanhamento que decomp\u00f5e os indicadores autom\u00e1ticos introduzidos anteriormente em conceitos em primeiro plano e representa\u00e7\u00f5es em segundo plano. Informado pelo trabalho de mensura\u00e7\u00e3o do DIG In, tamb\u00e9m exploramos m\u00e9todos para melhorar a diversidade de resultados dos modelos de texto para imagem. Nesse sentido, apresentamos a orienta\u00e7\u00e3o contextualizada da Pontua\u00e7\u00e3o Vendi, que amplia nosso trabalho anterior de orienta\u00e7\u00e3o de feedback e usa uma interven\u00e7\u00e3o em tempo de infer\u00eancia que orienta os modelos de difus\u00e3o latente de texto para imagem de \u00faltima gera\u00e7\u00e3o para aumentar a diversidade de representa\u00e7\u00e3o das amostras geradas, mantendo ou melhorando a qualidade da imagem e a consist\u00eancia da gera\u00e7\u00e3o imediata. Obtenha o c\u00f3digo de avalia\u00e7\u00e3o dos indicadores autom\u00e1ticos DIG In para avaliar as disparidades geogr\u00e1ficas Obtenha nossas anota\u00e7\u00f5es que abrangem apelo, similaridade e consist\u00eancia","protected":false},"author":164097234,"featured_media":25670,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-25669","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"H\u00e1 mais de uma d\u00e9cada a equipe de Fundamental AI Research (FAIR) da Meta tem se concentrado no avan\u00e7o da IA por meio de pesquisa aberta. Como a inova\u00e7\u00e3o no campo continua evoluindo em um ritmo acelerado, acreditamos que a colabora\u00e7\u00e3o com a comunidade global de IA \u00e9 mais importante do que nunca. Manter uma abordagem de ci\u00eancia aberta e compartilhar nosso trabalho com a comunidade nos ajuda a permanecer fi\u00e9is ao nosso objetivo de criar sistemas de IA que funcionem bem para todos e que aproximem o mundo. Hoje, estamos animados em compartilhar alguns dos modelos de pesquisa da FAIR mais recentes com a comunidade global. Estamos lan\u00e7ando publicamente seis m\u00f3dulos de pesquisa que se concentram em temas fundamentais do nosso trabalho: inova\u00e7\u00e3o, criatividade, efici\u00eancia e responsabilidade. Esses lan\u00e7amentos incluem modelos de gera\u00e7\u00e3o de imagem para texto e de texto para m\u00fasica, um modelo de previs\u00e3o de m\u00faltiplos tokens e uma t\u00e9cnica para detectar fala gerada por IA. Ao compartilhar publicamente nosso trabalho de pesquisa inicial, esperamos inspirar itera\u00e7\u00f5es e, por fim, ajudar a promover a IA de forma respons\u00e1vel. Estamos ansiosos para ver o que a comunidade desenvolver\u00e1 com essas vers\u00f5es mais recentes e seguir com as conversas importantes que estamos tendo com a comunidade de c\u00f3digo aberto. Meta Chameleon\u00a0 Conforme compartilhamos em nosso artigo de pesquisa no m\u00eas passado, o Meta Chameleon \u00e9 uma fam\u00edlia de modelos que pode combinar texto e imagens na entrada e na sa\u00edda de qualquer combina\u00e7\u00e3o de texto, bem como imagens com uma \u00fanica arquitetura unificada para codifica\u00e7\u00e3o e decodifica\u00e7\u00e3o. Enquanto a maioria dos modelos de fus\u00e3o tardia atuais utilizam aprendizado baseado em difus\u00e3o, o Meta Chameleon usa tokeniza\u00e7\u00e3o para texto e imagens. Isso permite uma abordagem mais unificada e torna o modelo mais f\u00e1cil de projetar, manter e dimensionar. As possibilidades s\u00e3o infinitas &#8211; imagine a gera\u00e7\u00e3o de legendas criativas para imagens ou o uso de uma combina\u00e7\u00e3o de prompts de texto e imagens para criar uma cena totalmente nova. Hoje, estamos lan\u00e7ando publicamente os principais componentes dos nossos modelos Chameleon 7B e 34B sob uma licen\u00e7a exclusiva para pesquisa. Os modelos que estamos disponibilizando foram ajustados com seguran\u00e7a e s\u00e3o compat\u00edveis com entradas de modalidades mistas e sa\u00edda somente de texto para serem usados para fins de pesquisa. Embora tenhamos tomado medidas para desenvolver esses modelos de forma respons\u00e1vel, reconhecemos que ainda existem riscos, portanto, n\u00e3o estamos liberando o modelo de gera\u00e7\u00e3o de imagens do Chameleon no momento. Com os modelos existentes que estamos compartilhando hoje, esperamos incentivar a comunidade de pesquisa a criar novas estrat\u00e9gias de detec\u00e7\u00e3o e mitiga\u00e7\u00e3o que ajudar\u00e3o a dimensionar a pesquisa de modelos generativos de forma respons\u00e1vel. Obtenha os modelos Previs\u00e3o de m\u00faltiplos tokens A maioria dos LLMs (grandes modelos de linguagem) modernos apresentam um objetivo de treinamento simples: prever a pr\u00f3xima palavra. Embora essa abordagem seja simples e escalon\u00e1vel, ela tamb\u00e9m \u00e9 ineficiente, pois requer muitas ordens de magnitude a mais de texto do que as crian\u00e7as precisam para aprender o mesmo grau de flu\u00eancia no idioma. Em abril, propusemos uma nova abordagem para criar LLMs melhores e mais r\u00e1pidos usando a previs\u00e3o de m\u00faltiplos tokens. Com essa abordagem, treinamos modelos de linguagem para prever diversas palavras futuras de uma s\u00f3 vez, ao inv\u00e9s da antiga abordagem de uma por vez. Isso melhora os recursos do modelo e a efici\u00eancia do treinamento, al\u00e9m de permitir velocidades mais r\u00e1pidas. No contexto da ci\u00eancia aberta respons\u00e1vel, estamos liberando os modelos pr\u00e9-treinados para o preenchimento de c\u00f3digo sob uma licen\u00e7a n\u00e3o comercial\/apenas para pesquisa. Esperamos que essa medida permita que a comunidade de pesquisa investigue nosso m\u00e9todo e os comportamentos dos modelos treinados de forma independente. Obtenha os modelos Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal\u00a0 A IA generativa permitiu que as pessoas explorassem sua criatividade de novas maneiras, como, por exemplo, transformando um prompt de texto em um trecho de m\u00fasica. Embora os modelos existentes de texto para m\u00fasica, como o MusicGen, dependam principalmente de entradas de texto para a gera\u00e7\u00e3o de m\u00fasica, nosso novo modelo, o Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal (JASCO na sigla em ingl\u00eas), \u00e9 capaz de aceitar variadas entradas de condicionamento, como acordes ou batidas espec\u00edficas, para melhorar o controle sobre os resultados musicais gerados. Especificamente, aplicamos camadas de gargalo de informa\u00e7\u00e3o em conjunto com desfoque temporal para extrair informa\u00e7\u00f5es relevantes em rela\u00e7\u00e3o a controles espec\u00edficos. Isso permite a incorpora\u00e7\u00e3o de condi\u00e7\u00f5es baseadas tanto em s\u00edmbolos quanto em \u00e1udio no mesmo modelo de gera\u00e7\u00e3o de texto para m\u00fasica. Os resultados sugerem que o JASCO \u00e9 equivalente aos modelos de base avaliados em termos de qualidade de gera\u00e7\u00e3o, enquanto permite controles significativamente melhores e mais vers\u00e1teis sobre a m\u00fasica gerada. Hoje, estamos lan\u00e7ando o artigo de pesquisa junto com uma p\u00e1gina de amostras. Ainda este m\u00eas, vamos lan\u00e7ar o c\u00f3digo de infer\u00eancia como parte do reposit\u00f3rio AudioCraft sob a licen\u00e7a MIT e o modelo pr\u00e9-treinado sob a licen\u00e7a CC-BY-NC. Estamos ansiosos para disponibilizar o c\u00f3digo e os modelos no futuro. Ou\u00e7a amostras de nosso trabalho AudioSeal Ferramentas de IA generativa est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Como em todas as inova\u00e7\u00f5es em IA, \u00e9 importante que fa\u00e7amos nossa parte para garantir o uso respons\u00e1vel dessas ferramentas. Hoje, estamos lan\u00e7ando o AudioSeal, que acreditamos ser a primeira t\u00e9cnica de marca d&#8217;\u00e1gua de \u00e1udio projetada especificamente para a detec\u00e7\u00e3o localizada de fala gerada por IA, possibilitando identificar segmentos gerados por IA dentro de um trecho de \u00e1udio mais longo. O AudioSeal renova a marca d&#8217;\u00e1gua de \u00e1udio cl\u00e1ssica ao focar na detec\u00e7\u00e3o de conte\u00fado gerado por IA em vez de esteganografia. Diferente dos m\u00e9todos tradicionais que dependem de algoritmos de decodifica\u00e7\u00e3o complexos, a abordagem de detec\u00e7\u00e3o localizada do AudioSeal permite uma detec\u00e7\u00e3o mais r\u00e1pida e eficiente. Esse design aumenta a velocidade de detec\u00e7\u00e3o em at\u00e9 485 vezes em compara\u00e7\u00e3o com os m\u00e9todos anteriores, tornando-o altamente adequado para aplica\u00e7\u00f5es em grande escala e em tempo real. Nossa abordagem atinge desempenho de ponta em marca d&#8217;\u00e1gua de \u00e1udio em termos de robustez e imperceptibilidade. O AudioSeal est\u00e1 sendo lan\u00e7ado sob uma licen\u00e7a comercial. \u00c9 apenas uma das v\u00e1rias iniciativas de pesquisa respons\u00e1vel que compartilhamos para ajudar a prevenir o uso indevido de ferramentas de IA generativa. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo fundamental de tradu\u00e7\u00e3o para texto e fala, e pelo Audiobox. Detalhamos ainda mais nossa abordagem de marca\u00e7\u00e3o d&#8217;\u00e1gua para modelos de imagens, fala e texto em lan\u00e7amentos recentes. Obtenha o modelo e o c\u00f3digo de treinamento Parceria para apoiar o lan\u00e7amento do conjunto de dados PRISM Obter feedback de um grupo diversificado de pessoas \u00e9 importante para melhorar os LLMs, no entanto, quest\u00f5es abertas t\u00eam surgido na comunidade de pesquisa sobre m\u00e9todos, dom\u00ednios e objetivos em torno do processo de feedback. Trabalhamos com nossos parceiros externos para lidar com essas quest\u00f5es, apoiando o lan\u00e7amento do conjunto de dados PRISM, que mapeia as caracter\u00edsticas sociodemogr\u00e1ficas e as prefer\u00eancias declaradas de 1.500 participantes diversos de 75 pa\u00edses. O conjunto de dados mapeia as prefer\u00eancias de cada pessoa e o feedback detalhado para 8.011 conversas ao vivo com 21 LLMs diferentes. A Meta prestou consultoria sobre a compila\u00e7\u00e3o do conjunto de dados PRISM de nossos parceiros externos, concentrando as conversas que centralizam perspectivas subjetivas e multiculturais em t\u00f3picos em que \u00e9 prov\u00e1vel que haja discord\u00e2ncia interpessoal e transcultural. Nosso artigo demonstra a utilidade do PRISM por meio de tr\u00eas estudos de caso de diversidade de di\u00e1logos, diversidade de prefer\u00eancias e resultados de bem-estar, mostrando que \u00e9 importante que os seres humanos definem normas de alinhamento. Embora esperemos que este documento sirva como um recurso da comunidade, tamb\u00e9m queremos que ele inspire uma participa\u00e7\u00e3o mais ampla no desenvolvimento de IA e promova uma abordagem mais inclusiva para o design de tecnologia. Obtenha o conjunto de dados dos parceiros externos Leia o relat\u00f3rio t\u00e9cnico Mensura\u00e7\u00e3o e aprimoramento de disparidades geogr\u00e1ficas em sistemas de gera\u00e7\u00e3o de texto para imagem \u00c9 importante que os modelos de texto para imagem funcionem bem para todos e reflitam a diversidade geogr\u00e1fica e cultural do mundo. Para aprimorar esses modelos, s\u00e3o necess\u00e1rias novas ferramentas que possibilitem aos pesquisadores compreender melhor onde os modelos existentes podem ser insuficientes. Para atingir esse objetivo, estamos detalhando nossos esfor\u00e7os e progressos recentes em pesquisa: Desenvolvemos indicadores autom\u00e1ticos chamados &#8220;DIG In&#8221; para avaliar poss\u00edveis disparidades geogr\u00e1ficas em modelos de texto para imagem. Al\u00e9m disso, para entender como as pessoas em diferentes regi\u00f5es variam em suas percep\u00e7\u00f5es de representa\u00e7\u00e3o geogr\u00e1fica, realizamos um estudo de anota\u00e7\u00f5es em grande escala. Coletamos mais de 65.000 anota\u00e7\u00f5es e mais de 20 respostas de pesquisa abrangendo apelo, similaridade, consist\u00eancia e recomenda\u00e7\u00f5es compartilhadas para melhorar as avalia\u00e7\u00f5es autom\u00e1ticas e humanas dos modelos de texto para imagem. Com esse trabalho, aprendemos que as pessoas utilizam componentes espec\u00edficos em uma imagem ao perceber a representa\u00e7\u00e3o geogr\u00e1fica, em vez de visualizar a imagem inteira de forma hol\u00edstica. Como parte de nossa abordagem colaborativa na FAIR, orientamos uma equipe de alunos de p\u00f3s-gradua\u00e7\u00e3o da UMass Amherst em uma avalia\u00e7\u00e3o de acompanhamento que decomp\u00f5e os indicadores autom\u00e1ticos introduzidos anteriormente em conceitos em primeiro plano e representa\u00e7\u00f5es em segundo plano. Informado pelo trabalho de mensura\u00e7\u00e3o do DIG In, tamb\u00e9m exploramos m\u00e9todos para melhorar a diversidade de resultados dos modelos de texto para imagem. Nesse sentido, apresentamos a orienta\u00e7\u00e3o contextualizada da Pontua\u00e7\u00e3o Vendi, que amplia nosso trabalho anterior de orienta\u00e7\u00e3o de feedback e usa uma interven\u00e7\u00e3o em tempo de infer\u00eancia que orienta os modelos de difus\u00e3o latente de texto para imagem de \u00faltima gera\u00e7\u00e3o para aumentar a diversidade de representa\u00e7\u00e3o das amostras geradas, mantendo ou melhorando a qualidade da imagem e a consist\u00eancia da gera\u00e7\u00e3o imediata. Obtenha o c\u00f3digo de avalia\u00e7\u00e3o dos indicadores autom\u00e1ticos DIG In para avaliar as disparidades geogr\u00e1ficas Obtenha nossas anota\u00e7\u00f5es que abrangem apelo, similaridade e consist\u00eancia\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-06-18T16:09:55+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-06-18T16:18:25+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?resize=1024,559\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"559\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\"},\"author\":\"Facebook company\",\"headline\":\"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR\",\"datePublished\":\"2024-06-18T16:09:55+00:00\",\"dateModified\":\"2024-06-18T16:18:25+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\"},\"wordCount\":1882,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\",\"name\":\"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592\",\"datePublished\":\"2024-06-18T16:09:55+00:00\",\"dateModified\":\"2024-06-18T16:18:25+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592\",\"width\":1084,\"height\":592},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/","og_locale":"pt_BR","og_type":"article","og_title":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta","og_description":"H\u00e1 mais de uma d\u00e9cada a equipe de Fundamental AI Research (FAIR) da Meta tem se concentrado no avan\u00e7o da IA por meio de pesquisa aberta. Como a inova\u00e7\u00e3o no campo continua evoluindo em um ritmo acelerado, acreditamos que a colabora\u00e7\u00e3o com a comunidade global de IA \u00e9 mais importante do que nunca. Manter uma abordagem de ci\u00eancia aberta e compartilhar nosso trabalho com a comunidade nos ajuda a permanecer fi\u00e9is ao nosso objetivo de criar sistemas de IA que funcionem bem para todos e que aproximem o mundo. Hoje, estamos animados em compartilhar alguns dos modelos de pesquisa da FAIR mais recentes com a comunidade global. Estamos lan\u00e7ando publicamente seis m\u00f3dulos de pesquisa que se concentram em temas fundamentais do nosso trabalho: inova\u00e7\u00e3o, criatividade, efici\u00eancia e responsabilidade. Esses lan\u00e7amentos incluem modelos de gera\u00e7\u00e3o de imagem para texto e de texto para m\u00fasica, um modelo de previs\u00e3o de m\u00faltiplos tokens e uma t\u00e9cnica para detectar fala gerada por IA. Ao compartilhar publicamente nosso trabalho de pesquisa inicial, esperamos inspirar itera\u00e7\u00f5es e, por fim, ajudar a promover a IA de forma respons\u00e1vel. Estamos ansiosos para ver o que a comunidade desenvolver\u00e1 com essas vers\u00f5es mais recentes e seguir com as conversas importantes que estamos tendo com a comunidade de c\u00f3digo aberto. Meta Chameleon\u00a0 Conforme compartilhamos em nosso artigo de pesquisa no m\u00eas passado, o Meta Chameleon \u00e9 uma fam\u00edlia de modelos que pode combinar texto e imagens na entrada e na sa\u00edda de qualquer combina\u00e7\u00e3o de texto, bem como imagens com uma \u00fanica arquitetura unificada para codifica\u00e7\u00e3o e decodifica\u00e7\u00e3o. Enquanto a maioria dos modelos de fus\u00e3o tardia atuais utilizam aprendizado baseado em difus\u00e3o, o Meta Chameleon usa tokeniza\u00e7\u00e3o para texto e imagens. Isso permite uma abordagem mais unificada e torna o modelo mais f\u00e1cil de projetar, manter e dimensionar. As possibilidades s\u00e3o infinitas &#8211; imagine a gera\u00e7\u00e3o de legendas criativas para imagens ou o uso de uma combina\u00e7\u00e3o de prompts de texto e imagens para criar uma cena totalmente nova. Hoje, estamos lan\u00e7ando publicamente os principais componentes dos nossos modelos Chameleon 7B e 34B sob uma licen\u00e7a exclusiva para pesquisa. Os modelos que estamos disponibilizando foram ajustados com seguran\u00e7a e s\u00e3o compat\u00edveis com entradas de modalidades mistas e sa\u00edda somente de texto para serem usados para fins de pesquisa. Embora tenhamos tomado medidas para desenvolver esses modelos de forma respons\u00e1vel, reconhecemos que ainda existem riscos, portanto, n\u00e3o estamos liberando o modelo de gera\u00e7\u00e3o de imagens do Chameleon no momento. Com os modelos existentes que estamos compartilhando hoje, esperamos incentivar a comunidade de pesquisa a criar novas estrat\u00e9gias de detec\u00e7\u00e3o e mitiga\u00e7\u00e3o que ajudar\u00e3o a dimensionar a pesquisa de modelos generativos de forma respons\u00e1vel. Obtenha os modelos Previs\u00e3o de m\u00faltiplos tokens A maioria dos LLMs (grandes modelos de linguagem) modernos apresentam um objetivo de treinamento simples: prever a pr\u00f3xima palavra. Embora essa abordagem seja simples e escalon\u00e1vel, ela tamb\u00e9m \u00e9 ineficiente, pois requer muitas ordens de magnitude a mais de texto do que as crian\u00e7as precisam para aprender o mesmo grau de flu\u00eancia no idioma. Em abril, propusemos uma nova abordagem para criar LLMs melhores e mais r\u00e1pidos usando a previs\u00e3o de m\u00faltiplos tokens. Com essa abordagem, treinamos modelos de linguagem para prever diversas palavras futuras de uma s\u00f3 vez, ao inv\u00e9s da antiga abordagem de uma por vez. Isso melhora os recursos do modelo e a efici\u00eancia do treinamento, al\u00e9m de permitir velocidades mais r\u00e1pidas. No contexto da ci\u00eancia aberta respons\u00e1vel, estamos liberando os modelos pr\u00e9-treinados para o preenchimento de c\u00f3digo sob uma licen\u00e7a n\u00e3o comercial\/apenas para pesquisa. Esperamos que essa medida permita que a comunidade de pesquisa investigue nosso m\u00e9todo e os comportamentos dos modelos treinados de forma independente. Obtenha os modelos Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal\u00a0 A IA generativa permitiu que as pessoas explorassem sua criatividade de novas maneiras, como, por exemplo, transformando um prompt de texto em um trecho de m\u00fasica. Embora os modelos existentes de texto para m\u00fasica, como o MusicGen, dependam principalmente de entradas de texto para a gera\u00e7\u00e3o de m\u00fasica, nosso novo modelo, o Condicionamento Conjunto Simb\u00f3lico e de \u00c1udio para Gera\u00e7\u00e3o de Texto para M\u00fasica com Controle Temporal (JASCO na sigla em ingl\u00eas), \u00e9 capaz de aceitar variadas entradas de condicionamento, como acordes ou batidas espec\u00edficas, para melhorar o controle sobre os resultados musicais gerados. Especificamente, aplicamos camadas de gargalo de informa\u00e7\u00e3o em conjunto com desfoque temporal para extrair informa\u00e7\u00f5es relevantes em rela\u00e7\u00e3o a controles espec\u00edficos. Isso permite a incorpora\u00e7\u00e3o de condi\u00e7\u00f5es baseadas tanto em s\u00edmbolos quanto em \u00e1udio no mesmo modelo de gera\u00e7\u00e3o de texto para m\u00fasica. Os resultados sugerem que o JASCO \u00e9 equivalente aos modelos de base avaliados em termos de qualidade de gera\u00e7\u00e3o, enquanto permite controles significativamente melhores e mais vers\u00e1teis sobre a m\u00fasica gerada. Hoje, estamos lan\u00e7ando o artigo de pesquisa junto com uma p\u00e1gina de amostras. Ainda este m\u00eas, vamos lan\u00e7ar o c\u00f3digo de infer\u00eancia como parte do reposit\u00f3rio AudioCraft sob a licen\u00e7a MIT e o modelo pr\u00e9-treinado sob a licen\u00e7a CC-BY-NC. Estamos ansiosos para disponibilizar o c\u00f3digo e os modelos no futuro. Ou\u00e7a amostras de nosso trabalho AudioSeal Ferramentas de IA generativa est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Como em todas as inova\u00e7\u00f5es em IA, \u00e9 importante que fa\u00e7amos nossa parte para garantir o uso respons\u00e1vel dessas ferramentas. Hoje, estamos lan\u00e7ando o AudioSeal, que acreditamos ser a primeira t\u00e9cnica de marca d&#8217;\u00e1gua de \u00e1udio projetada especificamente para a detec\u00e7\u00e3o localizada de fala gerada por IA, possibilitando identificar segmentos gerados por IA dentro de um trecho de \u00e1udio mais longo. O AudioSeal renova a marca d&#8217;\u00e1gua de \u00e1udio cl\u00e1ssica ao focar na detec\u00e7\u00e3o de conte\u00fado gerado por IA em vez de esteganografia. Diferente dos m\u00e9todos tradicionais que dependem de algoritmos de decodifica\u00e7\u00e3o complexos, a abordagem de detec\u00e7\u00e3o localizada do AudioSeal permite uma detec\u00e7\u00e3o mais r\u00e1pida e eficiente. Esse design aumenta a velocidade de detec\u00e7\u00e3o em at\u00e9 485 vezes em compara\u00e7\u00e3o com os m\u00e9todos anteriores, tornando-o altamente adequado para aplica\u00e7\u00f5es em grande escala e em tempo real. Nossa abordagem atinge desempenho de ponta em marca d&#8217;\u00e1gua de \u00e1udio em termos de robustez e imperceptibilidade. O AudioSeal est\u00e1 sendo lan\u00e7ado sob uma licen\u00e7a comercial. \u00c9 apenas uma das v\u00e1rias iniciativas de pesquisa respons\u00e1vel que compartilhamos para ajudar a prevenir o uso indevido de ferramentas de IA generativa. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo fundamental de tradu\u00e7\u00e3o para texto e fala, e pelo Audiobox. Detalhamos ainda mais nossa abordagem de marca\u00e7\u00e3o d&#8217;\u00e1gua para modelos de imagens, fala e texto em lan\u00e7amentos recentes. Obtenha o modelo e o c\u00f3digo de treinamento Parceria para apoiar o lan\u00e7amento do conjunto de dados PRISM Obter feedback de um grupo diversificado de pessoas \u00e9 importante para melhorar os LLMs, no entanto, quest\u00f5es abertas t\u00eam surgido na comunidade de pesquisa sobre m\u00e9todos, dom\u00ednios e objetivos em torno do processo de feedback. Trabalhamos com nossos parceiros externos para lidar com essas quest\u00f5es, apoiando o lan\u00e7amento do conjunto de dados PRISM, que mapeia as caracter\u00edsticas sociodemogr\u00e1ficas e as prefer\u00eancias declaradas de 1.500 participantes diversos de 75 pa\u00edses. O conjunto de dados mapeia as prefer\u00eancias de cada pessoa e o feedback detalhado para 8.011 conversas ao vivo com 21 LLMs diferentes. A Meta prestou consultoria sobre a compila\u00e7\u00e3o do conjunto de dados PRISM de nossos parceiros externos, concentrando as conversas que centralizam perspectivas subjetivas e multiculturais em t\u00f3picos em que \u00e9 prov\u00e1vel que haja discord\u00e2ncia interpessoal e transcultural. Nosso artigo demonstra a utilidade do PRISM por meio de tr\u00eas estudos de caso de diversidade de di\u00e1logos, diversidade de prefer\u00eancias e resultados de bem-estar, mostrando que \u00e9 importante que os seres humanos definem normas de alinhamento. Embora esperemos que este documento sirva como um recurso da comunidade, tamb\u00e9m queremos que ele inspire uma participa\u00e7\u00e3o mais ampla no desenvolvimento de IA e promova uma abordagem mais inclusiva para o design de tecnologia. Obtenha o conjunto de dados dos parceiros externos Leia o relat\u00f3rio t\u00e9cnico Mensura\u00e7\u00e3o e aprimoramento de disparidades geogr\u00e1ficas em sistemas de gera\u00e7\u00e3o de texto para imagem \u00c9 importante que os modelos de texto para imagem funcionem bem para todos e reflitam a diversidade geogr\u00e1fica e cultural do mundo. Para aprimorar esses modelos, s\u00e3o necess\u00e1rias novas ferramentas que possibilitem aos pesquisadores compreender melhor onde os modelos existentes podem ser insuficientes. Para atingir esse objetivo, estamos detalhando nossos esfor\u00e7os e progressos recentes em pesquisa: Desenvolvemos indicadores autom\u00e1ticos chamados &#8220;DIG In&#8221; para avaliar poss\u00edveis disparidades geogr\u00e1ficas em modelos de texto para imagem. Al\u00e9m disso, para entender como as pessoas em diferentes regi\u00f5es variam em suas percep\u00e7\u00f5es de representa\u00e7\u00e3o geogr\u00e1fica, realizamos um estudo de anota\u00e7\u00f5es em grande escala. Coletamos mais de 65.000 anota\u00e7\u00f5es e mais de 20 respostas de pesquisa abrangendo apelo, similaridade, consist\u00eancia e recomenda\u00e7\u00f5es compartilhadas para melhorar as avalia\u00e7\u00f5es autom\u00e1ticas e humanas dos modelos de texto para imagem. Com esse trabalho, aprendemos que as pessoas utilizam componentes espec\u00edficos em uma imagem ao perceber a representa\u00e7\u00e3o geogr\u00e1fica, em vez de visualizar a imagem inteira de forma hol\u00edstica. Como parte de nossa abordagem colaborativa na FAIR, orientamos uma equipe de alunos de p\u00f3s-gradua\u00e7\u00e3o da UMass Amherst em uma avalia\u00e7\u00e3o de acompanhamento que decomp\u00f5e os indicadores autom\u00e1ticos introduzidos anteriormente em conceitos em primeiro plano e representa\u00e7\u00f5es em segundo plano. Informado pelo trabalho de mensura\u00e7\u00e3o do DIG In, tamb\u00e9m exploramos m\u00e9todos para melhorar a diversidade de resultados dos modelos de texto para imagem. Nesse sentido, apresentamos a orienta\u00e7\u00e3o contextualizada da Pontua\u00e7\u00e3o Vendi, que amplia nosso trabalho anterior de orienta\u00e7\u00e3o de feedback e usa uma interven\u00e7\u00e3o em tempo de infer\u00eancia que orienta os modelos de difus\u00e3o latente de texto para imagem de \u00faltima gera\u00e7\u00e3o para aumentar a diversidade de representa\u00e7\u00e3o das amostras geradas, mantendo ou melhorando a qualidade da imagem e a consist\u00eancia da gera\u00e7\u00e3o imediata. Obtenha o c\u00f3digo de avalia\u00e7\u00e3o dos indicadores autom\u00e1ticos DIG In para avaliar as disparidades geogr\u00e1ficas Obtenha nossas anota\u00e7\u00f5es que abrangem apelo, similaridade e consist\u00eancia","og_url":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/","og_site_name":"Sobre a Meta","article_published_time":"2024-06-18T16:09:55+00:00","article_modified_time":"2024-06-18T16:18:25+00:00","og_image":[{"width":1024,"height":559,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?resize=1024,559","type":"image\/png"}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"8 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/"},"author":"Facebook company","headline":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR","datePublished":"2024-06-18T16:09:55+00:00","dateModified":"2024-06-18T16:18:25+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/"},"wordCount":1882,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/","url":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/","name":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592","datePublished":"2024-06-18T16:09:55+00:00","dateModified":"2024-06-18T16:18:25+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592","width":1084,"height":592},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2024\/06\/compartilhando-novas-pesquisas-modelos-e-conjuntos-de-dados-da-meta-fair\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Compartilhando novas pesquisas, modelos e conjuntos de dados da Meta FAIR"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/06\/448635518_1624911758306045_3805978843765446485_n.png?fit=1084%2C592","jetpack-related-posts":[{"id":26166,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/anunciando-o-programa-de-parceria-em-tecnologia-de-linguagem\/","url_meta":{"origin":25669,"position":0},"title":"Anunciando o Programa de Parceria em Tecnologia de Linguagem","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) \u2014 uma IA que pode usar o racioc\u00ednio humano para realizar tarefas cognitivamente exigentes, como a tradu\u00e7\u00e3o \u2014 e us\u00e1-la para impulsionar produtos e inova\u00e7\u00f5es que beneficiem\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":26157,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","url_meta":{"origin":25669,"position":1},"title":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26149,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","url_meta":{"origin":25669,"position":2},"title":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26290,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/modelos-llama-4\/","url_meta":{"origin":25669,"position":3},"title":"A Cole\u00e7\u00e3o de Modelos Llama 4: o In\u00edcio de uma nova era de inova\u00e7\u00e3o em IA multimodal nativa","author":"Meta","date":"05\/04\/2025","format":false,"excerpt":"\u00c0 medida que mais pessoas continuam a usar a intelig\u00eancia artificial para melhorar suas vidas di\u00e1rias, \u00e9 importante que os modelos e sistemas l\u00edderes estejam dispon\u00edveis abertamente para que todos possam construir o futuro das experi\u00eancias personalizadas. Hoje, estamos entusiasmados em anunciar a su\u00edte de modelos mais avan\u00e7ada que suporta\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26421,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/novo-estudo-mostra-que-a-ia-de-modelo-aberto-e-catalisadora-do-crescimento-economico\/","url_meta":{"origin":25669,"position":4},"title":"Novo estudo mostra que a IA open source \u00e9 catalisadora do crescimento econ\u00f4mico","author":"Meta","date":"21\/05\/2025","format":false,"excerpt":"O novo estudo, \u201cOs impactos econ\u00f4micos e no mercado de trabalho da IA open source\u201d, divulgado hoje pela Linux Foundation (LF) Research e encomendado pela Meta, mostra que muitas organiza\u00e7\u00f5es adotam modelos de IA open source por serem mais econ\u00f4micos. Dois ter\u00e7os das organiza\u00e7\u00f5es entrevistadas acreditam que a IA open\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26678,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/apresentando-o-vibes-uma-nova-forma-de-descobrir-e-criar-videos-com-ia\/","url_meta":{"origin":25669,"position":5},"title":"Apresentando o Vibes: uma nova forma de descobrir e criar v\u00eddeos com IA","author":"Meta","date":"25\/09\/2025","format":false,"excerpt":"Hoje estamos lan\u00e7ando a pr\u00f3xima vers\u00e3o do app Meta AI, incluindo uma pr\u00e9via do Vibes e um novo feed \u2013 tamb\u00e9m dispon\u00edvel em meta.ai \u2013, onde voc\u00ea pode criar e compartilhar v\u00eddeos curtos gerados por IA. O Vibes foi pensado para facilitar a busca por inspira\u00e7\u00e3o criativa e experimentar as\u2026","rel":"","context":"In &quot;Meta AI&quot;","block_context":{"text":"Meta AI","link":"https:\/\/about.fb.com\/br\/news\/category\/technologies\/meta-ai\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Vibes_header.gif?fit=960%2C538&resize=700%2C400 2x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25669","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25669"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25669\/revisions"}],"predecessor-version":[{"id":25673,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25669\/revisions\/25673"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/25670"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25669"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25669"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25669"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}