{"id":25547,"date":"2024-04-18T14:05:38","date_gmt":"2024-04-18T17:05:38","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25547"},"modified":"2024-06-05T17:31:49","modified_gmt":"2024-06-05T20:31:49","slug":"nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/","title":{"rendered":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Hoje, lan\u00e7amos a nova <a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/saiba-mais-sobre-o-meta-ai-desenvolvido-com-o-llama-3\/\">IA da Meta<\/a>,<\/span><span style=\"font-weight: 400\">\u00a0um dos principais assistentes de intelig\u00eancia artificial gratuitos do mundo, constru\u00eddo com o <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/apresentando-meta-llama-3-o-grande-modelo-de-linguagem-de-codigo-aberto-mais-capaz-ate-hoje\/\"><span style=\"font-weight: 400\">Meta Llama 3<\/span><\/a><span style=\"font-weight: 400\">, a \u00faltima gera\u00e7\u00e3o de grandes modelos de linguagem dispon\u00edveis publicamente. Gra\u00e7as aos \u00faltimos avan\u00e7os com o Llama 3, a IA da Meta est\u00e1 mais inteligente, r\u00e1pida e divertida do que nunca.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos comprometidos em desenvolver IA de forma respons\u00e1vel e ajudar outros a fazerem o mesmo. Por isso, estamos tomando uma s\u00e9rie de medidas para que as pessoas possam ter experi\u00eancias agrad\u00e1veis ao usar esses recursos e modelos, compartilhando ferramentas para apoiar os desenvolvedores e a comunidade aberta.<\/span><\/p>\n<h3><b>Responsabilidade em diferentes camadas do processo de desenvolvimento<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Estamos entusiasmados com o potencial que a tecnologia de IA generativa pode ter para pessoas que usam produtos da Meta e para o ecossistema mais amplo. Tamb\u00e9m queremos garantir que estamos desenvolvendo e lan\u00e7ando essa tecnologia de maneira que antecipe e trabalhe para reduzir riscos. Para isso, tomamos medidas para avaliar e abordar riscos em cada n\u00edvel do processo de desenvolvimento e implanta\u00e7\u00e3o de IA. Isso inclui incorporar prote\u00e7\u00f5es no processo que usamos para projetar e lan\u00e7ar o modelo base do Llama, apoiar o ecossistema de desenvolvedores para que possam construir de forma respons\u00e1vel e adotar as mesmas melhores pr\u00e1ticas que esperamos de outros desenvolvedores quando desenvolvemos e lan\u00e7amos nossos pr\u00f3prios recursos de IA generativa no Facebook, Instagram, WhatsApp e Messenger.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como <\/span><a href=\"https:\/\/arxiv.org\/abs\/2307.09288\"><span style=\"font-weight: 400\">explicamos<\/span><\/a><span style=\"font-weight: 400\"> quando lan\u00e7amos o Llama 2, \u00e9 importante ser intencional na concep\u00e7\u00e3o dessas medidas, pois h\u00e1 algumas delas que s\u00f3 podem ser implementadas de forma eficaz pelo provedor do modelo, e outras que s\u00f3 funcionam de forma eficaz quando implementadas pelo desenvolvedor como parte de sua aplica\u00e7\u00e3o espec\u00edfica.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Por esses motivos, com o Llama, adotamos uma abordagem centrada no sistema que aplica prote\u00e7\u00f5es em cada camada de desenvolvimento. Isso inclui adotar uma abordagem cuidadosa para nossos esfor\u00e7os de treinamento e ajuste, e fornecer <\/span><a href=\"https:\/\/llama.meta.com\/purple-llama\/\"><span style=\"font-weight: 400\">ferramentas<\/span><\/a><span style=\"font-weight: 400\"> que facilitem aos desenvolvedores a implementa\u00e7\u00e3o respons\u00e1vel de modelos. Al\u00e9m de maximizar a efic\u00e1cia de nossos esfor\u00e7os de IA respons\u00e1vel, essa abordagem est\u00e1 alinhada com nossa perspectiva de inova\u00e7\u00e3o aberta, dando aos desenvolvedores mais poder para personalizar seus produtos de forma que sejam mais seguros e beneficiem seus usu\u00e1rios. O <\/span><a href=\"https:\/\/llama.meta.com\/responsible-use-guide\/\"><span style=\"font-weight: 400\">Guia de Uso Respons\u00e1vel<\/span><\/a><span style=\"font-weight: 400\"> \u00e9 um recurso importante para os desenvolvedores que esbo\u00e7am pontos que devem ser considerados ao construir seus pr\u00f3prios produtos, raz\u00e3o pela qual seguimos seus principais passos ao construir o Meta IA.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25549\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960&#038;resize=960%2C601\" alt=\"\" width=\"960\" height=\"601\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=5808 5808w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=600 600w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=1725 1725w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<h3><b>Construindo de forma respons\u00e1vel o Llama 3 como um modelo fundacional<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Tomamos v\u00e1rias medidas no n\u00edvel do modelo para desenvolver um modelo de constru\u00e7\u00e3o altamente capaz e seguro no Llama 3, incluindo:<\/span><b><\/b><\/p>\n<p><b>1. <\/b><b>Abordar riscos no treinamento<\/b><\/p>\n<p><span style=\"font-weight: 400\">A base de qualquer modelo \u00e9 o processo de treinamento, por meio do qual o modelo aprende tanto a linguagem quanto as informa\u00e7\u00f5es de que precisa para operar. Como resultado, nossa abordagem come\u00e7ou com uma s\u00e9rie de mitigadores de IA respons\u00e1veis em nosso processo de treinamento. Por exemplo:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Ampliamos o conjunto de dados de treinamento para o Llama 3 para que fosse sete vezes maior do que o que usamos para o Llama 2, e inclui quatro vezes mais c\u00f3digo. Mais de 5% do conjunto de dados de pr\u00e9-treinamento do Llama 3 consiste em dados n\u00e3o ingleses de alta qualidade que abrangem mais de 30 idiomas. Embora os modelos que estamos lan\u00e7ando hoje sejam apenas ajustados para sa\u00eddas em ingl\u00eas, a maior diversidade de dados ajuda os modelos a reconhecer melhor as nuances e padr\u00f5es, e a se sair bem em uma variedade de tarefas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Descobrimos que as gera\u00e7\u00f5es anteriores do Llama s\u00e3o boas em identificar dados de alta qualidade, ent\u00e3o usamos o Llama 2 para ajudar a construir os classificadores de qualidade de texto que est\u00e3o alimentando o Llama 3. Tamb\u00e9m usamos dados sint\u00e9ticos para treinar em \u00e1reas como codifica\u00e7\u00e3o, racioc\u00ednio e contexto longo. Por exemplo, usamos dados sint\u00e9ticos para criar documentos mais longos para treinar.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Assim como o Llama 2, o Llama 3 \u00e9 treinado em uma variedade de dados p\u00fablicos. Para o treinamento, seguimos os processos padr\u00e3o de <\/span><a href=\"https:\/\/about.meta.com\/privacy-progress\/\"><span style=\"font-weight: 400\">revis\u00e3o de privacidade<\/span><\/a><span style=\"font-weight: 400\"> da Meta. Exclu\u00edmos ou removemos dados de certas fontes conhecidas por conter um alto volume de informa\u00e7\u00f5es pessoais sobre indiv\u00edduos privados.<\/span><\/li>\n<\/ul>\n<p><b>2. Avalia\u00e7\u00f5es de Seguran\u00e7a e Ajuste<\/b><\/p>\n<p><span style=\"font-weight: 400\">Adaptamos o modelo pr\u00e9-treinado por meio de um processo de ajuste fino, no qual tomamos medidas adicionais para melhorar seu desempenho na compreens\u00e3o e gera\u00e7\u00e3o de conversas de texto para que possa ser usado em aplicativos de chat semelhantes a assistentes.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Durante e ap\u00f3s o treinamento, realizamos avalia\u00e7\u00f5es autom\u00e1ticas e manuais para entender o desempenho de nossos modelos em uma s\u00e9rie de \u00e1reas de risco, como armas, ataques cibern\u00e9ticos e explora\u00e7\u00e3o infantil. Em cada \u00e1rea, realizamos trabalho adicional para limitar a chance de o modelo fornecer respostas indesejadas.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Por exemplo, realizamos extensos exerc\u00edcios do <\/span><i><span style=\"font-weight: 400\">red teaming<\/span><\/i><span style=\"font-weight: 400\"> com especialistas externos e internos para testar os modelos sob estresse e encontrar maneiras inesperadas que poderiam ser usadas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tamb\u00e9m avaliamos o Llama 3 com testes de refer\u00eancia como o CyberSecEval, su\u00edte de avalia\u00e7\u00e3o de seguran\u00e7a cibern\u00e9tica publicamente dispon\u00edvel da Meta, que mede a probabilidade de um modelo ajudar a realizar um ataque cibern\u00e9tico.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Implementamos t\u00e9cnicas adicionais para ajudar a abordar quaisquer vulnerabilidades encontradas em vers\u00f5es anteriores do modelo, como ajuste fino supervisionado mostrando exemplos de respostas seguras e \u00fateis a prompts arriscados que quer\u00edamos que ele aprendesse a replicar em uma variedade de t\u00f3picos.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Em seguida, aproveitamos o aprendizado por refor\u00e7o com feedback humano, que envolve ter humanos dando feedback de &#8220;prefer\u00eancia&#8221; sobre as respostas do modelo, classificando qual resposta \u00e9 melhor e mais segura.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Este \u00e9 um processo frequente, ent\u00e3o repetimos os testes ap\u00f3s tomar as medidas acima para avaliar qu\u00e3o eficazes essas novas medidas foram na redu\u00e7\u00e3o de riscos e abordar quaisquer riscos restantes.<\/span><\/li>\n<\/ul>\n<p><b>3. Reduzindo recusas benignas<\/b><\/p>\n<p><span style=\"font-weight: 400\">Recebemos feedback dos desenvolvedores de que o Llama 2 \u00e0s vezes recusava inadvertidamente responder a prompts inofensivos. Grandes modelos de linguagem tendem a generalizar demais e n\u00e3o pretendemos que ele se recuse a responder a prompts do tipo &#8220;Como mato um programa de computador?&#8221;, mesmo que n\u00e3o queiramos que ele responda a prompts como &#8220;Como mato meu vizinho?&#8221;.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Aprimoramos nossa abordagem de ajuste fino para que o Llama 3 seja significativamente menos propenso a recusar falsamente responder a prompts do que o Llama 2. Como parte disso, usamos dados de alta qualidade para mostrar aos modelos exemplos de respostas com essas pequenas nuances lingu\u00edsticas, para que pud\u00e9ssemos trein\u00e1-lo a reconhecer essas variantes.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Como resultado, o Llama 3 \u00e9 nosso <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/apresentando-meta-llama-3-o-grande-modelo-de-linguagem-de-codigo-aberto-mais-capaz-ate-hoje\/\"><span style=\"font-weight: 400\">modelo mais capaz<\/span><\/a><span style=\"font-weight: 400\"> at\u00e9 o momento e oferece novas capacidades, incluindo racioc\u00ednio aprimorado.<\/span><\/li>\n<\/ul>\n<p><b>4. Transpar\u00eancia do modelo<\/b><b><\/b><\/p>\n<p><span style=\"font-weight: 400\">Assim como com o Llama 2, estamos publicando um <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/MODEL_CARD.md\"><span style=\"font-weight: 400\">cart\u00e3o de modelo<\/span><\/a><span style=\"font-weight: 400\"> que inclui informa\u00e7\u00f5es detalhadas sobre a arquitetura do Llama 3, par\u00e2metros e avalia\u00e7\u00f5es pr\u00e9-treinadas. O cart\u00e3o do modelo tamb\u00e9m fornece informa\u00e7\u00f5es sobre as capacidades e limita\u00e7\u00f5es das ferramentas.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Expandimos as informa\u00e7\u00f5es no cart\u00e3o do modelo do Llama 3 para incluir detalhes adicionais sobre nossa abordagem de responsabilidade e seguran\u00e7a.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tamb\u00e9m inclui resultados para modelos do Llama 3 em testes autom\u00e1ticos padr\u00e3o como conhecimento geral, racioc\u00ednio, resolu\u00e7\u00e3o de problemas matem\u00e1ticos, codifica\u00e7\u00e3o e compreens\u00e3o de leitura.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Nos pr\u00f3ximos meses, lan\u00e7aremos <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/apresentando-meta-llama-3-o-grande-modelo-de-linguagem-de-codigo-aberto-mais-capaz-ate-hoje\/\"><span style=\"font-weight: 400\">modelos adicionais do Llama 3<\/span><\/a><span style=\"font-weight: 400\"> com novas capacidades, incluindo multimodalidade, a capacidade de conversar em v\u00e1rios idiomas e capacidades globais mais fortes. Nossa abordagem geral de c\u00f3digo aberto para nossos modelos do Llama 3 \u00e9 algo a que permanecemos comprometidos. Atualmente, estamos treinando um modelo de 400 bilh\u00f5es de par\u00e2metros \u2013 e qualquer decis\u00e3o final sobre quando, se e como tornar o c\u00f3digo aberto ser\u00e1 tomada ap\u00f3s avalia\u00e7\u00f5es de seguran\u00e7a que realizaremos nos pr\u00f3ximos meses.<\/span><\/p>\n<h3><b>Como constru\u00edmos a IA da Meta como um desenvolvedor respons\u00e1vel<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Constru\u00edmos a nova IA da Meta sobre a base do Llama 3, imaginando que a ferramenta capacitar\u00e1 os desenvolvedores a expandir o ecossistema existente de produtos e servi\u00e7os baseados no Llama. Como descrevemos em nosso <\/span><a href=\"https:\/\/ai.meta.com\/static-resource\/responsible-use-guide\/\"><span style=\"font-weight: 400\">Guia de Uso Respons\u00e1vel<\/span><\/a><span style=\"font-weight: 400\">, adotamos medidas adicionais nas diferentes etapas do desenvolvimento e implanta\u00e7\u00e3o do produto para construir a IA da Meta sobre o modelo de funda\u00e7\u00e3o, assim como qualquer desenvolvedor usaria o Llama 3 para construir seu pr\u00f3prio produto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Al\u00e9m das mitiga\u00e7\u00f5es que adotamos dentro do Llama 3, um desenvolvedor precisa adotar mitiga\u00e7\u00f5es adicionais para garantir que o modelo possa operar adequadamente no contexto de seu sistema espec\u00edfico e em cada caso de uso. Para a IA da Meta, o caso de uso \u00e9 um assistente seguro e \u00fatil dispon\u00edvel gratuitamente para as pessoas diretamente em nossos aplicativos. Projetamos para ajudar as pessoas a realizar tarefas como brainstorming e superar o bloqueio do escritor, ou conectar-se com amigos para descobrir novos lugares e aventuras.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desde o lan\u00e7amento da IA da Meta no ano passado, atualizamos e melhoramos consistentemente a experi\u00eancia e estamos continuando a torn\u00e1-la ainda melhor. Por exemplo:<\/span><\/p>\n<p><b>1. Aprimoramos as respostas da IA da Meta em rela\u00e7\u00e3o \u00e0s solicita\u00e7\u00f5es e perguntas das pessoas.<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Quer\u00edamos refinar a maneira como a IA da Meta\u00a0 responde \u00e0s solicita\u00e7\u00f5es sobre quest\u00f5es pol\u00edticas ou sociais, ent\u00e3o estamos incorporando diretrizes espec\u00edficas para esses t\u00f3picos. Se algu\u00e9m perguntar sobre um problema de pol\u00edtica debatido, nosso objetivo \u00e9 que a IA da Meta n\u00e3o ofere\u00e7a uma \u00fanica opini\u00e3o ou ponto de vista, mas resuma pontos de vista relevantes sobre o t\u00f3pico. Se algu\u00e9m perguntar especificamente sobre um lado de uma quest\u00e3o, geralmente queremos respeitar a inten\u00e7\u00e3o dessa pessoa e fazer com que a IA da Meta responda \u00e0 pergunta espec\u00edfica.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Abordar o vi\u00e9s do ponto de vista em sistemas de IA generativa \u00e9 uma nova \u00e1rea de pesquisa. Continuamos progredindo para refor\u00e7ar essa abordagem nas respostas da IA da Meta, mas como estamos vendo com todos os sistemas de IA generativa, nem sempre pode retornar a resposta que pretendemos. Tamb\u00e9m estamos explorando t\u00e9cnicas adicionais que podem abord\u00e1-lo junto com o feedback do usu\u00e1rio.<\/span><\/li>\n<\/ul>\n<p><b>2. Ensinamos ao modelo da IA da Meta instru\u00e7\u00f5es e respostas espec\u00edficas para torn\u00e1-lo um assistente de IA mais \u00fatil.<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Isso inclui v\u00e1rios passos de ajuste fino, como desenvolver modelos de recompensa para seguran\u00e7a e utilidade que d\u00e3o ao modelo uma recompensa se ele fizer o que pretendemos.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">As pessoas enviam solicita\u00e7\u00f5es ao modelo e categorizam as respostas de acordo com nossas diretrizes.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Os exemplos que se alinharam com o tom e a responsividade que quer\u00edamos que a IA da Meta reproduzisse foram ent\u00e3o alimentados de forma que a &#8220;recompense&#8221; quando gera conte\u00fado semelhante. Esse processo continua treinando o modelo para produzir mais conte\u00fado dentro das diretrizes.<\/span><\/li>\n<\/ul>\n<p><b>3. Avaliamos o desempenho da IA da Meta em rela\u00e7\u00e3o a benchmarks e usando especialistas humanos.<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Assim como fizemos para o Llama 3, revisamos os modelos da IA da Meta com especialistas externos e internos por meio de exerc\u00edcios de teste de penetra\u00e7\u00e3o para encontrar maneiras inesperadas que a IA da Meta poderia ser usada, e depois abordamos esses problemas em um processo frequente.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tamb\u00e9m estamos testando as capacidades da IA da Meta em nossos aplicativos para garantir que esteja funcionando conforme o previsto em locais como feed, chats, busca e outros.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Realizamos uma bateria de avalia\u00e7\u00f5es advers\u00e1rias \u2013 tanto automatizadas quanto revisadas por humanos \u2013 como uma fiscaliza\u00e7\u00e3o abrangente em n\u00edvel de sistema para ver como a IA da Meta se saiu em m\u00e9tricas-chave de seguran\u00e7a.<\/span><\/li>\n<\/ul>\n<p><b>4. Aplicamos salvaguardas no n\u00edvel da solicita\u00e7\u00e3o e da resposta.<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Para incentivar a IA da Meta a compartilhar respostas \u00fateis e mais seguras que estejam alinhadas com suas diretrizes, implementamos filtros nas solicita\u00e7\u00f5es que os usu\u00e1rios enviam e nas respostas ap\u00f3s serem geradas pelo modelo, antes de serem mostradas a um usu\u00e1rio.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Esses filtros dependem de sistemas conhecidos como classificadores que trabalham para detectar uma solicita\u00e7\u00e3o ou resposta que se enquadre em suas diretrizes. Por exemplo, se algu\u00e9m perguntar como roubar dinheiro de um chefe, o classificador ir\u00e1 detectar essa solicita\u00e7\u00e3o e o modelo ser\u00e1 treinado para responder que n\u00e3o pode fornecer orienta\u00e7\u00e3o sobre como quebrar a lei.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tamb\u00e9m aproveitamos grandes modelos de linguagem constru\u00eddos especificamente com o objetivo de ajudar a detectar viola\u00e7\u00f5es de seguran\u00e7a.<\/span><\/li>\n<\/ul>\n<p><b>5. Inclu\u00edmos ferramentas de feedback dentro da IA da Meta.<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">O feedback \u00e9 fundamental para o desenvolvimento de qualquer recurso de IA generativa, j\u00e1 que nenhum modelo de IA \u00e9 perfeito, ent\u00e3o as pessoas podem compartilhar diretamente conosco se receberam uma resposta boa ou ruim e usaremos esse feedback para melhorar o nosso sistema.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Este feedback \u00e9 revisado para determinar se as respostas s\u00e3o \u00fateis ou se foram contra as diretrizes e instru\u00e7\u00f5es que desenvolvemos.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Os resultados s\u00e3o usados no treinamento cont\u00ednuo do modelo para melhorar o desempenho da IA da Meta ao longo do tempo.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">A transpar\u00eancia \u00e9 fundamental para ajudar as pessoas a entenderem essa nova tecnologia e se sentirem confort\u00e1veis com ela. Quando algu\u00e9m interage com a IA da Meta, informamos que \u00e9 tecnologia de IA para que possam escolher se desejam continuar usando. Compartilhamos informa\u00e7\u00f5es dentro dos pr\u00f3prios recursos para ajudar as pessoas a entenderem que a IA pode tomar sa\u00eddas imprecisas ou inadequadas, o que \u00e9 o mesmo para todos os sistemas de intelig\u00eancia artificial generativa. Em conversas com a IA da Meta, as pessoas podem acessar informa\u00e7\u00f5es adicionais sobre como ela gera conte\u00fado, as limita\u00e7\u00f5es da IA e como os dados que compartilharam com a IA da Meta s\u00e3o usados.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tamb\u00e9m inclu\u00edmos marcadores vis\u00edveis em imagens fotorrealistas geradas pela IA da Meta para que as pessoas saibam que o conte\u00fado foi criado com IA. Em maio, come\u00e7aremos a<\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/02\/rotulando-imagens-geradas-por-inteligencia-artificial-no-facebook-instagram-e-threads\/\"><span style=\"font-weight: 400\"> rotular conte\u00fado<\/span><\/a><span style=\"font-weight: 400\"> de v\u00eddeo, \u00e1udio e imagem que as pessoas postam em nossos aplicativos como &#8220;Feito com IA&#8221; quando detectarmos indicadores de imagem de IA padr\u00e3o da ind\u00fastria ou quando as pessoas indicarem que est\u00e3o enviando conte\u00fado gerado por ferramenta artificial.<\/span><\/p>\n<h3><b>Como os desenvolvedores podem construir de forma respons\u00e1vel com o Llama 3<\/b><\/h3>\n<p><span style=\"font-weight: 400\">A IA da Meta \u00e9 apenas um dos muitos recursos e produtos que ser\u00e3o criados com o Llama 3. Estamos lan\u00e7ando modelos diferentes nos tamanhos 8B e 70B para que os desenvolvedores possam utilizar a melhor vers\u00e3o para eles. Estamos fornecendo, ainda, um modelo ajustado por instru\u00e7\u00f5es especializado em aplicativos de chatbot, bem como um modelo pr\u00e9-treinado para desenvolvedores com casos de uso espec\u00edficos que se beneficiariam de pol\u00edticas personalizadas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Al\u00e9m do<\/span><a href=\"https:\/\/llama.meta.com\/responsible-use-guide\/\"> <span style=\"font-weight: 400\">Guia de Uso Respons\u00e1vel<\/span><\/a><span style=\"font-weight: 400\">, estamos fornecendo<\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/apresentando-meta-llama-3-o-grande-modelo-de-linguagem-de-codigo-aberto-mais-capaz-ate-hoje\/\"><span style=\"font-weight: 400\"> ferramentas de c\u00f3digo aberto<\/span><\/a><span style=\"font-weight: 400\"> que tornam ainda mais f\u00e1cil para os desenvolvedores personalizarem o Llama 3 e implementarem experi\u00eancias generativas com tecnologia de IA.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Estamos lan\u00e7ando componentes atualizados para o<\/span><a href=\"https:\/\/llama.meta.com\/purple-llama\/\"> <span style=\"font-weight: 400\">Llama Guard 2<\/span><\/a><span style=\"font-weight: 400\">, um modelo de seguran\u00e7a de \u00faltima gera\u00e7\u00e3o que os desenvolvedores podem usar como uma camada extra para reduzir a probabilidade de seu modelo gerar resultados que n\u00e3o estejam alinhados com as diretrizes pretendidas. Isso se baseia na<\/span><a href=\"https:\/\/mlcommons.org\/2024\/04\/mlc-aisafety-v0-5-poc\/\"> <span style=\"font-weight: 400\">classifica\u00e7\u00e3o recentemente anunciada<\/span><\/a><span style=\"font-weight: 400\"> pelo MLCommons.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Atualizamos<\/span><a href=\"https:\/\/llama.meta.com\/purple-llama\/\"> <span style=\"font-weight: 400\">o CyberSecEval<\/span><\/a><span style=\"font-weight: 400\">, que foi criado para ajudar os desenvolvedores a avaliar os riscos de seguran\u00e7a cibern\u00e9tica com o c\u00f3digo gerado pelos LLMs. Usamos esse recurso para avaliar o Llama 3 e resolver problemas antes de lan\u00e7\u00e1-lo.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Estamos apresentando o <\/span><a href=\"https:\/\/llama.meta.com\/purple-llama\/\"><span style=\"font-weight: 400\">Code Shield<\/span><\/a><span style=\"font-weight: 400\">, recurso no qual os desenvolvedores podem utilizar para reduzir a chance de gerar c\u00f3digo potencialmente inseguro. Nossas equipes j\u00e1 usaram o Code Shield com o LLM de codifica\u00e7\u00e3o interna da Meta para evitar dezenas de milhares de sugest\u00f5es potencialmente inseguras este ano.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Temos um<\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"> <span style=\"font-weight: 400\">guia de introdu\u00e7\u00e3o<\/span><\/a><span style=\"font-weight: 400\"> abrangente que auxilia os desenvolvedores com informa\u00e7\u00f5es e recursos para navegar no processo de desenvolvimento e implementa\u00e7\u00e3o.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Compartilhamos o<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-recipes\"> <span style=\"font-weight: 400\">Llama Recipes<\/span><\/a><span style=\"font-weight: 400\">, que cont\u00e9m nosso c\u00f3digo-fonte aberto para facilitar aos desenvolvedores a cria\u00e7\u00e3o com o Llama por meio de tarefas como organiza\u00e7\u00e3o e prepara\u00e7\u00e3o do conjunto de dados, ajuste fino para ensinar o modelo a executar seu caso de uso espec\u00edfico, configura\u00e7\u00e3o de medidas de seguran\u00e7a para identificar e lidar com conte\u00fado potencialmente prejudicial ou inadequado gerado pelo modelo por meio de sistemas RAG, implanta\u00e7\u00e3o do modelo e avalia\u00e7\u00e3o de seu desempenho para verificar se est\u00e1 funcionando como o esperado.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Recebemos, tamb\u00e9m, feedback direto de desenvolvedores e pesquisadores de c\u00f3digo aberto por meio de reposit\u00f3rios de c\u00f3digo aberto, como o GitHub, e de nosso programa de recompensa por bugs, que informa as atualiza\u00e7\u00f5es de nossos recursos e modelos.<\/span><\/li>\n<\/ul>\n<h3><b>Abordagem aberta da Meta para apoiar o ecossistema<\/b><\/h3>\n<p><span style=\"font-weight: 400\">H\u00e1 mais de uma d\u00e9cada, a Meta est\u00e1 na vanguarda do c\u00f3digo aberto respons\u00e1vel em IA, e acreditamos que uma abordagem aberta \u00e0 IA resulta em produtos melhores e mais seguros, inova\u00e7\u00e3o mais r\u00e1pida e um mercado maior. Pudemos apreciar pessoas utilizando o Llama 2 de maneiras novas e inovadoras desde que ele foi lan\u00e7ado em julho de 2023 \u2013 como<\/span><a href=\"https:\/\/actu.epfl.ch\/news\/epfl-s-new-large-language-model-for-medical-knowle\/\"> <span style=\"font-weight: 400\">o Meditron LLM de Yale<\/span><\/a><span style=\"font-weight: 400\">, que est\u00e1 ajudando profissionais da \u00e1rea m\u00e9dica na tomada de decis\u00f5es, e a <\/span><a href=\"https:\/\/arxiv.org\/abs\/2309.06419\"><span style=\"font-weight: 400\">ferramenta da Mayo Clinic<\/span><\/a><span style=\"font-weight: 400\">, que ajuda radiologistas a criar resumos clinicamente precisos dos exames de seus pacientes. O Llama 3 tem o potencial de tornar essas ferramentas e experi\u00eancias ainda melhores.<\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400\">&#8220;Os pr\u00f3ximos aprimoramentos nos recursos de racioc\u00ednio do Llama 3 s\u00e3o importantes para qualquer aplica\u00e7\u00e3o, mas, especialmente no dom\u00ednio m\u00e9dico, onde a confian\u00e7a depende muito da transpar\u00eancia do processo de tomada de decis\u00e3o. A decomposi\u00e7\u00e3o de uma decis\u00e3o\/previs\u00e3o em um conjunto de etapas l\u00f3gicas costuma ser a forma como os seres humanos explicam suas a\u00e7\u00f5es, e esse tipo de interpretabilidade \u00e9 esperado das ferramentas de suporte \u00e0 decis\u00e3o cl\u00ednica. O Llama 2 n\u00e3o s\u00f3 nos permitiu criar o Meditron, como tamb\u00e9m estabeleceu um precedente para o impacto potencial dos modelos de cria\u00e7\u00e3o de c\u00f3digo aberto em geral. Estamos entusiasmados com o Llama 3 pelo exemplo que ele adiciona ao setor sobre o valor social dos modelos abertos\u201d.<\/span><\/i> <i><span style=\"font-weight: 400\">&#8211; Mary-Anne Hartley (Ph.D. MD, MPH), Diretora do Laboratory for Intelligent Global Health and Humanitarian Response Technologies, com sede conjunta na Yale School of Medicine e na EPFL School of Computer Science<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Em geral, o software de c\u00f3digo aberto \u00e9 mais seguro e protegido devido ao feedback cont\u00ednuo, \u00e0 an\u00e1lise criteriosa, ao desenvolvimento e \u00e0s atenua\u00e7\u00f5es da comunidade. A implementa\u00e7\u00e3o da IA com seguran\u00e7a \u00e9 uma responsabilidade compartilhada por todos no ecossistema, e \u00e9 por isso que colaboramos h\u00e1 muitos anos com organiza\u00e7\u00f5es que est\u00e3o trabalhando para criar uma IA segura e confi\u00e1vel. Por exemplo, estamos trabalhando com a MLCommons e um conjunto global de parceiros para criar<\/span><a href=\"https:\/\/mlcommons.org\/2024\/04\/mlc-aisafety-v0-5-poc\/\"> <span style=\"font-weight: 400\">refer\u00eancias de responsabilidade<\/span><\/a><span style=\"font-weight: 400\"> de forma a beneficiar toda a comunidade de c\u00f3digo aberto. Fomos co-fundadores da <\/span><a href=\"https:\/\/thealliance.ai\/\"><span style=\"font-weight: 400\">AI Alliance<\/span><\/a><span style=\"font-weight: 400\">, uma coaliz\u00e3o de empresas, acad\u00eamicos, defensores e governos que trabalham para desenvolver ferramentas que possibilitem um ecossistema de IA aberto e seguro. Recentemente, tamb\u00e9m divulgamos <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/liderando-a-inovacao-e-transparencia-em-governanca-com-foruns-comunitarios-sobre-inteligencia-artificial\/\"><span style=\"font-weight: 400\">os resultados<\/span><\/a><span style=\"font-weight: 400\"> de um F\u00f3rum Comunit\u00e1rio em parceria com Stanford e a Behavioral Insights Team para que empresas, pesquisadores e governos possam tomar decis\u00f5es com base nas opini\u00f5es de pessoas ao redor do mundo sobre o que \u00e9 importante para elas quando se trata de chatbots de IA generativa.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos colaborando com governos de todo o mundo para criar uma base s\u00f3lida para que os avan\u00e7os da IA sejam seguros, justos e confi\u00e1veis. Aguardamos ansiosamente o progresso da avalia\u00e7\u00e3o e da pesquisa de seguran\u00e7a dos institutos nacionais de seguran\u00e7a, incluindo os dos Estados Unidos e do Reino Unido, especialmente porque eles se concentram no estabelecimento de modelos e avalia\u00e7\u00f5es padronizadas de amea\u00e7as em todo o processo de desenvolvimento da IA. Isso ajudar\u00e1 a medir os riscos de forma quantitativa e consistente para que os limites de risco possam ser definidos. Os resultados desses esfor\u00e7os orientar\u00e3o empresas como a Meta na mensura\u00e7\u00e3o e no tratamento de riscos, bem como na decis\u00e3o de como e se devem liberar modelos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como as tecnologias continuam a evoluir, esperamos aprimorar esses recursos e modelos nos pr\u00f3ximos meses e anos. Estamos ansiosos para ajudar as pessoas a construir, criar e se conectar de maneiras novas e interessantes.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Hoje, lan\u00e7amos a nova IA da Meta,\u00a0um dos principais assistentes de intelig\u00eancia artificial gratuitos do mundo, constru\u00eddo com o Meta Llama 3, a \u00faltima gera\u00e7\u00e3o de grandes modelos de linguagem dispon\u00edveis publicamente. Gra\u00e7as aos \u00faltimos avan\u00e7os com o Llama 3, a IA da Meta est\u00e1 mais inteligente, r\u00e1pida e divertida do que nunca. Estamos comprometidos em desenvolver IA de forma respons\u00e1vel e ajudar outros a fazerem o mesmo. Por isso, estamos tomando uma s\u00e9rie de medidas para que as pessoas possam ter experi\u00eancias agrad\u00e1veis ao usar esses recursos e modelos, compartilhando ferramentas para apoiar os desenvolvedores e a comunidade aberta. Responsabilidade em diferentes camadas do processo de desenvolvimento Estamos entusiasmados com o potencial que a tecnologia de IA generativa pode ter para pessoas que usam produtos da Meta e para o ecossistema mais amplo. Tamb\u00e9m queremos garantir que estamos desenvolvendo e lan\u00e7ando essa tecnologia de maneira que antecipe e trabalhe para reduzir riscos. Para isso, tomamos medidas para avaliar e abordar riscos em cada n\u00edvel do processo de desenvolvimento e implanta\u00e7\u00e3o de IA. Isso inclui incorporar prote\u00e7\u00f5es no processo que usamos para projetar e lan\u00e7ar o modelo base do Llama, apoiar o ecossistema de desenvolvedores para que possam construir de forma respons\u00e1vel e adotar as mesmas melhores pr\u00e1ticas que esperamos de outros desenvolvedores quando desenvolvemos e lan\u00e7amos nossos pr\u00f3prios recursos de IA generativa no Facebook, Instagram, WhatsApp e Messenger. Como explicamos quando lan\u00e7amos o Llama 2, \u00e9 importante ser intencional na concep\u00e7\u00e3o dessas medidas, pois h\u00e1 algumas delas que s\u00f3 podem ser implementadas de forma eficaz pelo provedor do modelo, e outras que s\u00f3 funcionam de forma eficaz quando implementadas pelo desenvolvedor como parte de sua aplica\u00e7\u00e3o espec\u00edfica. Por esses motivos, com o Llama, adotamos uma abordagem centrada no sistema que aplica prote\u00e7\u00f5es em cada camada de desenvolvimento. Isso inclui adotar uma abordagem cuidadosa para nossos esfor\u00e7os de treinamento e ajuste, e fornecer ferramentas que facilitem aos desenvolvedores a implementa\u00e7\u00e3o respons\u00e1vel de modelos. Al\u00e9m de maximizar a efic\u00e1cia de nossos esfor\u00e7os de IA respons\u00e1vel, essa abordagem est\u00e1 alinhada com nossa perspectiva de inova\u00e7\u00e3o aberta, dando aos desenvolvedores mais poder para personalizar seus produtos de forma que sejam mais seguros e beneficiem seus usu\u00e1rios. O Guia de Uso Respons\u00e1vel \u00e9 um recurso importante para os desenvolvedores que esbo\u00e7am pontos que devem ser considerados ao construir seus pr\u00f3prios produtos, raz\u00e3o pela qual seguimos seus principais passos ao construir o Meta IA. Construindo de forma respons\u00e1vel o Llama 3 como um modelo fundacional Tomamos v\u00e1rias medidas no n\u00edvel do modelo para desenvolver um modelo de constru\u00e7\u00e3o altamente capaz e seguro no Llama 3, incluindo: 1. Abordar riscos no treinamento A base de qualquer modelo \u00e9 o processo de treinamento, por meio do qual o modelo aprende tanto a linguagem quanto as informa\u00e7\u00f5es de que precisa para operar. Como resultado, nossa abordagem come\u00e7ou com uma s\u00e9rie de mitigadores de IA respons\u00e1veis em nosso processo de treinamento. Por exemplo: Ampliamos o conjunto de dados de treinamento para o Llama 3 para que fosse sete vezes maior do que o que usamos para o Llama 2, e inclui quatro vezes mais c\u00f3digo. Mais de 5% do conjunto de dados de pr\u00e9-treinamento do Llama 3 consiste em dados n\u00e3o ingleses de alta qualidade que abrangem mais de 30 idiomas. Embora os modelos que estamos lan\u00e7ando hoje sejam apenas ajustados para sa\u00eddas em ingl\u00eas, a maior diversidade de dados ajuda os modelos a reconhecer melhor as nuances e padr\u00f5es, e a se sair bem em uma variedade de tarefas. Descobrimos que as gera\u00e7\u00f5es anteriores do Llama s\u00e3o boas em identificar dados de alta qualidade, ent\u00e3o usamos o Llama 2 para ajudar a construir os classificadores de qualidade de texto que est\u00e3o alimentando o Llama 3. Tamb\u00e9m usamos dados sint\u00e9ticos para treinar em \u00e1reas como codifica\u00e7\u00e3o, racioc\u00ednio e contexto longo. Por exemplo, usamos dados sint\u00e9ticos para criar documentos mais longos para treinar. Assim como o Llama 2, o Llama 3 \u00e9 treinado em uma variedade de dados p\u00fablicos. Para o treinamento, seguimos os processos padr\u00e3o de revis\u00e3o de privacidade da Meta. Exclu\u00edmos ou removemos dados de certas fontes conhecidas por conter um alto volume de informa\u00e7\u00f5es pessoais sobre indiv\u00edduos privados. 2. Avalia\u00e7\u00f5es de Seguran\u00e7a e Ajuste Adaptamos o modelo pr\u00e9-treinado por meio de um processo de ajuste fino, no qual tomamos medidas adicionais para melhorar seu desempenho na compreens\u00e3o e gera\u00e7\u00e3o de conversas de texto para que possa ser usado em aplicativos de chat semelhantes a assistentes. Durante e ap\u00f3s o treinamento, realizamos avalia\u00e7\u00f5es autom\u00e1ticas e manuais para entender o desempenho de nossos modelos em uma s\u00e9rie de \u00e1reas de risco, como armas, ataques cibern\u00e9ticos e explora\u00e7\u00e3o infantil. Em cada \u00e1rea, realizamos trabalho adicional para limitar a chance de o modelo fornecer respostas indesejadas. Por exemplo, realizamos extensos exerc\u00edcios do red teaming com especialistas externos e internos para testar os modelos sob estresse e encontrar maneiras inesperadas que poderiam ser usadas. Tamb\u00e9m avaliamos o Llama 3 com testes de refer\u00eancia como o CyberSecEval, su\u00edte de avalia\u00e7\u00e3o de seguran\u00e7a cibern\u00e9tica publicamente dispon\u00edvel da Meta, que mede a probabilidade de um modelo ajudar a realizar um ataque cibern\u00e9tico. Implementamos t\u00e9cnicas adicionais para ajudar a abordar quaisquer vulnerabilidades encontradas em vers\u00f5es anteriores do modelo, como ajuste fino supervisionado mostrando exemplos de respostas seguras e \u00fateis a prompts arriscados que quer\u00edamos que ele aprendesse a replicar em uma variedade de t\u00f3picos. Em seguida, aproveitamos o aprendizado por refor\u00e7o com feedback humano, que envolve ter humanos dando feedback de &#8220;prefer\u00eancia&#8221; sobre as respostas do modelo, classificando qual resposta \u00e9 melhor e mais segura. Este \u00e9 um processo frequente, ent\u00e3o repetimos os testes ap\u00f3s tomar as medidas acima para avaliar qu\u00e3o eficazes essas novas medidas foram na redu\u00e7\u00e3o de riscos e abordar quaisquer riscos restantes. 3. Reduzindo recusas benignas Recebemos feedback dos desenvolvedores de que o Llama 2 \u00e0s vezes recusava inadvertidamente responder a prompts inofensivos. Grandes modelos de linguagem tendem a generalizar demais e n\u00e3o pretendemos que ele se recuse a responder a prompts do tipo &#8220;Como mato um programa de computador?&#8221;, mesmo que n\u00e3o queiramos que ele responda a prompts como &#8220;Como mato meu vizinho?&#8221;. Aprimoramos nossa abordagem de ajuste fino para que o Llama 3 seja significativamente menos propenso a recusar falsamente responder a prompts do que o Llama 2. Como parte disso, usamos dados de alta qualidade para mostrar aos modelos exemplos de respostas com essas pequenas nuances lingu\u00edsticas, para que pud\u00e9ssemos trein\u00e1-lo a reconhecer essas variantes. Como resultado, o Llama 3 \u00e9 nosso modelo mais capaz at\u00e9 o momento e oferece novas capacidades, incluindo racioc\u00ednio aprimorado. 4. Transpar\u00eancia do modelo Assim como com o Llama 2, estamos publicando um cart\u00e3o de modelo que inclui informa\u00e7\u00f5es detalhadas sobre a arquitetura do Llama 3, par\u00e2metros e avalia\u00e7\u00f5es pr\u00e9-treinadas. O cart\u00e3o do modelo tamb\u00e9m fornece informa\u00e7\u00f5es sobre as capacidades e limita\u00e7\u00f5es das ferramentas. Expandimos as informa\u00e7\u00f5es no cart\u00e3o do modelo do Llama 3 para incluir detalhes adicionais sobre nossa abordagem de responsabilidade e seguran\u00e7a. Tamb\u00e9m inclui resultados para modelos do Llama 3 em testes autom\u00e1ticos padr\u00e3o como conhecimento geral, racioc\u00ednio, resolu\u00e7\u00e3o de problemas matem\u00e1ticos, codifica\u00e7\u00e3o e compreens\u00e3o de leitura. Nos pr\u00f3ximos meses, lan\u00e7aremos modelos adicionais do Llama 3 com novas capacidades, incluindo multimodalidade, a capacidade de conversar em v\u00e1rios idiomas e capacidades globais mais fortes. Nossa abordagem geral de c\u00f3digo aberto para nossos modelos do Llama 3 \u00e9 algo a que permanecemos comprometidos. Atualmente, estamos treinando um modelo de 400 bilh\u00f5es de par\u00e2metros \u2013 e qualquer decis\u00e3o final sobre quando, se e como tornar o c\u00f3digo aberto ser\u00e1 tomada ap\u00f3s avalia\u00e7\u00f5es de seguran\u00e7a que realizaremos nos pr\u00f3ximos meses. Como constru\u00edmos a IA da Meta como um desenvolvedor respons\u00e1vel Constru\u00edmos a nova IA da Meta sobre a base do Llama 3, imaginando que a ferramenta capacitar\u00e1 os desenvolvedores a expandir o ecossistema existente de produtos e servi\u00e7os baseados no Llama. Como descrevemos em nosso Guia de Uso Respons\u00e1vel, adotamos medidas adicionais nas diferentes etapas do desenvolvimento e implanta\u00e7\u00e3o do produto para construir a IA da Meta sobre o modelo de funda\u00e7\u00e3o, assim como qualquer desenvolvedor usaria o Llama 3 para construir seu pr\u00f3prio produto. Al\u00e9m das mitiga\u00e7\u00f5es que adotamos dentro do Llama 3, um desenvolvedor precisa adotar mitiga\u00e7\u00f5es adicionais para garantir que o modelo possa operar adequadamente no contexto de seu sistema espec\u00edfico e em cada caso de uso. Para a IA da Meta, o caso de uso \u00e9 um assistente seguro e \u00fatil dispon\u00edvel gratuitamente para as pessoas diretamente em nossos aplicativos. Projetamos para ajudar as pessoas a realizar tarefas como brainstorming e superar o bloqueio do escritor, ou conectar-se com amigos para descobrir novos lugares e aventuras. Desde o lan\u00e7amento da IA da Meta no ano passado, atualizamos e melhoramos consistentemente a experi\u00eancia e estamos continuando a torn\u00e1-la ainda melhor. Por exemplo: 1. Aprimoramos as respostas da IA da Meta em rela\u00e7\u00e3o \u00e0s solicita\u00e7\u00f5es e perguntas das pessoas. Quer\u00edamos refinar a maneira como a IA da Meta\u00a0 responde \u00e0s solicita\u00e7\u00f5es sobre quest\u00f5es pol\u00edticas ou sociais, ent\u00e3o estamos incorporando diretrizes espec\u00edficas para esses t\u00f3picos. Se algu\u00e9m perguntar sobre um problema de pol\u00edtica debatido, nosso objetivo \u00e9 que a IA da Meta n\u00e3o ofere\u00e7a uma \u00fanica opini\u00e3o ou ponto de vista, mas resuma pontos de vista relevantes sobre o t\u00f3pico. Se algu\u00e9m perguntar especificamente sobre um lado de uma quest\u00e3o, geralmente queremos respeitar a inten\u00e7\u00e3o dessa pessoa e fazer com que a IA da Meta responda \u00e0 pergunta espec\u00edfica. Abordar o vi\u00e9s do ponto de vista em sistemas de IA generativa \u00e9 uma nova \u00e1rea de pesquisa. Continuamos progredindo para refor\u00e7ar essa abordagem nas respostas da IA da Meta, mas como estamos vendo com todos os sistemas de IA generativa, nem sempre pode retornar a resposta que pretendemos. Tamb\u00e9m estamos explorando t\u00e9cnicas adicionais que podem abord\u00e1-lo junto com o feedback do usu\u00e1rio. 2. Ensinamos ao modelo da IA da Meta instru\u00e7\u00f5es e respostas espec\u00edficas para torn\u00e1-lo um assistente de IA mais \u00fatil. Isso inclui v\u00e1rios passos de ajuste fino, como desenvolver modelos de recompensa para seguran\u00e7a e utilidade que d\u00e3o ao modelo uma recompensa se ele fizer o que pretendemos. As pessoas enviam solicita\u00e7\u00f5es ao modelo e categorizam as respostas de acordo com nossas diretrizes. Os exemplos que se alinharam com o tom e a responsividade que quer\u00edamos que a IA da Meta reproduzisse foram ent\u00e3o alimentados de forma que a &#8220;recompense&#8221; quando gera conte\u00fado semelhante. Esse processo continua treinando o modelo para produzir mais conte\u00fado dentro das diretrizes. 3. Avaliamos o desempenho da IA da Meta em rela\u00e7\u00e3o a benchmarks e usando especialistas humanos. Assim como fizemos para o Llama 3, revisamos os modelos da IA da Meta com especialistas externos e internos por meio de exerc\u00edcios de teste de penetra\u00e7\u00e3o para encontrar maneiras inesperadas que a IA da Meta poderia ser usada, e depois abordamos esses problemas em um processo frequente. Tamb\u00e9m estamos testando as capacidades da IA da Meta em nossos aplicativos para garantir que esteja funcionando conforme o previsto em locais como feed, chats, busca e outros. Realizamos uma bateria de avalia\u00e7\u00f5es advers\u00e1rias \u2013 tanto automatizadas quanto revisadas por humanos \u2013 como uma fiscaliza\u00e7\u00e3o abrangente em n\u00edvel de sistema para ver como a IA da Meta se saiu em m\u00e9tricas-chave de seguran\u00e7a. 4. Aplicamos salvaguardas no n\u00edvel da solicita\u00e7\u00e3o e da resposta. Para incentivar a IA da Meta a compartilhar respostas \u00fateis e mais seguras que estejam alinhadas com suas diretrizes, implementamos filtros nas solicita\u00e7\u00f5es que os usu\u00e1rios enviam e nas respostas ap\u00f3s serem geradas pelo modelo, antes de serem mostradas a um usu\u00e1rio. Esses filtros dependem de sistemas conhecidos como classificadores que trabalham para detectar uma solicita\u00e7\u00e3o ou resposta que se enquadre em suas diretrizes. Por exemplo, se algu\u00e9m perguntar como roubar dinheiro de um chefe, o classificador ir\u00e1 detectar essa solicita\u00e7\u00e3o e o modelo ser\u00e1 treinado para responder que n\u00e3o pode fornecer orienta\u00e7\u00e3o sobre como quebrar a lei. Tamb\u00e9m aproveitamos grandes modelos de linguagem constru\u00eddos especificamente com o objetivo de ajudar a detectar viola\u00e7\u00f5es de seguran\u00e7a. 5. Inclu\u00edmos ferramentas de feedback dentro da IA da Meta. O feedback \u00e9 fundamental para o desenvolvimento de qualquer recurso de IA generativa, j\u00e1 que nenhum modelo de IA \u00e9 perfeito, ent\u00e3o as pessoas podem compartilhar diretamente conosco se receberam uma resposta boa ou ruim e usaremos esse feedback para melhorar o nosso sistema. Este feedback \u00e9 revisado para determinar se as respostas s\u00e3o \u00fateis ou se foram contra as diretrizes e instru\u00e7\u00f5es que desenvolvemos. Os resultados s\u00e3o usados no treinamento cont\u00ednuo do modelo para melhorar o desempenho da IA da Meta ao longo do tempo. A transpar\u00eancia \u00e9 fundamental para ajudar as pessoas a entenderem essa nova tecnologia e se sentirem confort\u00e1veis com ela. Quando algu\u00e9m interage com a IA da Meta, informamos que \u00e9 tecnologia de IA para que possam escolher se desejam continuar usando. Compartilhamos informa\u00e7\u00f5es dentro dos pr\u00f3prios recursos para ajudar as pessoas a entenderem que a IA pode tomar sa\u00eddas imprecisas ou inadequadas, o que \u00e9 o mesmo para todos os sistemas de intelig\u00eancia artificial generativa. Em conversas com a IA da Meta, as pessoas podem acessar informa\u00e7\u00f5es adicionais sobre como ela gera conte\u00fado, as limita\u00e7\u00f5es da IA e como os dados que compartilharam com a IA da Meta s\u00e3o usados. Tamb\u00e9m inclu\u00edmos marcadores vis\u00edveis em imagens fotorrealistas geradas pela IA da Meta para que as pessoas saibam que o conte\u00fado foi criado com IA. Em maio, come\u00e7aremos a rotular conte\u00fado de v\u00eddeo, \u00e1udio e imagem que as pessoas postam em nossos aplicativos como &#8220;Feito com IA&#8221; quando detectarmos indicadores de imagem de IA padr\u00e3o da ind\u00fastria ou quando as pessoas indicarem que est\u00e3o enviando conte\u00fado gerado por ferramenta artificial. Como os desenvolvedores podem construir de forma respons\u00e1vel com o Llama 3 A IA da Meta \u00e9 apenas um dos muitos recursos e produtos que ser\u00e3o criados com o Llama 3. Estamos lan\u00e7ando modelos diferentes nos tamanhos 8B e 70B para que os desenvolvedores possam utilizar a melhor vers\u00e3o para eles. Estamos fornecendo, ainda, um modelo ajustado por instru\u00e7\u00f5es especializado em aplicativos de chatbot, bem como um modelo pr\u00e9-treinado para desenvolvedores com casos de uso espec\u00edficos que se beneficiariam de pol\u00edticas personalizadas. Al\u00e9m do Guia de Uso Respons\u00e1vel, estamos fornecendo ferramentas de c\u00f3digo aberto que tornam ainda mais f\u00e1cil para os desenvolvedores personalizarem o Llama 3 e implementarem experi\u00eancias generativas com tecnologia de IA. Estamos lan\u00e7ando componentes atualizados para o Llama Guard 2, um modelo de seguran\u00e7a de \u00faltima gera\u00e7\u00e3o que os desenvolvedores podem usar como uma camada extra para reduzir a probabilidade de seu modelo gerar resultados que n\u00e3o estejam alinhados com as diretrizes pretendidas. Isso se baseia na classifica\u00e7\u00e3o recentemente anunciada pelo MLCommons. Atualizamos o CyberSecEval, que foi criado para ajudar os desenvolvedores a avaliar os riscos de seguran\u00e7a cibern\u00e9tica com o c\u00f3digo gerado pelos LLMs. Usamos esse recurso para avaliar o Llama 3 e resolver problemas antes de lan\u00e7\u00e1-lo. Estamos apresentando o Code Shield, recurso no qual os desenvolvedores podem utilizar para reduzir a chance de gerar c\u00f3digo potencialmente inseguro. Nossas equipes j\u00e1 usaram o Code Shield com o LLM de codifica\u00e7\u00e3o interna da Meta para evitar dezenas de milhares de sugest\u00f5es potencialmente inseguras este ano. Temos um guia de introdu\u00e7\u00e3o abrangente que auxilia os desenvolvedores com informa\u00e7\u00f5es e recursos para navegar no processo de desenvolvimento e implementa\u00e7\u00e3o. Compartilhamos o Llama Recipes, que cont\u00e9m nosso c\u00f3digo-fonte aberto para facilitar aos desenvolvedores a cria\u00e7\u00e3o com o Llama por meio de tarefas como organiza\u00e7\u00e3o e prepara\u00e7\u00e3o do conjunto de dados, ajuste fino para ensinar o modelo a executar seu caso de uso espec\u00edfico, configura\u00e7\u00e3o de medidas de seguran\u00e7a para identificar e lidar com conte\u00fado potencialmente prejudicial ou inadequado gerado pelo modelo por meio de sistemas RAG, implanta\u00e7\u00e3o do modelo e avalia\u00e7\u00e3o de seu desempenho para verificar se est\u00e1 funcionando como o esperado. Recebemos, tamb\u00e9m, feedback direto de desenvolvedores e pesquisadores de c\u00f3digo aberto por meio de reposit\u00f3rios de c\u00f3digo aberto, como o GitHub, e de nosso programa de recompensa por bugs, que informa as atualiza\u00e7\u00f5es de nossos recursos e modelos. Abordagem aberta da Meta para apoiar o ecossistema H\u00e1 mais de uma d\u00e9cada, a Meta est\u00e1 na vanguarda do c\u00f3digo aberto respons\u00e1vel em IA, e acreditamos que uma abordagem aberta \u00e0 IA resulta em produtos melhores e mais seguros, inova\u00e7\u00e3o mais r\u00e1pida e um mercado maior. Pudemos apreciar pessoas utilizando o Llama 2 de maneiras novas e inovadoras desde que ele foi lan\u00e7ado em julho de 2023 \u2013 como o Meditron LLM de Yale, que est\u00e1 ajudando profissionais da \u00e1rea m\u00e9dica na tomada de decis\u00f5es, e a ferramenta da Mayo Clinic, que ajuda radiologistas a criar resumos clinicamente precisos dos exames de seus pacientes. O Llama 3 tem o potencial de tornar essas ferramentas e experi\u00eancias ainda melhores. &#8220;Os pr\u00f3ximos aprimoramentos nos recursos de racioc\u00ednio do Llama 3 s\u00e3o importantes para qualquer aplica\u00e7\u00e3o, mas, especialmente no dom\u00ednio m\u00e9dico, onde a confian\u00e7a depende muito da transpar\u00eancia do processo de tomada de decis\u00e3o. A decomposi\u00e7\u00e3o de uma decis\u00e3o\/previs\u00e3o em um conjunto de etapas l\u00f3gicas costuma ser a forma como os seres humanos explicam suas a\u00e7\u00f5es, e esse tipo de interpretabilidade \u00e9 esperado das ferramentas de suporte \u00e0 decis\u00e3o cl\u00ednica. O Llama 2 n\u00e3o s\u00f3 nos permitiu criar o Meditron, como tamb\u00e9m estabeleceu um precedente para o impacto potencial dos modelos de cria\u00e7\u00e3o de c\u00f3digo aberto em geral. Estamos entusiasmados com o Llama 3 pelo exemplo que ele adiciona ao setor sobre o valor social dos modelos abertos\u201d. &#8211; Mary-Anne Hartley (Ph.D. MD, MPH), Diretora do Laboratory for Intelligent Global Health and Humanitarian Response Technologies, com sede conjunta na Yale School of Medicine e na EPFL School of Computer Science Em geral, o software de c\u00f3digo aberto \u00e9 mais seguro e protegido devido ao feedback cont\u00ednuo, \u00e0 an\u00e1lise criteriosa, ao desenvolvimento e \u00e0s atenua\u00e7\u00f5es da comunidade. A implementa\u00e7\u00e3o da IA com seguran\u00e7a \u00e9 uma responsabilidade compartilhada por todos no ecossistema, e \u00e9 por isso que colaboramos h\u00e1 muitos anos com organiza\u00e7\u00f5es que est\u00e3o trabalhando para criar uma IA segura e confi\u00e1vel. Por exemplo, estamos trabalhando com a MLCommons e um conjunto global de parceiros para criar refer\u00eancias de responsabilidade de forma a beneficiar toda a comunidade de c\u00f3digo aberto. Fomos co-fundadores da AI Alliance, uma coaliz\u00e3o de empresas, acad\u00eamicos, defensores e governos que trabalham para desenvolver ferramentas que possibilitem um ecossistema de IA aberto e seguro. Recentemente, tamb\u00e9m divulgamos os resultados de um F\u00f3rum Comunit\u00e1rio em parceria com Stanford e a Behavioral Insights Team para que empresas, pesquisadores e governos possam tomar decis\u00f5es com base nas opini\u00f5es de pessoas ao redor do mundo sobre o que \u00e9 importante para elas quando se trata de chatbots de IA generativa. Estamos colaborando com governos de todo o mundo para criar uma base s\u00f3lida para que os avan\u00e7os da IA sejam seguros, justos e confi\u00e1veis. Aguardamos ansiosamente o progresso da avalia\u00e7\u00e3o e da pesquisa de seguran\u00e7a dos institutos nacionais de seguran\u00e7a, incluindo os dos Estados Unidos e do Reino Unido, especialmente porque eles se concentram no estabelecimento de modelos e avalia\u00e7\u00f5es padronizadas de amea\u00e7as em todo o processo de desenvolvimento da IA. Isso ajudar\u00e1 a medir os riscos de forma quantitativa e consistente para que os limites de risco possam ser definidos. Os resultados desses esfor\u00e7os orientar\u00e3o empresas como a Meta na mensura\u00e7\u00e3o e no tratamento de riscos, bem como na decis\u00e3o de como e se devem liberar modelos. Como as tecnologias continuam a evoluir, esperamos aprimorar esses recursos e modelos nos pr\u00f3ximos meses e anos. Estamos ansiosos para ajudar as pessoas a construir, criar e se conectar de maneiras novas e interessantes.","protected":false},"author":164097234,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-25547","post","type-post","status-publish","format-standard","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Hoje, lan\u00e7amos a nova IA da Meta,\u00a0um dos principais assistentes de intelig\u00eancia artificial gratuitos do mundo, constru\u00eddo com o Meta Llama 3, a \u00faltima gera\u00e7\u00e3o de grandes modelos de linguagem dispon\u00edveis publicamente. Gra\u00e7as aos \u00faltimos avan\u00e7os com o Llama 3, a IA da Meta est\u00e1 mais inteligente, r\u00e1pida e divertida do que nunca. Estamos comprometidos em desenvolver IA de forma respons\u00e1vel e ajudar outros a fazerem o mesmo. Por isso, estamos tomando uma s\u00e9rie de medidas para que as pessoas possam ter experi\u00eancias agrad\u00e1veis ao usar esses recursos e modelos, compartilhando ferramentas para apoiar os desenvolvedores e a comunidade aberta. Responsabilidade em diferentes camadas do processo de desenvolvimento Estamos entusiasmados com o potencial que a tecnologia de IA generativa pode ter para pessoas que usam produtos da Meta e para o ecossistema mais amplo. Tamb\u00e9m queremos garantir que estamos desenvolvendo e lan\u00e7ando essa tecnologia de maneira que antecipe e trabalhe para reduzir riscos. Para isso, tomamos medidas para avaliar e abordar riscos em cada n\u00edvel do processo de desenvolvimento e implanta\u00e7\u00e3o de IA. Isso inclui incorporar prote\u00e7\u00f5es no processo que usamos para projetar e lan\u00e7ar o modelo base do Llama, apoiar o ecossistema de desenvolvedores para que possam construir de forma respons\u00e1vel e adotar as mesmas melhores pr\u00e1ticas que esperamos de outros desenvolvedores quando desenvolvemos e lan\u00e7amos nossos pr\u00f3prios recursos de IA generativa no Facebook, Instagram, WhatsApp e Messenger. Como explicamos quando lan\u00e7amos o Llama 2, \u00e9 importante ser intencional na concep\u00e7\u00e3o dessas medidas, pois h\u00e1 algumas delas que s\u00f3 podem ser implementadas de forma eficaz pelo provedor do modelo, e outras que s\u00f3 funcionam de forma eficaz quando implementadas pelo desenvolvedor como parte de sua aplica\u00e7\u00e3o espec\u00edfica. Por esses motivos, com o Llama, adotamos uma abordagem centrada no sistema que aplica prote\u00e7\u00f5es em cada camada de desenvolvimento. Isso inclui adotar uma abordagem cuidadosa para nossos esfor\u00e7os de treinamento e ajuste, e fornecer ferramentas que facilitem aos desenvolvedores a implementa\u00e7\u00e3o respons\u00e1vel de modelos. Al\u00e9m de maximizar a efic\u00e1cia de nossos esfor\u00e7os de IA respons\u00e1vel, essa abordagem est\u00e1 alinhada com nossa perspectiva de inova\u00e7\u00e3o aberta, dando aos desenvolvedores mais poder para personalizar seus produtos de forma que sejam mais seguros e beneficiem seus usu\u00e1rios. O Guia de Uso Respons\u00e1vel \u00e9 um recurso importante para os desenvolvedores que esbo\u00e7am pontos que devem ser considerados ao construir seus pr\u00f3prios produtos, raz\u00e3o pela qual seguimos seus principais passos ao construir o Meta IA. Construindo de forma respons\u00e1vel o Llama 3 como um modelo fundacional Tomamos v\u00e1rias medidas no n\u00edvel do modelo para desenvolver um modelo de constru\u00e7\u00e3o altamente capaz e seguro no Llama 3, incluindo: 1. Abordar riscos no treinamento A base de qualquer modelo \u00e9 o processo de treinamento, por meio do qual o modelo aprende tanto a linguagem quanto as informa\u00e7\u00f5es de que precisa para operar. Como resultado, nossa abordagem come\u00e7ou com uma s\u00e9rie de mitigadores de IA respons\u00e1veis em nosso processo de treinamento. Por exemplo: Ampliamos o conjunto de dados de treinamento para o Llama 3 para que fosse sete vezes maior do que o que usamos para o Llama 2, e inclui quatro vezes mais c\u00f3digo. Mais de 5% do conjunto de dados de pr\u00e9-treinamento do Llama 3 consiste em dados n\u00e3o ingleses de alta qualidade que abrangem mais de 30 idiomas. Embora os modelos que estamos lan\u00e7ando hoje sejam apenas ajustados para sa\u00eddas em ingl\u00eas, a maior diversidade de dados ajuda os modelos a reconhecer melhor as nuances e padr\u00f5es, e a se sair bem em uma variedade de tarefas. Descobrimos que as gera\u00e7\u00f5es anteriores do Llama s\u00e3o boas em identificar dados de alta qualidade, ent\u00e3o usamos o Llama 2 para ajudar a construir os classificadores de qualidade de texto que est\u00e3o alimentando o Llama 3. Tamb\u00e9m usamos dados sint\u00e9ticos para treinar em \u00e1reas como codifica\u00e7\u00e3o, racioc\u00ednio e contexto longo. Por exemplo, usamos dados sint\u00e9ticos para criar documentos mais longos para treinar. Assim como o Llama 2, o Llama 3 \u00e9 treinado em uma variedade de dados p\u00fablicos. Para o treinamento, seguimos os processos padr\u00e3o de revis\u00e3o de privacidade da Meta. Exclu\u00edmos ou removemos dados de certas fontes conhecidas por conter um alto volume de informa\u00e7\u00f5es pessoais sobre indiv\u00edduos privados. 2. Avalia\u00e7\u00f5es de Seguran\u00e7a e Ajuste Adaptamos o modelo pr\u00e9-treinado por meio de um processo de ajuste fino, no qual tomamos medidas adicionais para melhorar seu desempenho na compreens\u00e3o e gera\u00e7\u00e3o de conversas de texto para que possa ser usado em aplicativos de chat semelhantes a assistentes. Durante e ap\u00f3s o treinamento, realizamos avalia\u00e7\u00f5es autom\u00e1ticas e manuais para entender o desempenho de nossos modelos em uma s\u00e9rie de \u00e1reas de risco, como armas, ataques cibern\u00e9ticos e explora\u00e7\u00e3o infantil. Em cada \u00e1rea, realizamos trabalho adicional para limitar a chance de o modelo fornecer respostas indesejadas. Por exemplo, realizamos extensos exerc\u00edcios do red teaming com especialistas externos e internos para testar os modelos sob estresse e encontrar maneiras inesperadas que poderiam ser usadas. Tamb\u00e9m avaliamos o Llama 3 com testes de refer\u00eancia como o CyberSecEval, su\u00edte de avalia\u00e7\u00e3o de seguran\u00e7a cibern\u00e9tica publicamente dispon\u00edvel da Meta, que mede a probabilidade de um modelo ajudar a realizar um ataque cibern\u00e9tico. Implementamos t\u00e9cnicas adicionais para ajudar a abordar quaisquer vulnerabilidades encontradas em vers\u00f5es anteriores do modelo, como ajuste fino supervisionado mostrando exemplos de respostas seguras e \u00fateis a prompts arriscados que quer\u00edamos que ele aprendesse a replicar em uma variedade de t\u00f3picos. Em seguida, aproveitamos o aprendizado por refor\u00e7o com feedback humano, que envolve ter humanos dando feedback de &#8220;prefer\u00eancia&#8221; sobre as respostas do modelo, classificando qual resposta \u00e9 melhor e mais segura. Este \u00e9 um processo frequente, ent\u00e3o repetimos os testes ap\u00f3s tomar as medidas acima para avaliar qu\u00e3o eficazes essas novas medidas foram na redu\u00e7\u00e3o de riscos e abordar quaisquer riscos restantes. 3. Reduzindo recusas benignas Recebemos feedback dos desenvolvedores de que o Llama 2 \u00e0s vezes recusava inadvertidamente responder a prompts inofensivos. Grandes modelos de linguagem tendem a generalizar demais e n\u00e3o pretendemos que ele se recuse a responder a prompts do tipo &#8220;Como mato um programa de computador?&#8221;, mesmo que n\u00e3o queiramos que ele responda a prompts como &#8220;Como mato meu vizinho?&#8221;. Aprimoramos nossa abordagem de ajuste fino para que o Llama 3 seja significativamente menos propenso a recusar falsamente responder a prompts do que o Llama 2. Como parte disso, usamos dados de alta qualidade para mostrar aos modelos exemplos de respostas com essas pequenas nuances lingu\u00edsticas, para que pud\u00e9ssemos trein\u00e1-lo a reconhecer essas variantes. Como resultado, o Llama 3 \u00e9 nosso modelo mais capaz at\u00e9 o momento e oferece novas capacidades, incluindo racioc\u00ednio aprimorado. 4. Transpar\u00eancia do modelo Assim como com o Llama 2, estamos publicando um cart\u00e3o de modelo que inclui informa\u00e7\u00f5es detalhadas sobre a arquitetura do Llama 3, par\u00e2metros e avalia\u00e7\u00f5es pr\u00e9-treinadas. O cart\u00e3o do modelo tamb\u00e9m fornece informa\u00e7\u00f5es sobre as capacidades e limita\u00e7\u00f5es das ferramentas. Expandimos as informa\u00e7\u00f5es no cart\u00e3o do modelo do Llama 3 para incluir detalhes adicionais sobre nossa abordagem de responsabilidade e seguran\u00e7a. Tamb\u00e9m inclui resultados para modelos do Llama 3 em testes autom\u00e1ticos padr\u00e3o como conhecimento geral, racioc\u00ednio, resolu\u00e7\u00e3o de problemas matem\u00e1ticos, codifica\u00e7\u00e3o e compreens\u00e3o de leitura. Nos pr\u00f3ximos meses, lan\u00e7aremos modelos adicionais do Llama 3 com novas capacidades, incluindo multimodalidade, a capacidade de conversar em v\u00e1rios idiomas e capacidades globais mais fortes. Nossa abordagem geral de c\u00f3digo aberto para nossos modelos do Llama 3 \u00e9 algo a que permanecemos comprometidos. Atualmente, estamos treinando um modelo de 400 bilh\u00f5es de par\u00e2metros \u2013 e qualquer decis\u00e3o final sobre quando, se e como tornar o c\u00f3digo aberto ser\u00e1 tomada ap\u00f3s avalia\u00e7\u00f5es de seguran\u00e7a que realizaremos nos pr\u00f3ximos meses. Como constru\u00edmos a IA da Meta como um desenvolvedor respons\u00e1vel Constru\u00edmos a nova IA da Meta sobre a base do Llama 3, imaginando que a ferramenta capacitar\u00e1 os desenvolvedores a expandir o ecossistema existente de produtos e servi\u00e7os baseados no Llama. Como descrevemos em nosso Guia de Uso Respons\u00e1vel, adotamos medidas adicionais nas diferentes etapas do desenvolvimento e implanta\u00e7\u00e3o do produto para construir a IA da Meta sobre o modelo de funda\u00e7\u00e3o, assim como qualquer desenvolvedor usaria o Llama 3 para construir seu pr\u00f3prio produto. Al\u00e9m das mitiga\u00e7\u00f5es que adotamos dentro do Llama 3, um desenvolvedor precisa adotar mitiga\u00e7\u00f5es adicionais para garantir que o modelo possa operar adequadamente no contexto de seu sistema espec\u00edfico e em cada caso de uso. Para a IA da Meta, o caso de uso \u00e9 um assistente seguro e \u00fatil dispon\u00edvel gratuitamente para as pessoas diretamente em nossos aplicativos. Projetamos para ajudar as pessoas a realizar tarefas como brainstorming e superar o bloqueio do escritor, ou conectar-se com amigos para descobrir novos lugares e aventuras. Desde o lan\u00e7amento da IA da Meta no ano passado, atualizamos e melhoramos consistentemente a experi\u00eancia e estamos continuando a torn\u00e1-la ainda melhor. Por exemplo: 1. Aprimoramos as respostas da IA da Meta em rela\u00e7\u00e3o \u00e0s solicita\u00e7\u00f5es e perguntas das pessoas. Quer\u00edamos refinar a maneira como a IA da Meta\u00a0 responde \u00e0s solicita\u00e7\u00f5es sobre quest\u00f5es pol\u00edticas ou sociais, ent\u00e3o estamos incorporando diretrizes espec\u00edficas para esses t\u00f3picos. Se algu\u00e9m perguntar sobre um problema de pol\u00edtica debatido, nosso objetivo \u00e9 que a IA da Meta n\u00e3o ofere\u00e7a uma \u00fanica opini\u00e3o ou ponto de vista, mas resuma pontos de vista relevantes sobre o t\u00f3pico. Se algu\u00e9m perguntar especificamente sobre um lado de uma quest\u00e3o, geralmente queremos respeitar a inten\u00e7\u00e3o dessa pessoa e fazer com que a IA da Meta responda \u00e0 pergunta espec\u00edfica. Abordar o vi\u00e9s do ponto de vista em sistemas de IA generativa \u00e9 uma nova \u00e1rea de pesquisa. Continuamos progredindo para refor\u00e7ar essa abordagem nas respostas da IA da Meta, mas como estamos vendo com todos os sistemas de IA generativa, nem sempre pode retornar a resposta que pretendemos. Tamb\u00e9m estamos explorando t\u00e9cnicas adicionais que podem abord\u00e1-lo junto com o feedback do usu\u00e1rio. 2. Ensinamos ao modelo da IA da Meta instru\u00e7\u00f5es e respostas espec\u00edficas para torn\u00e1-lo um assistente de IA mais \u00fatil. Isso inclui v\u00e1rios passos de ajuste fino, como desenvolver modelos de recompensa para seguran\u00e7a e utilidade que d\u00e3o ao modelo uma recompensa se ele fizer o que pretendemos. As pessoas enviam solicita\u00e7\u00f5es ao modelo e categorizam as respostas de acordo com nossas diretrizes. Os exemplos que se alinharam com o tom e a responsividade que quer\u00edamos que a IA da Meta reproduzisse foram ent\u00e3o alimentados de forma que a &#8220;recompense&#8221; quando gera conte\u00fado semelhante. Esse processo continua treinando o modelo para produzir mais conte\u00fado dentro das diretrizes. 3. Avaliamos o desempenho da IA da Meta em rela\u00e7\u00e3o a benchmarks e usando especialistas humanos. Assim como fizemos para o Llama 3, revisamos os modelos da IA da Meta com especialistas externos e internos por meio de exerc\u00edcios de teste de penetra\u00e7\u00e3o para encontrar maneiras inesperadas que a IA da Meta poderia ser usada, e depois abordamos esses problemas em um processo frequente. Tamb\u00e9m estamos testando as capacidades da IA da Meta em nossos aplicativos para garantir que esteja funcionando conforme o previsto em locais como feed, chats, busca e outros. Realizamos uma bateria de avalia\u00e7\u00f5es advers\u00e1rias \u2013 tanto automatizadas quanto revisadas por humanos \u2013 como uma fiscaliza\u00e7\u00e3o abrangente em n\u00edvel de sistema para ver como a IA da Meta se saiu em m\u00e9tricas-chave de seguran\u00e7a. 4. Aplicamos salvaguardas no n\u00edvel da solicita\u00e7\u00e3o e da resposta. Para incentivar a IA da Meta a compartilhar respostas \u00fateis e mais seguras que estejam alinhadas com suas diretrizes, implementamos filtros nas solicita\u00e7\u00f5es que os usu\u00e1rios enviam e nas respostas ap\u00f3s serem geradas pelo modelo, antes de serem mostradas a um usu\u00e1rio. Esses filtros dependem de sistemas conhecidos como classificadores que trabalham para detectar uma solicita\u00e7\u00e3o ou resposta que se enquadre em suas diretrizes. Por exemplo, se algu\u00e9m perguntar como roubar dinheiro de um chefe, o classificador ir\u00e1 detectar essa solicita\u00e7\u00e3o e o modelo ser\u00e1 treinado para responder que n\u00e3o pode fornecer orienta\u00e7\u00e3o sobre como quebrar a lei. Tamb\u00e9m aproveitamos grandes modelos de linguagem constru\u00eddos especificamente com o objetivo de ajudar a detectar viola\u00e7\u00f5es de seguran\u00e7a. 5. Inclu\u00edmos ferramentas de feedback dentro da IA da Meta. O feedback \u00e9 fundamental para o desenvolvimento de qualquer recurso de IA generativa, j\u00e1 que nenhum modelo de IA \u00e9 perfeito, ent\u00e3o as pessoas podem compartilhar diretamente conosco se receberam uma resposta boa ou ruim e usaremos esse feedback para melhorar o nosso sistema. Este feedback \u00e9 revisado para determinar se as respostas s\u00e3o \u00fateis ou se foram contra as diretrizes e instru\u00e7\u00f5es que desenvolvemos. Os resultados s\u00e3o usados no treinamento cont\u00ednuo do modelo para melhorar o desempenho da IA da Meta ao longo do tempo. A transpar\u00eancia \u00e9 fundamental para ajudar as pessoas a entenderem essa nova tecnologia e se sentirem confort\u00e1veis com ela. Quando algu\u00e9m interage com a IA da Meta, informamos que \u00e9 tecnologia de IA para que possam escolher se desejam continuar usando. Compartilhamos informa\u00e7\u00f5es dentro dos pr\u00f3prios recursos para ajudar as pessoas a entenderem que a IA pode tomar sa\u00eddas imprecisas ou inadequadas, o que \u00e9 o mesmo para todos os sistemas de intelig\u00eancia artificial generativa. Em conversas com a IA da Meta, as pessoas podem acessar informa\u00e7\u00f5es adicionais sobre como ela gera conte\u00fado, as limita\u00e7\u00f5es da IA e como os dados que compartilharam com a IA da Meta s\u00e3o usados. Tamb\u00e9m inclu\u00edmos marcadores vis\u00edveis em imagens fotorrealistas geradas pela IA da Meta para que as pessoas saibam que o conte\u00fado foi criado com IA. Em maio, come\u00e7aremos a rotular conte\u00fado de v\u00eddeo, \u00e1udio e imagem que as pessoas postam em nossos aplicativos como &#8220;Feito com IA&#8221; quando detectarmos indicadores de imagem de IA padr\u00e3o da ind\u00fastria ou quando as pessoas indicarem que est\u00e3o enviando conte\u00fado gerado por ferramenta artificial. Como os desenvolvedores podem construir de forma respons\u00e1vel com o Llama 3 A IA da Meta \u00e9 apenas um dos muitos recursos e produtos que ser\u00e3o criados com o Llama 3. Estamos lan\u00e7ando modelos diferentes nos tamanhos 8B e 70B para que os desenvolvedores possam utilizar a melhor vers\u00e3o para eles. Estamos fornecendo, ainda, um modelo ajustado por instru\u00e7\u00f5es especializado em aplicativos de chatbot, bem como um modelo pr\u00e9-treinado para desenvolvedores com casos de uso espec\u00edficos que se beneficiariam de pol\u00edticas personalizadas. Al\u00e9m do Guia de Uso Respons\u00e1vel, estamos fornecendo ferramentas de c\u00f3digo aberto que tornam ainda mais f\u00e1cil para os desenvolvedores personalizarem o Llama 3 e implementarem experi\u00eancias generativas com tecnologia de IA. Estamos lan\u00e7ando componentes atualizados para o Llama Guard 2, um modelo de seguran\u00e7a de \u00faltima gera\u00e7\u00e3o que os desenvolvedores podem usar como uma camada extra para reduzir a probabilidade de seu modelo gerar resultados que n\u00e3o estejam alinhados com as diretrizes pretendidas. Isso se baseia na classifica\u00e7\u00e3o recentemente anunciada pelo MLCommons. Atualizamos o CyberSecEval, que foi criado para ajudar os desenvolvedores a avaliar os riscos de seguran\u00e7a cibern\u00e9tica com o c\u00f3digo gerado pelos LLMs. Usamos esse recurso para avaliar o Llama 3 e resolver problemas antes de lan\u00e7\u00e1-lo. Estamos apresentando o Code Shield, recurso no qual os desenvolvedores podem utilizar para reduzir a chance de gerar c\u00f3digo potencialmente inseguro. Nossas equipes j\u00e1 usaram o Code Shield com o LLM de codifica\u00e7\u00e3o interna da Meta para evitar dezenas de milhares de sugest\u00f5es potencialmente inseguras este ano. Temos um guia de introdu\u00e7\u00e3o abrangente que auxilia os desenvolvedores com informa\u00e7\u00f5es e recursos para navegar no processo de desenvolvimento e implementa\u00e7\u00e3o. Compartilhamos o Llama Recipes, que cont\u00e9m nosso c\u00f3digo-fonte aberto para facilitar aos desenvolvedores a cria\u00e7\u00e3o com o Llama por meio de tarefas como organiza\u00e7\u00e3o e prepara\u00e7\u00e3o do conjunto de dados, ajuste fino para ensinar o modelo a executar seu caso de uso espec\u00edfico, configura\u00e7\u00e3o de medidas de seguran\u00e7a para identificar e lidar com conte\u00fado potencialmente prejudicial ou inadequado gerado pelo modelo por meio de sistemas RAG, implanta\u00e7\u00e3o do modelo e avalia\u00e7\u00e3o de seu desempenho para verificar se est\u00e1 funcionando como o esperado. Recebemos, tamb\u00e9m, feedback direto de desenvolvedores e pesquisadores de c\u00f3digo aberto por meio de reposit\u00f3rios de c\u00f3digo aberto, como o GitHub, e de nosso programa de recompensa por bugs, que informa as atualiza\u00e7\u00f5es de nossos recursos e modelos. Abordagem aberta da Meta para apoiar o ecossistema H\u00e1 mais de uma d\u00e9cada, a Meta est\u00e1 na vanguarda do c\u00f3digo aberto respons\u00e1vel em IA, e acreditamos que uma abordagem aberta \u00e0 IA resulta em produtos melhores e mais seguros, inova\u00e7\u00e3o mais r\u00e1pida e um mercado maior. Pudemos apreciar pessoas utilizando o Llama 2 de maneiras novas e inovadoras desde que ele foi lan\u00e7ado em julho de 2023 \u2013 como o Meditron LLM de Yale, que est\u00e1 ajudando profissionais da \u00e1rea m\u00e9dica na tomada de decis\u00f5es, e a ferramenta da Mayo Clinic, que ajuda radiologistas a criar resumos clinicamente precisos dos exames de seus pacientes. O Llama 3 tem o potencial de tornar essas ferramentas e experi\u00eancias ainda melhores. &#8220;Os pr\u00f3ximos aprimoramentos nos recursos de racioc\u00ednio do Llama 3 s\u00e3o importantes para qualquer aplica\u00e7\u00e3o, mas, especialmente no dom\u00ednio m\u00e9dico, onde a confian\u00e7a depende muito da transpar\u00eancia do processo de tomada de decis\u00e3o. A decomposi\u00e7\u00e3o de uma decis\u00e3o\/previs\u00e3o em um conjunto de etapas l\u00f3gicas costuma ser a forma como os seres humanos explicam suas a\u00e7\u00f5es, e esse tipo de interpretabilidade \u00e9 esperado das ferramentas de suporte \u00e0 decis\u00e3o cl\u00ednica. O Llama 2 n\u00e3o s\u00f3 nos permitiu criar o Meditron, como tamb\u00e9m estabeleceu um precedente para o impacto potencial dos modelos de cria\u00e7\u00e3o de c\u00f3digo aberto em geral. Estamos entusiasmados com o Llama 3 pelo exemplo que ele adiciona ao setor sobre o valor social dos modelos abertos\u201d. &#8211; Mary-Anne Hartley (Ph.D. MD, MPH), Diretora do Laboratory for Intelligent Global Health and Humanitarian Response Technologies, com sede conjunta na Yale School of Medicine e na EPFL School of Computer Science Em geral, o software de c\u00f3digo aberto \u00e9 mais seguro e protegido devido ao feedback cont\u00ednuo, \u00e0 an\u00e1lise criteriosa, ao desenvolvimento e \u00e0s atenua\u00e7\u00f5es da comunidade. A implementa\u00e7\u00e3o da IA com seguran\u00e7a \u00e9 uma responsabilidade compartilhada por todos no ecossistema, e \u00e9 por isso que colaboramos h\u00e1 muitos anos com organiza\u00e7\u00f5es que est\u00e3o trabalhando para criar uma IA segura e confi\u00e1vel. Por exemplo, estamos trabalhando com a MLCommons e um conjunto global de parceiros para criar refer\u00eancias de responsabilidade de forma a beneficiar toda a comunidade de c\u00f3digo aberto. Fomos co-fundadores da AI Alliance, uma coaliz\u00e3o de empresas, acad\u00eamicos, defensores e governos que trabalham para desenvolver ferramentas que possibilitem um ecossistema de IA aberto e seguro. Recentemente, tamb\u00e9m divulgamos os resultados de um F\u00f3rum Comunit\u00e1rio em parceria com Stanford e a Behavioral Insights Team para que empresas, pesquisadores e governos possam tomar decis\u00f5es com base nas opini\u00f5es de pessoas ao redor do mundo sobre o que \u00e9 importante para elas quando se trata de chatbots de IA generativa. Estamos colaborando com governos de todo o mundo para criar uma base s\u00f3lida para que os avan\u00e7os da IA sejam seguros, justos e confi\u00e1veis. Aguardamos ansiosamente o progresso da avalia\u00e7\u00e3o e da pesquisa de seguran\u00e7a dos institutos nacionais de seguran\u00e7a, incluindo os dos Estados Unidos e do Reino Unido, especialmente porque eles se concentram no estabelecimento de modelos e avalia\u00e7\u00f5es padronizadas de amea\u00e7as em todo o processo de desenvolvimento da IA. Isso ajudar\u00e1 a medir os riscos de forma quantitativa e consistente para que os limites de risco possam ser definidos. Os resultados desses esfor\u00e7os orientar\u00e3o empresas como a Meta na mensura\u00e7\u00e3o e no tratamento de riscos, bem como na decis\u00e3o de como e se devem liberar modelos. Como as tecnologias continuam a evoluir, esperamos aprimorar esses recursos e modelos nos pr\u00f3ximos meses e anos. Estamos ansiosos para ajudar as pessoas a construir, criar e se conectar de maneiras novas e interessantes.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-04-18T17:05:38+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-06-05T20:31:49+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\"},\"author\":\"Facebook company\",\"headline\":\"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3\",\"datePublished\":\"2024-04-18T17:05:38+00:00\",\"dateModified\":\"2024-06-05T20:31:49+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\"},\"wordCount\":3514,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\",\"name\":\"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960\",\"datePublished\":\"2024-04-18T17:05:38+00:00\",\"dateModified\":\"2024-06-05T20:31:49+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/","og_locale":"pt_BR","og_type":"article","og_title":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta","og_description":"Hoje, lan\u00e7amos a nova IA da Meta,\u00a0um dos principais assistentes de intelig\u00eancia artificial gratuitos do mundo, constru\u00eddo com o Meta Llama 3, a \u00faltima gera\u00e7\u00e3o de grandes modelos de linguagem dispon\u00edveis publicamente. Gra\u00e7as aos \u00faltimos avan\u00e7os com o Llama 3, a IA da Meta est\u00e1 mais inteligente, r\u00e1pida e divertida do que nunca. Estamos comprometidos em desenvolver IA de forma respons\u00e1vel e ajudar outros a fazerem o mesmo. Por isso, estamos tomando uma s\u00e9rie de medidas para que as pessoas possam ter experi\u00eancias agrad\u00e1veis ao usar esses recursos e modelos, compartilhando ferramentas para apoiar os desenvolvedores e a comunidade aberta. Responsabilidade em diferentes camadas do processo de desenvolvimento Estamos entusiasmados com o potencial que a tecnologia de IA generativa pode ter para pessoas que usam produtos da Meta e para o ecossistema mais amplo. Tamb\u00e9m queremos garantir que estamos desenvolvendo e lan\u00e7ando essa tecnologia de maneira que antecipe e trabalhe para reduzir riscos. Para isso, tomamos medidas para avaliar e abordar riscos em cada n\u00edvel do processo de desenvolvimento e implanta\u00e7\u00e3o de IA. Isso inclui incorporar prote\u00e7\u00f5es no processo que usamos para projetar e lan\u00e7ar o modelo base do Llama, apoiar o ecossistema de desenvolvedores para que possam construir de forma respons\u00e1vel e adotar as mesmas melhores pr\u00e1ticas que esperamos de outros desenvolvedores quando desenvolvemos e lan\u00e7amos nossos pr\u00f3prios recursos de IA generativa no Facebook, Instagram, WhatsApp e Messenger. Como explicamos quando lan\u00e7amos o Llama 2, \u00e9 importante ser intencional na concep\u00e7\u00e3o dessas medidas, pois h\u00e1 algumas delas que s\u00f3 podem ser implementadas de forma eficaz pelo provedor do modelo, e outras que s\u00f3 funcionam de forma eficaz quando implementadas pelo desenvolvedor como parte de sua aplica\u00e7\u00e3o espec\u00edfica. Por esses motivos, com o Llama, adotamos uma abordagem centrada no sistema que aplica prote\u00e7\u00f5es em cada camada de desenvolvimento. Isso inclui adotar uma abordagem cuidadosa para nossos esfor\u00e7os de treinamento e ajuste, e fornecer ferramentas que facilitem aos desenvolvedores a implementa\u00e7\u00e3o respons\u00e1vel de modelos. Al\u00e9m de maximizar a efic\u00e1cia de nossos esfor\u00e7os de IA respons\u00e1vel, essa abordagem est\u00e1 alinhada com nossa perspectiva de inova\u00e7\u00e3o aberta, dando aos desenvolvedores mais poder para personalizar seus produtos de forma que sejam mais seguros e beneficiem seus usu\u00e1rios. O Guia de Uso Respons\u00e1vel \u00e9 um recurso importante para os desenvolvedores que esbo\u00e7am pontos que devem ser considerados ao construir seus pr\u00f3prios produtos, raz\u00e3o pela qual seguimos seus principais passos ao construir o Meta IA. Construindo de forma respons\u00e1vel o Llama 3 como um modelo fundacional Tomamos v\u00e1rias medidas no n\u00edvel do modelo para desenvolver um modelo de constru\u00e7\u00e3o altamente capaz e seguro no Llama 3, incluindo: 1. Abordar riscos no treinamento A base de qualquer modelo \u00e9 o processo de treinamento, por meio do qual o modelo aprende tanto a linguagem quanto as informa\u00e7\u00f5es de que precisa para operar. Como resultado, nossa abordagem come\u00e7ou com uma s\u00e9rie de mitigadores de IA respons\u00e1veis em nosso processo de treinamento. Por exemplo: Ampliamos o conjunto de dados de treinamento para o Llama 3 para que fosse sete vezes maior do que o que usamos para o Llama 2, e inclui quatro vezes mais c\u00f3digo. Mais de 5% do conjunto de dados de pr\u00e9-treinamento do Llama 3 consiste em dados n\u00e3o ingleses de alta qualidade que abrangem mais de 30 idiomas. Embora os modelos que estamos lan\u00e7ando hoje sejam apenas ajustados para sa\u00eddas em ingl\u00eas, a maior diversidade de dados ajuda os modelos a reconhecer melhor as nuances e padr\u00f5es, e a se sair bem em uma variedade de tarefas. Descobrimos que as gera\u00e7\u00f5es anteriores do Llama s\u00e3o boas em identificar dados de alta qualidade, ent\u00e3o usamos o Llama 2 para ajudar a construir os classificadores de qualidade de texto que est\u00e3o alimentando o Llama 3. Tamb\u00e9m usamos dados sint\u00e9ticos para treinar em \u00e1reas como codifica\u00e7\u00e3o, racioc\u00ednio e contexto longo. Por exemplo, usamos dados sint\u00e9ticos para criar documentos mais longos para treinar. Assim como o Llama 2, o Llama 3 \u00e9 treinado em uma variedade de dados p\u00fablicos. Para o treinamento, seguimos os processos padr\u00e3o de revis\u00e3o de privacidade da Meta. Exclu\u00edmos ou removemos dados de certas fontes conhecidas por conter um alto volume de informa\u00e7\u00f5es pessoais sobre indiv\u00edduos privados. 2. Avalia\u00e7\u00f5es de Seguran\u00e7a e Ajuste Adaptamos o modelo pr\u00e9-treinado por meio de um processo de ajuste fino, no qual tomamos medidas adicionais para melhorar seu desempenho na compreens\u00e3o e gera\u00e7\u00e3o de conversas de texto para que possa ser usado em aplicativos de chat semelhantes a assistentes. Durante e ap\u00f3s o treinamento, realizamos avalia\u00e7\u00f5es autom\u00e1ticas e manuais para entender o desempenho de nossos modelos em uma s\u00e9rie de \u00e1reas de risco, como armas, ataques cibern\u00e9ticos e explora\u00e7\u00e3o infantil. Em cada \u00e1rea, realizamos trabalho adicional para limitar a chance de o modelo fornecer respostas indesejadas. Por exemplo, realizamos extensos exerc\u00edcios do red teaming com especialistas externos e internos para testar os modelos sob estresse e encontrar maneiras inesperadas que poderiam ser usadas. Tamb\u00e9m avaliamos o Llama 3 com testes de refer\u00eancia como o CyberSecEval, su\u00edte de avalia\u00e7\u00e3o de seguran\u00e7a cibern\u00e9tica publicamente dispon\u00edvel da Meta, que mede a probabilidade de um modelo ajudar a realizar um ataque cibern\u00e9tico. Implementamos t\u00e9cnicas adicionais para ajudar a abordar quaisquer vulnerabilidades encontradas em vers\u00f5es anteriores do modelo, como ajuste fino supervisionado mostrando exemplos de respostas seguras e \u00fateis a prompts arriscados que quer\u00edamos que ele aprendesse a replicar em uma variedade de t\u00f3picos. Em seguida, aproveitamos o aprendizado por refor\u00e7o com feedback humano, que envolve ter humanos dando feedback de &#8220;prefer\u00eancia&#8221; sobre as respostas do modelo, classificando qual resposta \u00e9 melhor e mais segura. Este \u00e9 um processo frequente, ent\u00e3o repetimos os testes ap\u00f3s tomar as medidas acima para avaliar qu\u00e3o eficazes essas novas medidas foram na redu\u00e7\u00e3o de riscos e abordar quaisquer riscos restantes. 3. Reduzindo recusas benignas Recebemos feedback dos desenvolvedores de que o Llama 2 \u00e0s vezes recusava inadvertidamente responder a prompts inofensivos. Grandes modelos de linguagem tendem a generalizar demais e n\u00e3o pretendemos que ele se recuse a responder a prompts do tipo &#8220;Como mato um programa de computador?&#8221;, mesmo que n\u00e3o queiramos que ele responda a prompts como &#8220;Como mato meu vizinho?&#8221;. Aprimoramos nossa abordagem de ajuste fino para que o Llama 3 seja significativamente menos propenso a recusar falsamente responder a prompts do que o Llama 2. Como parte disso, usamos dados de alta qualidade para mostrar aos modelos exemplos de respostas com essas pequenas nuances lingu\u00edsticas, para que pud\u00e9ssemos trein\u00e1-lo a reconhecer essas variantes. Como resultado, o Llama 3 \u00e9 nosso modelo mais capaz at\u00e9 o momento e oferece novas capacidades, incluindo racioc\u00ednio aprimorado. 4. Transpar\u00eancia do modelo Assim como com o Llama 2, estamos publicando um cart\u00e3o de modelo que inclui informa\u00e7\u00f5es detalhadas sobre a arquitetura do Llama 3, par\u00e2metros e avalia\u00e7\u00f5es pr\u00e9-treinadas. O cart\u00e3o do modelo tamb\u00e9m fornece informa\u00e7\u00f5es sobre as capacidades e limita\u00e7\u00f5es das ferramentas. Expandimos as informa\u00e7\u00f5es no cart\u00e3o do modelo do Llama 3 para incluir detalhes adicionais sobre nossa abordagem de responsabilidade e seguran\u00e7a. Tamb\u00e9m inclui resultados para modelos do Llama 3 em testes autom\u00e1ticos padr\u00e3o como conhecimento geral, racioc\u00ednio, resolu\u00e7\u00e3o de problemas matem\u00e1ticos, codifica\u00e7\u00e3o e compreens\u00e3o de leitura. Nos pr\u00f3ximos meses, lan\u00e7aremos modelos adicionais do Llama 3 com novas capacidades, incluindo multimodalidade, a capacidade de conversar em v\u00e1rios idiomas e capacidades globais mais fortes. Nossa abordagem geral de c\u00f3digo aberto para nossos modelos do Llama 3 \u00e9 algo a que permanecemos comprometidos. Atualmente, estamos treinando um modelo de 400 bilh\u00f5es de par\u00e2metros \u2013 e qualquer decis\u00e3o final sobre quando, se e como tornar o c\u00f3digo aberto ser\u00e1 tomada ap\u00f3s avalia\u00e7\u00f5es de seguran\u00e7a que realizaremos nos pr\u00f3ximos meses. Como constru\u00edmos a IA da Meta como um desenvolvedor respons\u00e1vel Constru\u00edmos a nova IA da Meta sobre a base do Llama 3, imaginando que a ferramenta capacitar\u00e1 os desenvolvedores a expandir o ecossistema existente de produtos e servi\u00e7os baseados no Llama. Como descrevemos em nosso Guia de Uso Respons\u00e1vel, adotamos medidas adicionais nas diferentes etapas do desenvolvimento e implanta\u00e7\u00e3o do produto para construir a IA da Meta sobre o modelo de funda\u00e7\u00e3o, assim como qualquer desenvolvedor usaria o Llama 3 para construir seu pr\u00f3prio produto. Al\u00e9m das mitiga\u00e7\u00f5es que adotamos dentro do Llama 3, um desenvolvedor precisa adotar mitiga\u00e7\u00f5es adicionais para garantir que o modelo possa operar adequadamente no contexto de seu sistema espec\u00edfico e em cada caso de uso. Para a IA da Meta, o caso de uso \u00e9 um assistente seguro e \u00fatil dispon\u00edvel gratuitamente para as pessoas diretamente em nossos aplicativos. Projetamos para ajudar as pessoas a realizar tarefas como brainstorming e superar o bloqueio do escritor, ou conectar-se com amigos para descobrir novos lugares e aventuras. Desde o lan\u00e7amento da IA da Meta no ano passado, atualizamos e melhoramos consistentemente a experi\u00eancia e estamos continuando a torn\u00e1-la ainda melhor. Por exemplo: 1. Aprimoramos as respostas da IA da Meta em rela\u00e7\u00e3o \u00e0s solicita\u00e7\u00f5es e perguntas das pessoas. Quer\u00edamos refinar a maneira como a IA da Meta\u00a0 responde \u00e0s solicita\u00e7\u00f5es sobre quest\u00f5es pol\u00edticas ou sociais, ent\u00e3o estamos incorporando diretrizes espec\u00edficas para esses t\u00f3picos. Se algu\u00e9m perguntar sobre um problema de pol\u00edtica debatido, nosso objetivo \u00e9 que a IA da Meta n\u00e3o ofere\u00e7a uma \u00fanica opini\u00e3o ou ponto de vista, mas resuma pontos de vista relevantes sobre o t\u00f3pico. Se algu\u00e9m perguntar especificamente sobre um lado de uma quest\u00e3o, geralmente queremos respeitar a inten\u00e7\u00e3o dessa pessoa e fazer com que a IA da Meta responda \u00e0 pergunta espec\u00edfica. Abordar o vi\u00e9s do ponto de vista em sistemas de IA generativa \u00e9 uma nova \u00e1rea de pesquisa. Continuamos progredindo para refor\u00e7ar essa abordagem nas respostas da IA da Meta, mas como estamos vendo com todos os sistemas de IA generativa, nem sempre pode retornar a resposta que pretendemos. Tamb\u00e9m estamos explorando t\u00e9cnicas adicionais que podem abord\u00e1-lo junto com o feedback do usu\u00e1rio. 2. Ensinamos ao modelo da IA da Meta instru\u00e7\u00f5es e respostas espec\u00edficas para torn\u00e1-lo um assistente de IA mais \u00fatil. Isso inclui v\u00e1rios passos de ajuste fino, como desenvolver modelos de recompensa para seguran\u00e7a e utilidade que d\u00e3o ao modelo uma recompensa se ele fizer o que pretendemos. As pessoas enviam solicita\u00e7\u00f5es ao modelo e categorizam as respostas de acordo com nossas diretrizes. Os exemplos que se alinharam com o tom e a responsividade que quer\u00edamos que a IA da Meta reproduzisse foram ent\u00e3o alimentados de forma que a &#8220;recompense&#8221; quando gera conte\u00fado semelhante. Esse processo continua treinando o modelo para produzir mais conte\u00fado dentro das diretrizes. 3. Avaliamos o desempenho da IA da Meta em rela\u00e7\u00e3o a benchmarks e usando especialistas humanos. Assim como fizemos para o Llama 3, revisamos os modelos da IA da Meta com especialistas externos e internos por meio de exerc\u00edcios de teste de penetra\u00e7\u00e3o para encontrar maneiras inesperadas que a IA da Meta poderia ser usada, e depois abordamos esses problemas em um processo frequente. Tamb\u00e9m estamos testando as capacidades da IA da Meta em nossos aplicativos para garantir que esteja funcionando conforme o previsto em locais como feed, chats, busca e outros. Realizamos uma bateria de avalia\u00e7\u00f5es advers\u00e1rias \u2013 tanto automatizadas quanto revisadas por humanos \u2013 como uma fiscaliza\u00e7\u00e3o abrangente em n\u00edvel de sistema para ver como a IA da Meta se saiu em m\u00e9tricas-chave de seguran\u00e7a. 4. Aplicamos salvaguardas no n\u00edvel da solicita\u00e7\u00e3o e da resposta. Para incentivar a IA da Meta a compartilhar respostas \u00fateis e mais seguras que estejam alinhadas com suas diretrizes, implementamos filtros nas solicita\u00e7\u00f5es que os usu\u00e1rios enviam e nas respostas ap\u00f3s serem geradas pelo modelo, antes de serem mostradas a um usu\u00e1rio. Esses filtros dependem de sistemas conhecidos como classificadores que trabalham para detectar uma solicita\u00e7\u00e3o ou resposta que se enquadre em suas diretrizes. Por exemplo, se algu\u00e9m perguntar como roubar dinheiro de um chefe, o classificador ir\u00e1 detectar essa solicita\u00e7\u00e3o e o modelo ser\u00e1 treinado para responder que n\u00e3o pode fornecer orienta\u00e7\u00e3o sobre como quebrar a lei. Tamb\u00e9m aproveitamos grandes modelos de linguagem constru\u00eddos especificamente com o objetivo de ajudar a detectar viola\u00e7\u00f5es de seguran\u00e7a. 5. Inclu\u00edmos ferramentas de feedback dentro da IA da Meta. O feedback \u00e9 fundamental para o desenvolvimento de qualquer recurso de IA generativa, j\u00e1 que nenhum modelo de IA \u00e9 perfeito, ent\u00e3o as pessoas podem compartilhar diretamente conosco se receberam uma resposta boa ou ruim e usaremos esse feedback para melhorar o nosso sistema. Este feedback \u00e9 revisado para determinar se as respostas s\u00e3o \u00fateis ou se foram contra as diretrizes e instru\u00e7\u00f5es que desenvolvemos. Os resultados s\u00e3o usados no treinamento cont\u00ednuo do modelo para melhorar o desempenho da IA da Meta ao longo do tempo. A transpar\u00eancia \u00e9 fundamental para ajudar as pessoas a entenderem essa nova tecnologia e se sentirem confort\u00e1veis com ela. Quando algu\u00e9m interage com a IA da Meta, informamos que \u00e9 tecnologia de IA para que possam escolher se desejam continuar usando. Compartilhamos informa\u00e7\u00f5es dentro dos pr\u00f3prios recursos para ajudar as pessoas a entenderem que a IA pode tomar sa\u00eddas imprecisas ou inadequadas, o que \u00e9 o mesmo para todos os sistemas de intelig\u00eancia artificial generativa. Em conversas com a IA da Meta, as pessoas podem acessar informa\u00e7\u00f5es adicionais sobre como ela gera conte\u00fado, as limita\u00e7\u00f5es da IA e como os dados que compartilharam com a IA da Meta s\u00e3o usados. Tamb\u00e9m inclu\u00edmos marcadores vis\u00edveis em imagens fotorrealistas geradas pela IA da Meta para que as pessoas saibam que o conte\u00fado foi criado com IA. Em maio, come\u00e7aremos a rotular conte\u00fado de v\u00eddeo, \u00e1udio e imagem que as pessoas postam em nossos aplicativos como &#8220;Feito com IA&#8221; quando detectarmos indicadores de imagem de IA padr\u00e3o da ind\u00fastria ou quando as pessoas indicarem que est\u00e3o enviando conte\u00fado gerado por ferramenta artificial. Como os desenvolvedores podem construir de forma respons\u00e1vel com o Llama 3 A IA da Meta \u00e9 apenas um dos muitos recursos e produtos que ser\u00e3o criados com o Llama 3. Estamos lan\u00e7ando modelos diferentes nos tamanhos 8B e 70B para que os desenvolvedores possam utilizar a melhor vers\u00e3o para eles. Estamos fornecendo, ainda, um modelo ajustado por instru\u00e7\u00f5es especializado em aplicativos de chatbot, bem como um modelo pr\u00e9-treinado para desenvolvedores com casos de uso espec\u00edficos que se beneficiariam de pol\u00edticas personalizadas. Al\u00e9m do Guia de Uso Respons\u00e1vel, estamos fornecendo ferramentas de c\u00f3digo aberto que tornam ainda mais f\u00e1cil para os desenvolvedores personalizarem o Llama 3 e implementarem experi\u00eancias generativas com tecnologia de IA. Estamos lan\u00e7ando componentes atualizados para o Llama Guard 2, um modelo de seguran\u00e7a de \u00faltima gera\u00e7\u00e3o que os desenvolvedores podem usar como uma camada extra para reduzir a probabilidade de seu modelo gerar resultados que n\u00e3o estejam alinhados com as diretrizes pretendidas. Isso se baseia na classifica\u00e7\u00e3o recentemente anunciada pelo MLCommons. Atualizamos o CyberSecEval, que foi criado para ajudar os desenvolvedores a avaliar os riscos de seguran\u00e7a cibern\u00e9tica com o c\u00f3digo gerado pelos LLMs. Usamos esse recurso para avaliar o Llama 3 e resolver problemas antes de lan\u00e7\u00e1-lo. Estamos apresentando o Code Shield, recurso no qual os desenvolvedores podem utilizar para reduzir a chance de gerar c\u00f3digo potencialmente inseguro. Nossas equipes j\u00e1 usaram o Code Shield com o LLM de codifica\u00e7\u00e3o interna da Meta para evitar dezenas de milhares de sugest\u00f5es potencialmente inseguras este ano. Temos um guia de introdu\u00e7\u00e3o abrangente que auxilia os desenvolvedores com informa\u00e7\u00f5es e recursos para navegar no processo de desenvolvimento e implementa\u00e7\u00e3o. Compartilhamos o Llama Recipes, que cont\u00e9m nosso c\u00f3digo-fonte aberto para facilitar aos desenvolvedores a cria\u00e7\u00e3o com o Llama por meio de tarefas como organiza\u00e7\u00e3o e prepara\u00e7\u00e3o do conjunto de dados, ajuste fino para ensinar o modelo a executar seu caso de uso espec\u00edfico, configura\u00e7\u00e3o de medidas de seguran\u00e7a para identificar e lidar com conte\u00fado potencialmente prejudicial ou inadequado gerado pelo modelo por meio de sistemas RAG, implanta\u00e7\u00e3o do modelo e avalia\u00e7\u00e3o de seu desempenho para verificar se est\u00e1 funcionando como o esperado. Recebemos, tamb\u00e9m, feedback direto de desenvolvedores e pesquisadores de c\u00f3digo aberto por meio de reposit\u00f3rios de c\u00f3digo aberto, como o GitHub, e de nosso programa de recompensa por bugs, que informa as atualiza\u00e7\u00f5es de nossos recursos e modelos. Abordagem aberta da Meta para apoiar o ecossistema H\u00e1 mais de uma d\u00e9cada, a Meta est\u00e1 na vanguarda do c\u00f3digo aberto respons\u00e1vel em IA, e acreditamos que uma abordagem aberta \u00e0 IA resulta em produtos melhores e mais seguros, inova\u00e7\u00e3o mais r\u00e1pida e um mercado maior. Pudemos apreciar pessoas utilizando o Llama 2 de maneiras novas e inovadoras desde que ele foi lan\u00e7ado em julho de 2023 \u2013 como o Meditron LLM de Yale, que est\u00e1 ajudando profissionais da \u00e1rea m\u00e9dica na tomada de decis\u00f5es, e a ferramenta da Mayo Clinic, que ajuda radiologistas a criar resumos clinicamente precisos dos exames de seus pacientes. O Llama 3 tem o potencial de tornar essas ferramentas e experi\u00eancias ainda melhores. &#8220;Os pr\u00f3ximos aprimoramentos nos recursos de racioc\u00ednio do Llama 3 s\u00e3o importantes para qualquer aplica\u00e7\u00e3o, mas, especialmente no dom\u00ednio m\u00e9dico, onde a confian\u00e7a depende muito da transpar\u00eancia do processo de tomada de decis\u00e3o. A decomposi\u00e7\u00e3o de uma decis\u00e3o\/previs\u00e3o em um conjunto de etapas l\u00f3gicas costuma ser a forma como os seres humanos explicam suas a\u00e7\u00f5es, e esse tipo de interpretabilidade \u00e9 esperado das ferramentas de suporte \u00e0 decis\u00e3o cl\u00ednica. O Llama 2 n\u00e3o s\u00f3 nos permitiu criar o Meditron, como tamb\u00e9m estabeleceu um precedente para o impacto potencial dos modelos de cria\u00e7\u00e3o de c\u00f3digo aberto em geral. Estamos entusiasmados com o Llama 3 pelo exemplo que ele adiciona ao setor sobre o valor social dos modelos abertos\u201d. &#8211; Mary-Anne Hartley (Ph.D. MD, MPH), Diretora do Laboratory for Intelligent Global Health and Humanitarian Response Technologies, com sede conjunta na Yale School of Medicine e na EPFL School of Computer Science Em geral, o software de c\u00f3digo aberto \u00e9 mais seguro e protegido devido ao feedback cont\u00ednuo, \u00e0 an\u00e1lise criteriosa, ao desenvolvimento e \u00e0s atenua\u00e7\u00f5es da comunidade. A implementa\u00e7\u00e3o da IA com seguran\u00e7a \u00e9 uma responsabilidade compartilhada por todos no ecossistema, e \u00e9 por isso que colaboramos h\u00e1 muitos anos com organiza\u00e7\u00f5es que est\u00e3o trabalhando para criar uma IA segura e confi\u00e1vel. Por exemplo, estamos trabalhando com a MLCommons e um conjunto global de parceiros para criar refer\u00eancias de responsabilidade de forma a beneficiar toda a comunidade de c\u00f3digo aberto. Fomos co-fundadores da AI Alliance, uma coaliz\u00e3o de empresas, acad\u00eamicos, defensores e governos que trabalham para desenvolver ferramentas que possibilitem um ecossistema de IA aberto e seguro. Recentemente, tamb\u00e9m divulgamos os resultados de um F\u00f3rum Comunit\u00e1rio em parceria com Stanford e a Behavioral Insights Team para que empresas, pesquisadores e governos possam tomar decis\u00f5es com base nas opini\u00f5es de pessoas ao redor do mundo sobre o que \u00e9 importante para elas quando se trata de chatbots de IA generativa. Estamos colaborando com governos de todo o mundo para criar uma base s\u00f3lida para que os avan\u00e7os da IA sejam seguros, justos e confi\u00e1veis. Aguardamos ansiosamente o progresso da avalia\u00e7\u00e3o e da pesquisa de seguran\u00e7a dos institutos nacionais de seguran\u00e7a, incluindo os dos Estados Unidos e do Reino Unido, especialmente porque eles se concentram no estabelecimento de modelos e avalia\u00e7\u00f5es padronizadas de amea\u00e7as em todo o processo de desenvolvimento da IA. Isso ajudar\u00e1 a medir os riscos de forma quantitativa e consistente para que os limites de risco possam ser definidos. Os resultados desses esfor\u00e7os orientar\u00e3o empresas como a Meta na mensura\u00e7\u00e3o e no tratamento de riscos, bem como na decis\u00e3o de como e se devem liberar modelos. Como as tecnologias continuam a evoluir, esperamos aprimorar esses recursos e modelos nos pr\u00f3ximos meses e anos. Estamos ansiosos para ajudar as pessoas a construir, criar e se conectar de maneiras novas e interessantes.","og_url":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/","og_site_name":"Sobre a Meta","article_published_time":"2024-04-18T17:05:38+00:00","article_modified_time":"2024-06-05T20:31:49+00:00","og_image":[{"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960","type":"","width":"","height":""}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"15 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/"},"author":"Facebook company","headline":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3","datePublished":"2024-04-18T17:05:38+00:00","dateModified":"2024-06-05T20:31:49+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/"},"wordCount":3514,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/","url":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/","name":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3 | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960","datePublished":"2024-04-18T17:05:38+00:00","dateModified":"2024-06-05T20:31:49+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/04\/438955106_1841439389705952_3081438701623182003_n.png?w=960"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2024\/04\/nossa-abordagem-responsavel-para-o-meta-ia-e-o-meta-llama-3\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Nossa Abordagem Respons\u00e1vel para a IA da Meta e o Meta Llama 3"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":26290,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/modelos-llama-4\/","url_meta":{"origin":25547,"position":0},"title":"A Cole\u00e7\u00e3o de Modelos Llama 4: o In\u00edcio de uma nova era de inova\u00e7\u00e3o em IA multimodal nativa","author":"Meta","date":"05\/04\/2025","format":false,"excerpt":"\u00c0 medida que mais pessoas continuam a usar a intelig\u00eancia artificial para melhorar suas vidas di\u00e1rias, \u00e9 importante que os modelos e sistemas l\u00edderes estejam dispon\u00edveis abertamente para que todos possam construir o futuro das experi\u00eancias personalizadas. Hoje, estamos entusiasmados em anunciar a su\u00edte de modelos mais avan\u00e7ada que suporta\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26252,"url":"https:\/\/about.fb.com\/br\/news\/2025\/03\/celebrando-1-bilhao-de-downloads-do-llama\/","url_meta":{"origin":25547,"position":1},"title":"Celebrando 1 bilh\u00e3o de downloads do Llama","author":"Meta","date":"18\/03\/2025","format":false,"excerpt":"Llama, a nossa cole\u00e7\u00e3o de modelos de Intelig\u00eancia Artificial (IA) com enfoque aberto, acaba de atingir 1 bilh\u00e3o de downloads. A IA de enfoque aberto \u00e9 crucial para garantir que pessoas em todos os lugares tenham acesso aos benef\u00edcios da IA, e cada download do Llama nos aproxima dessa meta.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=700%2C400 2x"},"classes":[]},{"id":26574,"url":"https:\/\/about.fb.com\/br\/news\/2025\/08\/apresentando-o-app-meta-ai-uma-nova-forma-de-acessar-seu-assistente-de-inteligencia-artificial\/","url_meta":{"origin":25547,"position":2},"title":"Apresentando o app Meta AI: uma nova forma de acessar seu assistente de intelig\u00eancia artificial","author":"Meta","date":"11\/08\/2025","format":false,"excerpt":"Estamos lan\u00e7ando no Brasil o novo app Meta AI, desenvolvido com o Llama, um primeiro passo na constru\u00e7\u00e3o de uma IA mais pessoal. Pessoas ao redor do mundo j\u00e1 utilizam a Meta AI diariamente no WhatsApp, Instagram, Facebook e Messenger. Agora, elas tamb\u00e9m poder\u00e3o optar por interagir com uma IA\u2026","rel":"","context":"In &quot;Meta AI&quot;","block_context":{"text":"Meta AI","link":"https:\/\/about.fb.com\/br\/news\/category\/technologies\/meta-ai\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/08\/C50-Brazil-Launch_Header.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26363,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/nova-escola-esta-entre-os-vencedores-do-llama-impact-grants-usando-ia-para-impulsionar-educacao-publica-no-brasil\/","url_meta":{"origin":25547,"position":3},"title":"Nova Escola est\u00e1 entre os vencedores do Llama Impact Grants, usando IA para impulsionar educa\u00e7\u00e3o p\u00fablica no Brasil","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"Estamos animados em anunciar os 10 vencedores internacionais da segunda edi\u00e7\u00e3o do Llama Impact Grants. As bolsas somam mais de US$ 1,5 milh\u00e3o em premia\u00e7\u00f5es e t\u00eam como objetivo impulsionar a inova\u00e7\u00e3o em empresas, startups e universidades que utilizam o Llama para gerar valor econ\u00f4mico e social. Representando o Brasil\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26185,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/save-the-date-meta-connect-2025-e-nosso-primeiro-llamacon\/","url_meta":{"origin":25547,"position":4},"title":"Save The Date: Meta Connect 2025 e nosso primeiro LlamaCon","author":"Meta","date":"18\/02\/2025","format":false,"excerpt":"O ano passado foi repleto de acontecimentos importantes, com a apresenta\u00e7\u00e3o do Meta Horizon OS, o lan\u00e7amento do Meta Quest 3S e a expans\u00e3o da Meta AI \u2014 e 2025 promete ser ainda mais incr\u00edvel. E, como os meses passam rapidamente, estamos aqui para compartilhar algumas datas importantes para voc\u00ea\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26421,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/novo-estudo-mostra-que-a-ia-de-modelo-aberto-e-catalisadora-do-crescimento-economico\/","url_meta":{"origin":25547,"position":5},"title":"Novo estudo mostra que a IA open source \u00e9 catalisadora do crescimento econ\u00f4mico","author":"Meta","date":"21\/05\/2025","format":false,"excerpt":"O novo estudo, \u201cOs impactos econ\u00f4micos e no mercado de trabalho da IA open source\u201d, divulgado hoje pela Linux Foundation (LF) Research e encomendado pela Meta, mostra que muitas organiza\u00e7\u00f5es adotam modelos de IA open source por serem mais econ\u00f4micos. Dois ter\u00e7os das organiza\u00e7\u00f5es entrevistadas acreditam que a IA open\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25547","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25547"}],"version-history":[{"count":3,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25547\/revisions"}],"predecessor-version":[{"id":25645,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25547\/revisions\/25645"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25547"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25547"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25547"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}