{"id":25688,"date":"2024-07-23T12:30:03","date_gmt":"2024-07-23T15:30:03","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25688"},"modified":"2024-07-23T12:30:03","modified_gmt":"2024-07-23T15:30:03","slug":"apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/","title":{"rendered":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento"},"content":{"rendered":"<p><span style=\"font-weight: 400\">At\u00e9 hoje, os grandes modelos de linguagem de c\u00f3digo aberto ficavam atr\u00e1s de seus equivalentes fechados quando se trata de recursos e desempenho. Agora, estamos inaugurando uma nova era com o c\u00f3digo aberto liderando o caminho. Estamos lan\u00e7ando publicamente o Llama 3.1 405B, que acreditamos ser o maior e mais capaz modelo de base dispon\u00edvel abertamente no mundo. Com mais de 300 milh\u00f5es de downloads totais de todas as vers\u00f5es do Llama at\u00e9 o momento, estamos apenas come\u00e7ando.<\/span><\/p>\n<p><b>Apresentando o Llama 3.1<\/b><\/p>\n<p><span style=\"font-weight: 400\">O Llama 3.1 405B \u00e9 o primeiro modelo dispon\u00edvel abertamente que rivaliza com os principais modelos de IA quando se trata de recursos de \u00faltima gera\u00e7\u00e3o em conhecimento geral, capacidade de dire\u00e7\u00e3o, matem\u00e1tica, uso de ferramentas e tradu\u00e7\u00e3o multil\u00edngue. Com o lan\u00e7amento do modelo 405B, estamos preparados para impulsionar a inova\u00e7\u00e3o \u2013 com oportunidades sem precedentes de crescimento e explora\u00e7\u00e3o. Acreditamos que a \u00faltima gera\u00e7\u00e3o do Llama ir\u00e1 desencadear novas aplica\u00e7\u00f5es e paradigmas de modelagem, incluindo a gera\u00e7\u00e3o de dados sint\u00e9ticos para permitir a melhoria e o treinamento de modelos menores, bem como a destila\u00e7\u00e3o de modelos \u2013 uma capacidade que nunca foi alcan\u00e7ada nesta escala em c\u00f3digo aberto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como parte deste \u00faltimo lan\u00e7amento, apresentamos vers\u00f5es atualizadas dos modelos 8B e 70B. Eles s\u00e3o multil\u00edngues e t\u00eam um comprimento de contexto significativamente maior, de 128K, uso de ferramentas de \u00faltima gera\u00e7\u00e3o e recursos de racioc\u00ednio mais fortes em geral. Isso permite que nossos modelos mais recentes ofere\u00e7am suporte a casos de uso avan\u00e7ados, como resumo de textos longos, agentes de conversa\u00e7\u00e3o multil\u00edngues e assistentes de codifica\u00e7\u00e3o. Tamb\u00e9m fizemos altera\u00e7\u00f5es em nossa licen\u00e7a, permitindo que os desenvolvedores usem os resultados dos modelos Llama \u2013 incluindo o 405B \u2013 para melhorar outros modelos. Fi\u00e9is ao nosso compromisso com o c\u00f3digo aberto, a partir de hoje estamos disponibilizando esses modelos para a comunidade para download em <\/span><a href=\"http:\/\/llama.meta.com\"><span style=\"font-weight: 400\">llama.meta.com<\/span><\/a><span style=\"font-weight: 400\"> e <\/span><a href=\"https:\/\/huggingface.co\/meta-llama\"><span style=\"font-weight: 400\">Hugging Face<\/span><\/a><span style=\"font-weight: 400\">, al\u00e9m de estarem dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas parceiras.<\/span><\/p>\n<p><b>Avalia\u00e7\u00f5es do modelo\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para esta vers\u00e3o, avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Al\u00e9m disso, realizamos extensas avalia\u00e7\u00f5es humanas que comparam o Llama 3.1 com modelos concorrentes em cen\u00e1rios do mundo real. Nossa avalia\u00e7\u00e3o experimental sugere que nosso modelo principal \u00e9 competitivo com os principais modelos de base em uma s\u00e9rie de tarefas, incluindo GPT-4, GPT-4o e Claude 3.5 Sonnet. Al\u00e9m disso, nossos modelos menores s\u00e3o competitivos com modelos fechados e abertos que possuem um n\u00famero semelhante de par\u00e2metros.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25691\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=3201 3201w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=578 578w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=1559 1559w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-3.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25692\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=3201 3201w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=578 578w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=1559 1559w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-4.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25690\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=960&#038;resize=960%2C510\" alt=\"\" width=\"960\" height=\"510\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=600 600w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-2.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><b>Arquitetura do modelo<\/b><\/p>\n<p><span style=\"font-weight: 400\">Como nosso maior modelo at\u00e9 agora, treinar o Llama 3.1 405B em mais de 15 trilh\u00f5es de tokens foi um grande desafio. Para permitir execu\u00e7\u00f5es de treinamento nesta escala e alcan\u00e7ar os resultados que temos em um per\u00edodo de tempo razo\u00e1vel, otimizamos significativamente toda a nossa estrutura de treinamento e aumentamos o treinamento do nosso modelo para mais de 16 mil GPUs H100, tornando o 405B o primeiro modelo Llama treinado nesta escala.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25693\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=960&#038;resize=960%2C263\" alt=\"\" width=\"960\" height=\"263\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=600 600w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452342830_524225500031704_780745667054798266_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Para resolver isso, fizemos escolhas de design que se concentram em manter o processo de desenvolvimento do modelo escal\u00e1vel e direto.\u00a0<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Optamos por um padr\u00e3o de arquitetura de modelo de transformador <\/span><i><span style=\"font-weight: 400\">decoder-only<\/span><\/i><span style=\"font-weight: 400\">, com pequenas adapta\u00e7\u00f5es, em vez de um modelo misto de especialistas para maximizar a estabilidade do treinamento.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Adotamos um procedimento iterativo de p\u00f3s-treinamento, onde cada rodada utiliza ajuste fino supervisionado e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Isso nos permitiu criar dados sint\u00e9ticos da mais alta qualidade para cada rodada e melhorar o desempenho de cada capacidade.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Em compara\u00e7\u00e3o com as vers\u00f5es anteriores do Llama, melhoramos a quantidade e a qualidade dos dados que usamos no pr\u00e9 e p\u00f3s-treinamento. Essas melhorias incluem o desenvolvimento de pipelines de pr\u00e9-processamento e curadoria mais cuidadosos para dados de pr\u00e9-treinamento, o desenvolvimento de garantia de qualidade mais rigorosa e abordagens de filtragem para dados p\u00f3s-treinamento.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Conforme esperado pelas leis de escala para modelos de linguagem, nosso novo modelo principal supera modelos menores treinados usando o mesmo procedimento. Tamb\u00e9m usamos o modelo de par\u00e2metro 405B para melhorar a qualidade p\u00f3s-treinamento de nossos modelos menores.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para apoiar a infer\u00eancia de produ\u00e7\u00e3o em larga escala para um modelo na escala do 405B, quantizamos nossos modelos de 16 bits (BF16) a 8 bits (FP8), reduzindo efetivamente os requisitos de computa\u00e7\u00e3o necess\u00e1rios e permitindo que o modelo seja executado dentro um \u00fanico n\u00f3 de servidor.<\/span><\/p>\n<p><b>Ajuste de instru\u00e7\u00f5es e bate-papo\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400\">Com o Llama 3.1 405B, nos esfor\u00e7amos para melhorar a utilidade, a qualidade e a capacidade de seguir instru\u00e7\u00f5es detalhadas do modelo em resposta \u00e0s instru\u00e7\u00f5es do usu\u00e1rio, garantindo ao mesmo tempo altos n\u00edveis de seguran\u00e7a. Nossos maiores desafios foram oferecer suporte a mais recursos, \u00e0 janela de contexto de 128K e ao aumento do tamanho dos modelos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">No p\u00f3s-treinamento, produzimos modelos finais de chat fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT na sigla em ingl\u00eas), amostragem de rejei\u00e7\u00e3o (RS na sigla em ingl\u00eas) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO na sigla em ingl\u00eas). Usamos a gera\u00e7\u00e3o de dados sint\u00e9ticos para produzir a grande maioria de nossos exemplos de SFT, iterando diversas vezes para produzir dados sint\u00e9ticos de qualidade cada vez maior em todos os recursos. Al\u00e9m disso, investimos em m\u00faltiplas t\u00e9cnicas de processamento de dados para filtrar esses dados sint\u00e9ticos com a mais alta qualidade. Isso nos permite dimensionar a quantidade de dados de ajuste fino entre recursos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Equilibramos cuidadosamente os dados para produzir um modelo com alta qualidade em todos os recursos. Por exemplo, mantemos a qualidade do nosso modelo em benchmarks de contexto curto, mesmo quando estendemos para o contexto de 128K. Da mesma forma, nosso modelo continua a fornecer respostas extremamente \u00fateis, mesmo quando adicionamos mitiga\u00e7\u00f5es de seguran\u00e7a.<\/span><\/p>\n<p><b>O sistema Llama<\/b><\/p>\n<p><span style=\"font-weight: 400\">Os modelos Llama sempre foram planejados para funcionar como parte de um sistema geral que pode orquestrar v\u00e1rios componentes, incluindo a chamada de ferramentas externas. Nossa vis\u00e3o \u00e9 ir al\u00e9m dos modelos b\u00e1sicos para dar aos desenvolvedores acesso a um sistema mais amplo que lhes d\u00ea flexibilidade para projetar e criar ofertas personalizadas que se alinhem com sua vis\u00e3o. Esse pensamento come\u00e7ou no ano passado, quando <\/span><a href=\"https:\/\/ai.meta.com\/blog\/purple-llama-open-trust-safety-generative-ai\/\"><span style=\"font-weight: 400\">introduzimos<\/span><\/a><span style=\"font-weight: 400\"> pela primeira vez a incorpora\u00e7\u00e3o de componentes fora do LLM principal.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como parte de nossos esfor\u00e7os cont\u00ednuos para desenvolver IA de forma respons\u00e1vel al\u00e9m da camada do modelo e ajudar outros a fazer o mesmo, estamos lan\u00e7ando um <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-agentic-system\"><span style=\"font-weight: 400\">sistema de refer\u00eancia<\/span><\/a><span style=\"font-weight: 400\"> completo que inclui v\u00e1rios aplicativos de amostra, al\u00e9m de novos componentes, como o <\/span><a href=\"https:\/\/llama.meta.com\/trust-and-safety\/#safeguard-model%20?\"><span style=\"font-weight: 400\">Llama Guard 3<\/span><\/a><span style=\"font-weight: 400\">, um modelo de seguran\u00e7a multil\u00edngue e Prompt Guard, um filtro de inje\u00e7\u00e3o imediata. Esses aplicativos de amostra s\u00e3o de c\u00f3digo aberto e podem ser desenvolvidos pela comunidade.\u00a0\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">A implementa\u00e7\u00e3o dos componentes desta vis\u00e3o do Sistema Llama ainda \u00e9 fragmentada. \u00c9 por isso que come\u00e7amos a trabalhar com a ind\u00fastria, startups e a comunidade em geral para ajudar a definir melhor as interfaces desses componentes. Para apoiar isso, estamos lan\u00e7ando uma <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\"><span style=\"font-weight: 400\">solicita\u00e7\u00e3o de coment\u00e1rio<\/span><\/a><span style=\"font-weight: 400\"> no GitHub para o que chamamos de \u201cLlama Stack\u201d. Llama Stack \u00e9 um conjunto de interfaces padronizadas e opinativas sobre como construir componentes can\u00f4nicos do conjunto de ferramentas (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) e aplicativos de agente. A nossa esperan\u00e7a \u00e9 que estes sejam adotados em todo o ecossistema, o que dever\u00e1 ajudar a facilitar a interoperabilidade.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Agradecemos coment\u00e1rios e formas de melhorar a <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\"><span style=\"font-weight: 400\">proposta<\/span><\/a><span style=\"font-weight: 400\">. Estamos entusiasmados em expandir o ecossistema em torno do Llama e reduzir as barreiras para desenvolvedores e fornecedores de plataforma.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25688-1\" width=\"960\" height=\"1280\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-capabilities.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-capabilities.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-capabilities.mp4<\/a><\/video><\/div>\n<p><b>A abertura impulsiona a inova\u00e7\u00e3o<\/b><\/p>\n<p><span style=\"font-weight: 400\">Ao contr\u00e1rio dos modelos fechados, o Llama est\u00e1 <\/span><a href=\"http:\/\/llama.meta.com\"><span style=\"font-weight: 400\">dispon\u00edvel para download<\/span><\/a><span style=\"font-weight: 400\">. Os desenvolvedores podem personalizar totalmente os modelos de acordo com suas necessidades e aplica\u00e7\u00f5es, treinar em novos conjuntos de dados e realizar ajustes adicionais. Isso permite que a comunidade mais ampla de desenvolvedores e o mundo compreendam mais plenamente o poder da IA \u200b\u200bgenerativa. Os desenvolvedores podem personalizar totalmente seus aplicativos e execut\u00e1-los em qualquer ambiente, inclusive <\/span><i><span style=\"font-weight: 400\">on-premise<\/span><\/i><span style=\"font-weight: 400\">, na nuvem ou at\u00e9 mesmo localmente em um laptop \u2013 tudo isso sem compartilhar dados com a Meta.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Embora muitos possam argumentar que os modelos fechados s\u00e3o mais econ\u00f4micos, os modelos Llama oferecem um dos custos por token mais baixos do setor, de acordo com testes da <\/span><a href=\"https:\/\/artificialanalysis.ai\/\"><span style=\"font-weight: 400\">Artificial Analysis<\/span><\/a><span style=\"font-weight: 400\">. E, como <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\"><span style=\"font-weight: 400\">observou<\/span><\/a><span style=\"font-weight: 400\"> Mark Zuckerberg, o c\u00f3digo aberto garantir\u00e1 que mais pessoas em todo o mundo tenham acesso aos benef\u00edcios e oportunidades da IA, que o poder n\u00e3o esteja concentrado nas m\u00e3os de poucos e que a tecnologia possa ser implementada de forma mais uniforme e segura em toda a sociedade. \u00c9 por isso que continuamos a tomar medidas ao longo do caminho para que a IA de acesso aberto se torne o padr\u00e3o da ind\u00fastria.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Vimos a <\/span><a href=\"https:\/\/llama.meta.com\/community-stories\/\"><span style=\"font-weight: 400\">comunidade<\/span><\/a><span style=\"font-weight: 400\"> construir coisas incr\u00edveis com modelos anteriores do Llama, incluindo um <\/span><a href=\"https:\/\/ai.meta.com\/blog\/foondamate-study-aid-education-llama\/\"><span style=\"font-weight: 400\">companheiro de estudo de IA<\/span><\/a><span style=\"font-weight: 400\"> criado com o Llama e implementado no WhatsApp e no Messenger, um <\/span><a href=\"https:\/\/ai.meta.com\/blog\/llama-2-3-meditron-yale-medicine-epfl-open-source-llm\/\"><span style=\"font-weight: 400\">LLM adaptado \u00e0 \u00e1rea m\u00e9dica<\/span><\/a><span style=\"font-weight: 400\"> projetado para ajudar na tomada de decis\u00f5es cl\u00ednicas, e <\/span><a href=\"https:\/\/github.com\/noharm-ai\/summary\"><span style=\"font-weight: 400\">uma organiza\u00e7\u00e3o sem fins lucrativos de sa\u00fade<\/span><\/a><span style=\"font-weight: 400\"> no Brasil que disponibiliza ao sistema de sa\u00fade a organiza\u00e7\u00e3o e comunica\u00e7\u00e3o de informa\u00e7\u00f5es dos pacientes sobre sua interna\u00e7\u00e3o, tudo com seguran\u00e7a de dados. Mal podemos esperar para ver o que a comunidade construir\u00e1 com nossos modelos mais recentes, gra\u00e7as ao poder do c\u00f3digo aberto.<\/span><\/p>\n<p><b>Construindo com Llama 3.1 405B<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para o desenvolvedor m\u00e9dio, usar um modelo na escala do 405B \u00e9 um desafio. Embora seja um modelo incrivelmente poderoso, reconhecemos que requer recursos computacionais e experi\u00eancia significativos para trabalhar. Conversamos com a comunidade e percebemos que h\u00e1 muito mais no desenvolvimento de IA generativa do que apenas modelos de est\u00edmulo. Queremos permitir que todos aproveitem ao m\u00e1ximo o 405B, incluindo:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Infer\u00eancia em tempo real e em lote<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Ajuste fino supervisionado<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Avalia\u00e7\u00e3o do seu modelo para sua aplica\u00e7\u00e3o espec\u00edfica<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Pr\u00e9-treinamento cont\u00ednuo<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Gera\u00e7\u00e3o Aumentada de Recupera\u00e7\u00e3o (RAG na sigla em ingl\u00eas)\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Chamada de fun\u00e7\u00e3o<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Gera\u00e7\u00e3o de dados sint\u00e9ticos<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">\u00c9 aqui que o ecossistema Llama pode ajudar. A partir do primeiro dia, os desenvolvedores j\u00e1 podem aproveitar todos os recursos avan\u00e7ados do modelo 405B e come\u00e7ar a construir imediatamente. Os desenvolvedores tamb\u00e9m podem explorar fluxos de trabalho avan\u00e7ados, como gera\u00e7\u00e3o de dados sint\u00e9ticos f\u00e1ceis de usar, seguir instru\u00e7\u00f5es prontas para destila\u00e7\u00e3o de modelos e habilitar RAG cont\u00ednuo com solu\u00e7\u00f5es de parceiros, incluindo AWS, NVIDIA e Databricks. Al\u00e9m disso, a Groq otimizou a infer\u00eancia de baixa lat\u00eancia para implementa\u00e7\u00f5es em nuvem, com a Dell alcan\u00e7ando otimiza\u00e7\u00f5es semelhantes para sistemas locais.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25689\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=960&#038;resize=960%2C530\" alt=\"\" width=\"960\" height=\"530\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=1977 1977w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=600 600w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/Llama-1.png?w=800 800w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Trabalhamos com projetos comunit\u00e1rios importantes, como vLLM, TensorRT e PyTorch, para dar suporte desde o primeiro dia e garantir que a comunidade esteja pronta para a implementa\u00e7\u00e3o em produ\u00e7\u00e3o.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esperamos que o nosso lan\u00e7amento do 405B tamb\u00e9m estimule a inova\u00e7\u00e3o em toda a comunidade para facilitar a infer\u00eancia e o ajuste fino de modelos desta escala, al\u00e9m de permitir a pr\u00f3xima onda de pesquisa em destila\u00e7\u00e3o de modelos.<\/span><\/p>\n<p><b>Experimente hoje mesmo a cole\u00e7\u00e3o de modelos Llama 3.1<\/b><\/p>\n<p><span style=\"font-weight: 400\">Mal podemos esperar para ver o que a comunidade far\u00e1 com este trabalho. H\u00e1 muito potencial para construir novas experi\u00eancias \u00fateis usando o multilinguismo e o aumento da extens\u00e3o do contexto. Com o Llama Stack e as novas ferramentas de seguran\u00e7a, esperamos continuar a construir junto com a comunidade de c\u00f3digo aberto de forma respons\u00e1vel. Antes de lan\u00e7ar um modelo, trabalhamos para identificar, avaliar e mitigar riscos potenciais por meio de diversas medidas, incluindo exerc\u00edcios de descoberta de riscos pr\u00e9-implementa\u00e7\u00e3o por meio de <\/span><i><span style=\"font-weight: 400\">red<\/span><\/i> <i><span style=\"font-weight: 400\">teaming<\/span><\/i><span style=\"font-weight: 400\"> e ajustes de seguran\u00e7a. Por exemplo, conduzimos um extenso <\/span><i><span style=\"font-weight: 400\">red teaming<\/span><\/i><span style=\"font-weight: 400\"> com especialistas externos e internos para testar a resist\u00eancia dos modelos e encontrar maneiras inesperadas de us\u00e1-los. (Leia mais sobre como estamos dimensionando nossa cole\u00e7\u00e3o de modelos Llama 3.1 de forma respons\u00e1vel neste <\/span><a href=\"http:\/\/ai.meta.com\/blog\/meta-llama-3-1-ai-responsibility\"><span style=\"font-weight: 400\">blog<\/span><\/a><span style=\"font-weight: 400\">)<\/span><\/p>\n<p><span style=\"font-weight: 400\">Embora este seja o nosso maior modelo at\u00e9 agora, acreditamos que ainda h\u00e1 muito terreno novo para explorar no futuro, incluindo tamanhos mais amig\u00e1veis \u200b\u200baos dispositivos, modalidades adicionais e mais investimento na camada da plataforma do agente. Como sempre, estamos ansiosos para ver todos os produtos e experi\u00eancias incr\u00edveis que a comunidade construir\u00e1 com esses modelos.\u00a0<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">Este trabalho foi apoiado pelos nossos parceiros da comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI e UC Berkeley &#8211; vLLM Project.<\/span><\/i><\/p>\n<p>&nbsp;<\/p>\n<p><a href=\"https:\/\/llama.meta.com\/\"><b>Experimente o Llama 3.1<\/b><\/a><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/the-llama-3-herd-of-models\/\"><b>Leia o artigo sobre o Llama 3.1<\/b><\/a><\/p>\n<p><a href=\"https:\/\/github.com\/meta-llama\/llama-models\"><b>Visite o reposit\u00f3rio do Llama no GitHub<\/b><\/a><\/p>\n<p><a href=\"https:\/\/huggingface.co\/meta-llama\"><b>Fa\u00e7a o download do Llama 3.1 no Hugging Face<\/b><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"At\u00e9 hoje, os grandes modelos de linguagem de c\u00f3digo aberto ficavam atr\u00e1s de seus equivalentes fechados quando se trata de recursos e desempenho. Agora, estamos inaugurando uma nova era com o c\u00f3digo aberto liderando o caminho. Estamos lan\u00e7ando publicamente o Llama 3.1 405B, que acreditamos ser o maior e mais capaz modelo de base dispon\u00edvel abertamente no mundo. Com mais de 300 milh\u00f5es de downloads totais de todas as vers\u00f5es do Llama at\u00e9 o momento, estamos apenas come\u00e7ando. Apresentando o Llama 3.1 O Llama 3.1 405B \u00e9 o primeiro modelo dispon\u00edvel abertamente que rivaliza com os principais modelos de IA quando se trata de recursos de \u00faltima gera\u00e7\u00e3o em conhecimento geral, capacidade de dire\u00e7\u00e3o, matem\u00e1tica, uso de ferramentas e tradu\u00e7\u00e3o multil\u00edngue. Com o lan\u00e7amento do modelo 405B, estamos preparados para impulsionar a inova\u00e7\u00e3o \u2013 com oportunidades sem precedentes de crescimento e explora\u00e7\u00e3o. Acreditamos que a \u00faltima gera\u00e7\u00e3o do Llama ir\u00e1 desencadear novas aplica\u00e7\u00f5es e paradigmas de modelagem, incluindo a gera\u00e7\u00e3o de dados sint\u00e9ticos para permitir a melhoria e o treinamento de modelos menores, bem como a destila\u00e7\u00e3o de modelos \u2013 uma capacidade que nunca foi alcan\u00e7ada nesta escala em c\u00f3digo aberto. Como parte deste \u00faltimo lan\u00e7amento, apresentamos vers\u00f5es atualizadas dos modelos 8B e 70B. Eles s\u00e3o multil\u00edngues e t\u00eam um comprimento de contexto significativamente maior, de 128K, uso de ferramentas de \u00faltima gera\u00e7\u00e3o e recursos de racioc\u00ednio mais fortes em geral. Isso permite que nossos modelos mais recentes ofere\u00e7am suporte a casos de uso avan\u00e7ados, como resumo de textos longos, agentes de conversa\u00e7\u00e3o multil\u00edngues e assistentes de codifica\u00e7\u00e3o. Tamb\u00e9m fizemos altera\u00e7\u00f5es em nossa licen\u00e7a, permitindo que os desenvolvedores usem os resultados dos modelos Llama \u2013 incluindo o 405B \u2013 para melhorar outros modelos. Fi\u00e9is ao nosso compromisso com o c\u00f3digo aberto, a partir de hoje estamos disponibilizando esses modelos para a comunidade para download em llama.meta.com e Hugging Face, al\u00e9m de estarem dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas parceiras. Avalia\u00e7\u00f5es do modelo\u00a0 Para esta vers\u00e3o, avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Al\u00e9m disso, realizamos extensas avalia\u00e7\u00f5es humanas que comparam o Llama 3.1 com modelos concorrentes em cen\u00e1rios do mundo real. Nossa avalia\u00e7\u00e3o experimental sugere que nosso modelo principal \u00e9 competitivo com os principais modelos de base em uma s\u00e9rie de tarefas, incluindo GPT-4, GPT-4o e Claude 3.5 Sonnet. Al\u00e9m disso, nossos modelos menores s\u00e3o competitivos com modelos fechados e abertos que possuem um n\u00famero semelhante de par\u00e2metros. Arquitetura do modelo Como nosso maior modelo at\u00e9 agora, treinar o Llama 3.1 405B em mais de 15 trilh\u00f5es de tokens foi um grande desafio. Para permitir execu\u00e7\u00f5es de treinamento nesta escala e alcan\u00e7ar os resultados que temos em um per\u00edodo de tempo razo\u00e1vel, otimizamos significativamente toda a nossa estrutura de treinamento e aumentamos o treinamento do nosso modelo para mais de 16 mil GPUs H100, tornando o 405B o primeiro modelo Llama treinado nesta escala. Para resolver isso, fizemos escolhas de design que se concentram em manter o processo de desenvolvimento do modelo escal\u00e1vel e direto.\u00a0 Optamos por um padr\u00e3o de arquitetura de modelo de transformador decoder-only, com pequenas adapta\u00e7\u00f5es, em vez de um modelo misto de especialistas para maximizar a estabilidade do treinamento.\u00a0 Adotamos um procedimento iterativo de p\u00f3s-treinamento, onde cada rodada utiliza ajuste fino supervisionado e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Isso nos permitiu criar dados sint\u00e9ticos da mais alta qualidade para cada rodada e melhorar o desempenho de cada capacidade. Em compara\u00e7\u00e3o com as vers\u00f5es anteriores do Llama, melhoramos a quantidade e a qualidade dos dados que usamos no pr\u00e9 e p\u00f3s-treinamento. Essas melhorias incluem o desenvolvimento de pipelines de pr\u00e9-processamento e curadoria mais cuidadosos para dados de pr\u00e9-treinamento, o desenvolvimento de garantia de qualidade mais rigorosa e abordagens de filtragem para dados p\u00f3s-treinamento. Conforme esperado pelas leis de escala para modelos de linguagem, nosso novo modelo principal supera modelos menores treinados usando o mesmo procedimento. Tamb\u00e9m usamos o modelo de par\u00e2metro 405B para melhorar a qualidade p\u00f3s-treinamento de nossos modelos menores. Para apoiar a infer\u00eancia de produ\u00e7\u00e3o em larga escala para um modelo na escala do 405B, quantizamos nossos modelos de 16 bits (BF16) a 8 bits (FP8), reduzindo efetivamente os requisitos de computa\u00e7\u00e3o necess\u00e1rios e permitindo que o modelo seja executado dentro um \u00fanico n\u00f3 de servidor. Ajuste de instru\u00e7\u00f5es e bate-papo\u00a0 Com o Llama 3.1 405B, nos esfor\u00e7amos para melhorar a utilidade, a qualidade e a capacidade de seguir instru\u00e7\u00f5es detalhadas do modelo em resposta \u00e0s instru\u00e7\u00f5es do usu\u00e1rio, garantindo ao mesmo tempo altos n\u00edveis de seguran\u00e7a. Nossos maiores desafios foram oferecer suporte a mais recursos, \u00e0 janela de contexto de 128K e ao aumento do tamanho dos modelos. No p\u00f3s-treinamento, produzimos modelos finais de chat fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT na sigla em ingl\u00eas), amostragem de rejei\u00e7\u00e3o (RS na sigla em ingl\u00eas) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO na sigla em ingl\u00eas). Usamos a gera\u00e7\u00e3o de dados sint\u00e9ticos para produzir a grande maioria de nossos exemplos de SFT, iterando diversas vezes para produzir dados sint\u00e9ticos de qualidade cada vez maior em todos os recursos. Al\u00e9m disso, investimos em m\u00faltiplas t\u00e9cnicas de processamento de dados para filtrar esses dados sint\u00e9ticos com a mais alta qualidade. Isso nos permite dimensionar a quantidade de dados de ajuste fino entre recursos.\u00a0 Equilibramos cuidadosamente os dados para produzir um modelo com alta qualidade em todos os recursos. Por exemplo, mantemos a qualidade do nosso modelo em benchmarks de contexto curto, mesmo quando estendemos para o contexto de 128K. Da mesma forma, nosso modelo continua a fornecer respostas extremamente \u00fateis, mesmo quando adicionamos mitiga\u00e7\u00f5es de seguran\u00e7a. O sistema Llama Os modelos Llama sempre foram planejados para funcionar como parte de um sistema geral que pode orquestrar v\u00e1rios componentes, incluindo a chamada de ferramentas externas. Nossa vis\u00e3o \u00e9 ir al\u00e9m dos modelos b\u00e1sicos para dar aos desenvolvedores acesso a um sistema mais amplo que lhes d\u00ea flexibilidade para projetar e criar ofertas personalizadas que se alinhem com sua vis\u00e3o. Esse pensamento come\u00e7ou no ano passado, quando introduzimos pela primeira vez a incorpora\u00e7\u00e3o de componentes fora do LLM principal. Como parte de nossos esfor\u00e7os cont\u00ednuos para desenvolver IA de forma respons\u00e1vel al\u00e9m da camada do modelo e ajudar outros a fazer o mesmo, estamos lan\u00e7ando um sistema de refer\u00eancia completo que inclui v\u00e1rios aplicativos de amostra, al\u00e9m de novos componentes, como o Llama Guard 3, um modelo de seguran\u00e7a multil\u00edngue e Prompt Guard, um filtro de inje\u00e7\u00e3o imediata. Esses aplicativos de amostra s\u00e3o de c\u00f3digo aberto e podem ser desenvolvidos pela comunidade.\u00a0\u00a0\u00a0 A implementa\u00e7\u00e3o dos componentes desta vis\u00e3o do Sistema Llama ainda \u00e9 fragmentada. \u00c9 por isso que come\u00e7amos a trabalhar com a ind\u00fastria, startups e a comunidade em geral para ajudar a definir melhor as interfaces desses componentes. Para apoiar isso, estamos lan\u00e7ando uma solicita\u00e7\u00e3o de coment\u00e1rio no GitHub para o que chamamos de \u201cLlama Stack\u201d. Llama Stack \u00e9 um conjunto de interfaces padronizadas e opinativas sobre como construir componentes can\u00f4nicos do conjunto de ferramentas (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) e aplicativos de agente. A nossa esperan\u00e7a \u00e9 que estes sejam adotados em todo o ecossistema, o que dever\u00e1 ajudar a facilitar a interoperabilidade.\u00a0 Agradecemos coment\u00e1rios e formas de melhorar a proposta. Estamos entusiasmados em expandir o ecossistema em torno do Llama e reduzir as barreiras para desenvolvedores e fornecedores de plataforma. A abertura impulsiona a inova\u00e7\u00e3o Ao contr\u00e1rio dos modelos fechados, o Llama est\u00e1 dispon\u00edvel para download. Os desenvolvedores podem personalizar totalmente os modelos de acordo com suas necessidades e aplica\u00e7\u00f5es, treinar em novos conjuntos de dados e realizar ajustes adicionais. Isso permite que a comunidade mais ampla de desenvolvedores e o mundo compreendam mais plenamente o poder da IA \u200b\u200bgenerativa. Os desenvolvedores podem personalizar totalmente seus aplicativos e execut\u00e1-los em qualquer ambiente, inclusive on-premise, na nuvem ou at\u00e9 mesmo localmente em um laptop \u2013 tudo isso sem compartilhar dados com a Meta.\u00a0 Embora muitos possam argumentar que os modelos fechados s\u00e3o mais econ\u00f4micos, os modelos Llama oferecem um dos custos por token mais baixos do setor, de acordo com testes da Artificial Analysis. E, como observou Mark Zuckerberg, o c\u00f3digo aberto garantir\u00e1 que mais pessoas em todo o mundo tenham acesso aos benef\u00edcios e oportunidades da IA, que o poder n\u00e3o esteja concentrado nas m\u00e3os de poucos e que a tecnologia possa ser implementada de forma mais uniforme e segura em toda a sociedade. \u00c9 por isso que continuamos a tomar medidas ao longo do caminho para que a IA de acesso aberto se torne o padr\u00e3o da ind\u00fastria. Vimos a comunidade construir coisas incr\u00edveis com modelos anteriores do Llama, incluindo um companheiro de estudo de IA criado com o Llama e implementado no WhatsApp e no Messenger, um LLM adaptado \u00e0 \u00e1rea m\u00e9dica projetado para ajudar na tomada de decis\u00f5es cl\u00ednicas, e uma organiza\u00e7\u00e3o sem fins lucrativos de sa\u00fade no Brasil que disponibiliza ao sistema de sa\u00fade a organiza\u00e7\u00e3o e comunica\u00e7\u00e3o de informa\u00e7\u00f5es dos pacientes sobre sua interna\u00e7\u00e3o, tudo com seguran\u00e7a de dados. Mal podemos esperar para ver o que a comunidade construir\u00e1 com nossos modelos mais recentes, gra\u00e7as ao poder do c\u00f3digo aberto. Construindo com Llama 3.1 405B Para o desenvolvedor m\u00e9dio, usar um modelo na escala do 405B \u00e9 um desafio. Embora seja um modelo incrivelmente poderoso, reconhecemos que requer recursos computacionais e experi\u00eancia significativos para trabalhar. Conversamos com a comunidade e percebemos que h\u00e1 muito mais no desenvolvimento de IA generativa do que apenas modelos de est\u00edmulo. Queremos permitir que todos aproveitem ao m\u00e1ximo o 405B, incluindo: Infer\u00eancia em tempo real e em lote Ajuste fino supervisionado Avalia\u00e7\u00e3o do seu modelo para sua aplica\u00e7\u00e3o espec\u00edfica Pr\u00e9-treinamento cont\u00ednuo Gera\u00e7\u00e3o Aumentada de Recupera\u00e7\u00e3o (RAG na sigla em ingl\u00eas)\u00a0 Chamada de fun\u00e7\u00e3o Gera\u00e7\u00e3o de dados sint\u00e9ticos \u00c9 aqui que o ecossistema Llama pode ajudar. A partir do primeiro dia, os desenvolvedores j\u00e1 podem aproveitar todos os recursos avan\u00e7ados do modelo 405B e come\u00e7ar a construir imediatamente. Os desenvolvedores tamb\u00e9m podem explorar fluxos de trabalho avan\u00e7ados, como gera\u00e7\u00e3o de dados sint\u00e9ticos f\u00e1ceis de usar, seguir instru\u00e7\u00f5es prontas para destila\u00e7\u00e3o de modelos e habilitar RAG cont\u00ednuo com solu\u00e7\u00f5es de parceiros, incluindo AWS, NVIDIA e Databricks. Al\u00e9m disso, a Groq otimizou a infer\u00eancia de baixa lat\u00eancia para implementa\u00e7\u00f5es em nuvem, com a Dell alcan\u00e7ando otimiza\u00e7\u00f5es semelhantes para sistemas locais. Trabalhamos com projetos comunit\u00e1rios importantes, como vLLM, TensorRT e PyTorch, para dar suporte desde o primeiro dia e garantir que a comunidade esteja pronta para a implementa\u00e7\u00e3o em produ\u00e7\u00e3o.\u00a0 Esperamos que o nosso lan\u00e7amento do 405B tamb\u00e9m estimule a inova\u00e7\u00e3o em toda a comunidade para facilitar a infer\u00eancia e o ajuste fino de modelos desta escala, al\u00e9m de permitir a pr\u00f3xima onda de pesquisa em destila\u00e7\u00e3o de modelos. Experimente hoje mesmo a cole\u00e7\u00e3o de modelos Llama 3.1 Mal podemos esperar para ver o que a comunidade far\u00e1 com este trabalho. H\u00e1 muito potencial para construir novas experi\u00eancias \u00fateis usando o multilinguismo e o aumento da extens\u00e3o do contexto. Com o Llama Stack e as novas ferramentas de seguran\u00e7a, esperamos continuar a construir junto com a comunidade de c\u00f3digo aberto de forma respons\u00e1vel. Antes de lan\u00e7ar um modelo, trabalhamos para identificar, avaliar e mitigar riscos potenciais por meio de diversas medidas, incluindo exerc\u00edcios de descoberta de riscos pr\u00e9-implementa\u00e7\u00e3o por meio de red teaming e ajustes de seguran\u00e7a. Por exemplo, conduzimos um extenso red teaming com especialistas externos e internos para testar a resist\u00eancia dos modelos e encontrar maneiras inesperadas de us\u00e1-los. (Leia mais sobre como estamos dimensionando nossa cole\u00e7\u00e3o de modelos Llama 3.1 de forma respons\u00e1vel neste blog) Embora este seja o nosso maior modelo at\u00e9 agora, acreditamos que ainda h\u00e1 muito terreno novo para explorar no futuro, incluindo tamanhos mais amig\u00e1veis \u200b\u200baos dispositivos, modalidades adicionais e mais investimento na camada da plataforma do agente. Como sempre, estamos ansiosos para ver todos os produtos e experi\u00eancias incr\u00edveis que a comunidade construir\u00e1 com esses modelos.\u00a0 Este trabalho foi apoiado pelos nossos parceiros da comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI e UC Berkeley &#8211; vLLM Project. &nbsp; Experimente o Llama 3.1 Leia o artigo sobre o Llama 3.1 Visite o reposit\u00f3rio do Llama no GitHub Fa\u00e7a o download do Llama 3.1 no Hugging Face","protected":false},"author":164097234,"featured_media":25695,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-25688","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"At\u00e9 hoje, os grandes modelos de linguagem de c\u00f3digo aberto ficavam atr\u00e1s de seus equivalentes fechados quando se trata de recursos e desempenho. Agora, estamos inaugurando uma nova era com o c\u00f3digo aberto liderando o caminho. Estamos lan\u00e7ando publicamente o Llama 3.1 405B, que acreditamos ser o maior e mais capaz modelo de base dispon\u00edvel abertamente no mundo. Com mais de 300 milh\u00f5es de downloads totais de todas as vers\u00f5es do Llama at\u00e9 o momento, estamos apenas come\u00e7ando. Apresentando o Llama 3.1 O Llama 3.1 405B \u00e9 o primeiro modelo dispon\u00edvel abertamente que rivaliza com os principais modelos de IA quando se trata de recursos de \u00faltima gera\u00e7\u00e3o em conhecimento geral, capacidade de dire\u00e7\u00e3o, matem\u00e1tica, uso de ferramentas e tradu\u00e7\u00e3o multil\u00edngue. Com o lan\u00e7amento do modelo 405B, estamos preparados para impulsionar a inova\u00e7\u00e3o \u2013 com oportunidades sem precedentes de crescimento e explora\u00e7\u00e3o. Acreditamos que a \u00faltima gera\u00e7\u00e3o do Llama ir\u00e1 desencadear novas aplica\u00e7\u00f5es e paradigmas de modelagem, incluindo a gera\u00e7\u00e3o de dados sint\u00e9ticos para permitir a melhoria e o treinamento de modelos menores, bem como a destila\u00e7\u00e3o de modelos \u2013 uma capacidade que nunca foi alcan\u00e7ada nesta escala em c\u00f3digo aberto. Como parte deste \u00faltimo lan\u00e7amento, apresentamos vers\u00f5es atualizadas dos modelos 8B e 70B. Eles s\u00e3o multil\u00edngues e t\u00eam um comprimento de contexto significativamente maior, de 128K, uso de ferramentas de \u00faltima gera\u00e7\u00e3o e recursos de racioc\u00ednio mais fortes em geral. Isso permite que nossos modelos mais recentes ofere\u00e7am suporte a casos de uso avan\u00e7ados, como resumo de textos longos, agentes de conversa\u00e7\u00e3o multil\u00edngues e assistentes de codifica\u00e7\u00e3o. Tamb\u00e9m fizemos altera\u00e7\u00f5es em nossa licen\u00e7a, permitindo que os desenvolvedores usem os resultados dos modelos Llama \u2013 incluindo o 405B \u2013 para melhorar outros modelos. Fi\u00e9is ao nosso compromisso com o c\u00f3digo aberto, a partir de hoje estamos disponibilizando esses modelos para a comunidade para download em llama.meta.com e Hugging Face, al\u00e9m de estarem dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas parceiras. Avalia\u00e7\u00f5es do modelo\u00a0 Para esta vers\u00e3o, avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Al\u00e9m disso, realizamos extensas avalia\u00e7\u00f5es humanas que comparam o Llama 3.1 com modelos concorrentes em cen\u00e1rios do mundo real. Nossa avalia\u00e7\u00e3o experimental sugere que nosso modelo principal \u00e9 competitivo com os principais modelos de base em uma s\u00e9rie de tarefas, incluindo GPT-4, GPT-4o e Claude 3.5 Sonnet. Al\u00e9m disso, nossos modelos menores s\u00e3o competitivos com modelos fechados e abertos que possuem um n\u00famero semelhante de par\u00e2metros. Arquitetura do modelo Como nosso maior modelo at\u00e9 agora, treinar o Llama 3.1 405B em mais de 15 trilh\u00f5es de tokens foi um grande desafio. Para permitir execu\u00e7\u00f5es de treinamento nesta escala e alcan\u00e7ar os resultados que temos em um per\u00edodo de tempo razo\u00e1vel, otimizamos significativamente toda a nossa estrutura de treinamento e aumentamos o treinamento do nosso modelo para mais de 16 mil GPUs H100, tornando o 405B o primeiro modelo Llama treinado nesta escala. Para resolver isso, fizemos escolhas de design que se concentram em manter o processo de desenvolvimento do modelo escal\u00e1vel e direto.\u00a0 Optamos por um padr\u00e3o de arquitetura de modelo de transformador decoder-only, com pequenas adapta\u00e7\u00f5es, em vez de um modelo misto de especialistas para maximizar a estabilidade do treinamento.\u00a0 Adotamos um procedimento iterativo de p\u00f3s-treinamento, onde cada rodada utiliza ajuste fino supervisionado e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Isso nos permitiu criar dados sint\u00e9ticos da mais alta qualidade para cada rodada e melhorar o desempenho de cada capacidade. Em compara\u00e7\u00e3o com as vers\u00f5es anteriores do Llama, melhoramos a quantidade e a qualidade dos dados que usamos no pr\u00e9 e p\u00f3s-treinamento. Essas melhorias incluem o desenvolvimento de pipelines de pr\u00e9-processamento e curadoria mais cuidadosos para dados de pr\u00e9-treinamento, o desenvolvimento de garantia de qualidade mais rigorosa e abordagens de filtragem para dados p\u00f3s-treinamento. Conforme esperado pelas leis de escala para modelos de linguagem, nosso novo modelo principal supera modelos menores treinados usando o mesmo procedimento. Tamb\u00e9m usamos o modelo de par\u00e2metro 405B para melhorar a qualidade p\u00f3s-treinamento de nossos modelos menores. Para apoiar a infer\u00eancia de produ\u00e7\u00e3o em larga escala para um modelo na escala do 405B, quantizamos nossos modelos de 16 bits (BF16) a 8 bits (FP8), reduzindo efetivamente os requisitos de computa\u00e7\u00e3o necess\u00e1rios e permitindo que o modelo seja executado dentro um \u00fanico n\u00f3 de servidor. Ajuste de instru\u00e7\u00f5es e bate-papo\u00a0 Com o Llama 3.1 405B, nos esfor\u00e7amos para melhorar a utilidade, a qualidade e a capacidade de seguir instru\u00e7\u00f5es detalhadas do modelo em resposta \u00e0s instru\u00e7\u00f5es do usu\u00e1rio, garantindo ao mesmo tempo altos n\u00edveis de seguran\u00e7a. Nossos maiores desafios foram oferecer suporte a mais recursos, \u00e0 janela de contexto de 128K e ao aumento do tamanho dos modelos. No p\u00f3s-treinamento, produzimos modelos finais de chat fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT na sigla em ingl\u00eas), amostragem de rejei\u00e7\u00e3o (RS na sigla em ingl\u00eas) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO na sigla em ingl\u00eas). Usamos a gera\u00e7\u00e3o de dados sint\u00e9ticos para produzir a grande maioria de nossos exemplos de SFT, iterando diversas vezes para produzir dados sint\u00e9ticos de qualidade cada vez maior em todos os recursos. Al\u00e9m disso, investimos em m\u00faltiplas t\u00e9cnicas de processamento de dados para filtrar esses dados sint\u00e9ticos com a mais alta qualidade. Isso nos permite dimensionar a quantidade de dados de ajuste fino entre recursos.\u00a0 Equilibramos cuidadosamente os dados para produzir um modelo com alta qualidade em todos os recursos. Por exemplo, mantemos a qualidade do nosso modelo em benchmarks de contexto curto, mesmo quando estendemos para o contexto de 128K. Da mesma forma, nosso modelo continua a fornecer respostas extremamente \u00fateis, mesmo quando adicionamos mitiga\u00e7\u00f5es de seguran\u00e7a. O sistema Llama Os modelos Llama sempre foram planejados para funcionar como parte de um sistema geral que pode orquestrar v\u00e1rios componentes, incluindo a chamada de ferramentas externas. Nossa vis\u00e3o \u00e9 ir al\u00e9m dos modelos b\u00e1sicos para dar aos desenvolvedores acesso a um sistema mais amplo que lhes d\u00ea flexibilidade para projetar e criar ofertas personalizadas que se alinhem com sua vis\u00e3o. Esse pensamento come\u00e7ou no ano passado, quando introduzimos pela primeira vez a incorpora\u00e7\u00e3o de componentes fora do LLM principal. Como parte de nossos esfor\u00e7os cont\u00ednuos para desenvolver IA de forma respons\u00e1vel al\u00e9m da camada do modelo e ajudar outros a fazer o mesmo, estamos lan\u00e7ando um sistema de refer\u00eancia completo que inclui v\u00e1rios aplicativos de amostra, al\u00e9m de novos componentes, como o Llama Guard 3, um modelo de seguran\u00e7a multil\u00edngue e Prompt Guard, um filtro de inje\u00e7\u00e3o imediata. Esses aplicativos de amostra s\u00e3o de c\u00f3digo aberto e podem ser desenvolvidos pela comunidade.\u00a0\u00a0\u00a0 A implementa\u00e7\u00e3o dos componentes desta vis\u00e3o do Sistema Llama ainda \u00e9 fragmentada. \u00c9 por isso que come\u00e7amos a trabalhar com a ind\u00fastria, startups e a comunidade em geral para ajudar a definir melhor as interfaces desses componentes. Para apoiar isso, estamos lan\u00e7ando uma solicita\u00e7\u00e3o de coment\u00e1rio no GitHub para o que chamamos de \u201cLlama Stack\u201d. Llama Stack \u00e9 um conjunto de interfaces padronizadas e opinativas sobre como construir componentes can\u00f4nicos do conjunto de ferramentas (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) e aplicativos de agente. A nossa esperan\u00e7a \u00e9 que estes sejam adotados em todo o ecossistema, o que dever\u00e1 ajudar a facilitar a interoperabilidade.\u00a0 Agradecemos coment\u00e1rios e formas de melhorar a proposta. Estamos entusiasmados em expandir o ecossistema em torno do Llama e reduzir as barreiras para desenvolvedores e fornecedores de plataforma. A abertura impulsiona a inova\u00e7\u00e3o Ao contr\u00e1rio dos modelos fechados, o Llama est\u00e1 dispon\u00edvel para download. Os desenvolvedores podem personalizar totalmente os modelos de acordo com suas necessidades e aplica\u00e7\u00f5es, treinar em novos conjuntos de dados e realizar ajustes adicionais. Isso permite que a comunidade mais ampla de desenvolvedores e o mundo compreendam mais plenamente o poder da IA \u200b\u200bgenerativa. Os desenvolvedores podem personalizar totalmente seus aplicativos e execut\u00e1-los em qualquer ambiente, inclusive on-premise, na nuvem ou at\u00e9 mesmo localmente em um laptop \u2013 tudo isso sem compartilhar dados com a Meta.\u00a0 Embora muitos possam argumentar que os modelos fechados s\u00e3o mais econ\u00f4micos, os modelos Llama oferecem um dos custos por token mais baixos do setor, de acordo com testes da Artificial Analysis. E, como observou Mark Zuckerberg, o c\u00f3digo aberto garantir\u00e1 que mais pessoas em todo o mundo tenham acesso aos benef\u00edcios e oportunidades da IA, que o poder n\u00e3o esteja concentrado nas m\u00e3os de poucos e que a tecnologia possa ser implementada de forma mais uniforme e segura em toda a sociedade. \u00c9 por isso que continuamos a tomar medidas ao longo do caminho para que a IA de acesso aberto se torne o padr\u00e3o da ind\u00fastria. Vimos a comunidade construir coisas incr\u00edveis com modelos anteriores do Llama, incluindo um companheiro de estudo de IA criado com o Llama e implementado no WhatsApp e no Messenger, um LLM adaptado \u00e0 \u00e1rea m\u00e9dica projetado para ajudar na tomada de decis\u00f5es cl\u00ednicas, e uma organiza\u00e7\u00e3o sem fins lucrativos de sa\u00fade no Brasil que disponibiliza ao sistema de sa\u00fade a organiza\u00e7\u00e3o e comunica\u00e7\u00e3o de informa\u00e7\u00f5es dos pacientes sobre sua interna\u00e7\u00e3o, tudo com seguran\u00e7a de dados. Mal podemos esperar para ver o que a comunidade construir\u00e1 com nossos modelos mais recentes, gra\u00e7as ao poder do c\u00f3digo aberto. Construindo com Llama 3.1 405B Para o desenvolvedor m\u00e9dio, usar um modelo na escala do 405B \u00e9 um desafio. Embora seja um modelo incrivelmente poderoso, reconhecemos que requer recursos computacionais e experi\u00eancia significativos para trabalhar. Conversamos com a comunidade e percebemos que h\u00e1 muito mais no desenvolvimento de IA generativa do que apenas modelos de est\u00edmulo. Queremos permitir que todos aproveitem ao m\u00e1ximo o 405B, incluindo: Infer\u00eancia em tempo real e em lote Ajuste fino supervisionado Avalia\u00e7\u00e3o do seu modelo para sua aplica\u00e7\u00e3o espec\u00edfica Pr\u00e9-treinamento cont\u00ednuo Gera\u00e7\u00e3o Aumentada de Recupera\u00e7\u00e3o (RAG na sigla em ingl\u00eas)\u00a0 Chamada de fun\u00e7\u00e3o Gera\u00e7\u00e3o de dados sint\u00e9ticos \u00c9 aqui que o ecossistema Llama pode ajudar. A partir do primeiro dia, os desenvolvedores j\u00e1 podem aproveitar todos os recursos avan\u00e7ados do modelo 405B e come\u00e7ar a construir imediatamente. Os desenvolvedores tamb\u00e9m podem explorar fluxos de trabalho avan\u00e7ados, como gera\u00e7\u00e3o de dados sint\u00e9ticos f\u00e1ceis de usar, seguir instru\u00e7\u00f5es prontas para destila\u00e7\u00e3o de modelos e habilitar RAG cont\u00ednuo com solu\u00e7\u00f5es de parceiros, incluindo AWS, NVIDIA e Databricks. Al\u00e9m disso, a Groq otimizou a infer\u00eancia de baixa lat\u00eancia para implementa\u00e7\u00f5es em nuvem, com a Dell alcan\u00e7ando otimiza\u00e7\u00f5es semelhantes para sistemas locais. Trabalhamos com projetos comunit\u00e1rios importantes, como vLLM, TensorRT e PyTorch, para dar suporte desde o primeiro dia e garantir que a comunidade esteja pronta para a implementa\u00e7\u00e3o em produ\u00e7\u00e3o.\u00a0 Esperamos que o nosso lan\u00e7amento do 405B tamb\u00e9m estimule a inova\u00e7\u00e3o em toda a comunidade para facilitar a infer\u00eancia e o ajuste fino de modelos desta escala, al\u00e9m de permitir a pr\u00f3xima onda de pesquisa em destila\u00e7\u00e3o de modelos. Experimente hoje mesmo a cole\u00e7\u00e3o de modelos Llama 3.1 Mal podemos esperar para ver o que a comunidade far\u00e1 com este trabalho. H\u00e1 muito potencial para construir novas experi\u00eancias \u00fateis usando o multilinguismo e o aumento da extens\u00e3o do contexto. Com o Llama Stack e as novas ferramentas de seguran\u00e7a, esperamos continuar a construir junto com a comunidade de c\u00f3digo aberto de forma respons\u00e1vel. Antes de lan\u00e7ar um modelo, trabalhamos para identificar, avaliar e mitigar riscos potenciais por meio de diversas medidas, incluindo exerc\u00edcios de descoberta de riscos pr\u00e9-implementa\u00e7\u00e3o por meio de red teaming e ajustes de seguran\u00e7a. Por exemplo, conduzimos um extenso red teaming com especialistas externos e internos para testar a resist\u00eancia dos modelos e encontrar maneiras inesperadas de us\u00e1-los. (Leia mais sobre como estamos dimensionando nossa cole\u00e7\u00e3o de modelos Llama 3.1 de forma respons\u00e1vel neste blog) Embora este seja o nosso maior modelo at\u00e9 agora, acreditamos que ainda h\u00e1 muito terreno novo para explorar no futuro, incluindo tamanhos mais amig\u00e1veis \u200b\u200baos dispositivos, modalidades adicionais e mais investimento na camada da plataforma do agente. Como sempre, estamos ansiosos para ver todos os produtos e experi\u00eancias incr\u00edveis que a comunidade construir\u00e1 com esses modelos.\u00a0 Este trabalho foi apoiado pelos nossos parceiros da comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI e UC Berkeley &#8211; vLLM Project. &nbsp; Experimente o Llama 3.1 Leia o artigo sobre o Llama 3.1 Visite o reposit\u00f3rio do Llama no GitHub Fa\u00e7a o download do Llama 3.1 no Hugging Face\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-07-23T15:30:03+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\"},\"author\":\"Facebook company\",\"headline\":\"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento\",\"datePublished\":\"2024-07-23T15:30:03+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\"},\"wordCount\":2291,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\",\"name\":\"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080\",\"datePublished\":\"2024-07-23T15:30:03+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/","og_locale":"pt_BR","og_type":"article","og_title":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta","og_description":"At\u00e9 hoje, os grandes modelos de linguagem de c\u00f3digo aberto ficavam atr\u00e1s de seus equivalentes fechados quando se trata de recursos e desempenho. Agora, estamos inaugurando uma nova era com o c\u00f3digo aberto liderando o caminho. Estamos lan\u00e7ando publicamente o Llama 3.1 405B, que acreditamos ser o maior e mais capaz modelo de base dispon\u00edvel abertamente no mundo. Com mais de 300 milh\u00f5es de downloads totais de todas as vers\u00f5es do Llama at\u00e9 o momento, estamos apenas come\u00e7ando. Apresentando o Llama 3.1 O Llama 3.1 405B \u00e9 o primeiro modelo dispon\u00edvel abertamente que rivaliza com os principais modelos de IA quando se trata de recursos de \u00faltima gera\u00e7\u00e3o em conhecimento geral, capacidade de dire\u00e7\u00e3o, matem\u00e1tica, uso de ferramentas e tradu\u00e7\u00e3o multil\u00edngue. Com o lan\u00e7amento do modelo 405B, estamos preparados para impulsionar a inova\u00e7\u00e3o \u2013 com oportunidades sem precedentes de crescimento e explora\u00e7\u00e3o. Acreditamos que a \u00faltima gera\u00e7\u00e3o do Llama ir\u00e1 desencadear novas aplica\u00e7\u00f5es e paradigmas de modelagem, incluindo a gera\u00e7\u00e3o de dados sint\u00e9ticos para permitir a melhoria e o treinamento de modelos menores, bem como a destila\u00e7\u00e3o de modelos \u2013 uma capacidade que nunca foi alcan\u00e7ada nesta escala em c\u00f3digo aberto. Como parte deste \u00faltimo lan\u00e7amento, apresentamos vers\u00f5es atualizadas dos modelos 8B e 70B. Eles s\u00e3o multil\u00edngues e t\u00eam um comprimento de contexto significativamente maior, de 128K, uso de ferramentas de \u00faltima gera\u00e7\u00e3o e recursos de racioc\u00ednio mais fortes em geral. Isso permite que nossos modelos mais recentes ofere\u00e7am suporte a casos de uso avan\u00e7ados, como resumo de textos longos, agentes de conversa\u00e7\u00e3o multil\u00edngues e assistentes de codifica\u00e7\u00e3o. Tamb\u00e9m fizemos altera\u00e7\u00f5es em nossa licen\u00e7a, permitindo que os desenvolvedores usem os resultados dos modelos Llama \u2013 incluindo o 405B \u2013 para melhorar outros modelos. Fi\u00e9is ao nosso compromisso com o c\u00f3digo aberto, a partir de hoje estamos disponibilizando esses modelos para a comunidade para download em llama.meta.com e Hugging Face, al\u00e9m de estarem dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas parceiras. Avalia\u00e7\u00f5es do modelo\u00a0 Para esta vers\u00e3o, avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Al\u00e9m disso, realizamos extensas avalia\u00e7\u00f5es humanas que comparam o Llama 3.1 com modelos concorrentes em cen\u00e1rios do mundo real. Nossa avalia\u00e7\u00e3o experimental sugere que nosso modelo principal \u00e9 competitivo com os principais modelos de base em uma s\u00e9rie de tarefas, incluindo GPT-4, GPT-4o e Claude 3.5 Sonnet. Al\u00e9m disso, nossos modelos menores s\u00e3o competitivos com modelos fechados e abertos que possuem um n\u00famero semelhante de par\u00e2metros. Arquitetura do modelo Como nosso maior modelo at\u00e9 agora, treinar o Llama 3.1 405B em mais de 15 trilh\u00f5es de tokens foi um grande desafio. Para permitir execu\u00e7\u00f5es de treinamento nesta escala e alcan\u00e7ar os resultados que temos em um per\u00edodo de tempo razo\u00e1vel, otimizamos significativamente toda a nossa estrutura de treinamento e aumentamos o treinamento do nosso modelo para mais de 16 mil GPUs H100, tornando o 405B o primeiro modelo Llama treinado nesta escala. Para resolver isso, fizemos escolhas de design que se concentram em manter o processo de desenvolvimento do modelo escal\u00e1vel e direto.\u00a0 Optamos por um padr\u00e3o de arquitetura de modelo de transformador decoder-only, com pequenas adapta\u00e7\u00f5es, em vez de um modelo misto de especialistas para maximizar a estabilidade do treinamento.\u00a0 Adotamos um procedimento iterativo de p\u00f3s-treinamento, onde cada rodada utiliza ajuste fino supervisionado e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Isso nos permitiu criar dados sint\u00e9ticos da mais alta qualidade para cada rodada e melhorar o desempenho de cada capacidade. Em compara\u00e7\u00e3o com as vers\u00f5es anteriores do Llama, melhoramos a quantidade e a qualidade dos dados que usamos no pr\u00e9 e p\u00f3s-treinamento. Essas melhorias incluem o desenvolvimento de pipelines de pr\u00e9-processamento e curadoria mais cuidadosos para dados de pr\u00e9-treinamento, o desenvolvimento de garantia de qualidade mais rigorosa e abordagens de filtragem para dados p\u00f3s-treinamento. Conforme esperado pelas leis de escala para modelos de linguagem, nosso novo modelo principal supera modelos menores treinados usando o mesmo procedimento. Tamb\u00e9m usamos o modelo de par\u00e2metro 405B para melhorar a qualidade p\u00f3s-treinamento de nossos modelos menores. Para apoiar a infer\u00eancia de produ\u00e7\u00e3o em larga escala para um modelo na escala do 405B, quantizamos nossos modelos de 16 bits (BF16) a 8 bits (FP8), reduzindo efetivamente os requisitos de computa\u00e7\u00e3o necess\u00e1rios e permitindo que o modelo seja executado dentro um \u00fanico n\u00f3 de servidor. Ajuste de instru\u00e7\u00f5es e bate-papo\u00a0 Com o Llama 3.1 405B, nos esfor\u00e7amos para melhorar a utilidade, a qualidade e a capacidade de seguir instru\u00e7\u00f5es detalhadas do modelo em resposta \u00e0s instru\u00e7\u00f5es do usu\u00e1rio, garantindo ao mesmo tempo altos n\u00edveis de seguran\u00e7a. Nossos maiores desafios foram oferecer suporte a mais recursos, \u00e0 janela de contexto de 128K e ao aumento do tamanho dos modelos. No p\u00f3s-treinamento, produzimos modelos finais de chat fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT na sigla em ingl\u00eas), amostragem de rejei\u00e7\u00e3o (RS na sigla em ingl\u00eas) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO na sigla em ingl\u00eas). Usamos a gera\u00e7\u00e3o de dados sint\u00e9ticos para produzir a grande maioria de nossos exemplos de SFT, iterando diversas vezes para produzir dados sint\u00e9ticos de qualidade cada vez maior em todos os recursos. Al\u00e9m disso, investimos em m\u00faltiplas t\u00e9cnicas de processamento de dados para filtrar esses dados sint\u00e9ticos com a mais alta qualidade. Isso nos permite dimensionar a quantidade de dados de ajuste fino entre recursos.\u00a0 Equilibramos cuidadosamente os dados para produzir um modelo com alta qualidade em todos os recursos. Por exemplo, mantemos a qualidade do nosso modelo em benchmarks de contexto curto, mesmo quando estendemos para o contexto de 128K. Da mesma forma, nosso modelo continua a fornecer respostas extremamente \u00fateis, mesmo quando adicionamos mitiga\u00e7\u00f5es de seguran\u00e7a. O sistema Llama Os modelos Llama sempre foram planejados para funcionar como parte de um sistema geral que pode orquestrar v\u00e1rios componentes, incluindo a chamada de ferramentas externas. Nossa vis\u00e3o \u00e9 ir al\u00e9m dos modelos b\u00e1sicos para dar aos desenvolvedores acesso a um sistema mais amplo que lhes d\u00ea flexibilidade para projetar e criar ofertas personalizadas que se alinhem com sua vis\u00e3o. Esse pensamento come\u00e7ou no ano passado, quando introduzimos pela primeira vez a incorpora\u00e7\u00e3o de componentes fora do LLM principal. Como parte de nossos esfor\u00e7os cont\u00ednuos para desenvolver IA de forma respons\u00e1vel al\u00e9m da camada do modelo e ajudar outros a fazer o mesmo, estamos lan\u00e7ando um sistema de refer\u00eancia completo que inclui v\u00e1rios aplicativos de amostra, al\u00e9m de novos componentes, como o Llama Guard 3, um modelo de seguran\u00e7a multil\u00edngue e Prompt Guard, um filtro de inje\u00e7\u00e3o imediata. Esses aplicativos de amostra s\u00e3o de c\u00f3digo aberto e podem ser desenvolvidos pela comunidade.\u00a0\u00a0\u00a0 A implementa\u00e7\u00e3o dos componentes desta vis\u00e3o do Sistema Llama ainda \u00e9 fragmentada. \u00c9 por isso que come\u00e7amos a trabalhar com a ind\u00fastria, startups e a comunidade em geral para ajudar a definir melhor as interfaces desses componentes. Para apoiar isso, estamos lan\u00e7ando uma solicita\u00e7\u00e3o de coment\u00e1rio no GitHub para o que chamamos de \u201cLlama Stack\u201d. Llama Stack \u00e9 um conjunto de interfaces padronizadas e opinativas sobre como construir componentes can\u00f4nicos do conjunto de ferramentas (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) e aplicativos de agente. A nossa esperan\u00e7a \u00e9 que estes sejam adotados em todo o ecossistema, o que dever\u00e1 ajudar a facilitar a interoperabilidade.\u00a0 Agradecemos coment\u00e1rios e formas de melhorar a proposta. Estamos entusiasmados em expandir o ecossistema em torno do Llama e reduzir as barreiras para desenvolvedores e fornecedores de plataforma. A abertura impulsiona a inova\u00e7\u00e3o Ao contr\u00e1rio dos modelos fechados, o Llama est\u00e1 dispon\u00edvel para download. Os desenvolvedores podem personalizar totalmente os modelos de acordo com suas necessidades e aplica\u00e7\u00f5es, treinar em novos conjuntos de dados e realizar ajustes adicionais. Isso permite que a comunidade mais ampla de desenvolvedores e o mundo compreendam mais plenamente o poder da IA \u200b\u200bgenerativa. Os desenvolvedores podem personalizar totalmente seus aplicativos e execut\u00e1-los em qualquer ambiente, inclusive on-premise, na nuvem ou at\u00e9 mesmo localmente em um laptop \u2013 tudo isso sem compartilhar dados com a Meta.\u00a0 Embora muitos possam argumentar que os modelos fechados s\u00e3o mais econ\u00f4micos, os modelos Llama oferecem um dos custos por token mais baixos do setor, de acordo com testes da Artificial Analysis. E, como observou Mark Zuckerberg, o c\u00f3digo aberto garantir\u00e1 que mais pessoas em todo o mundo tenham acesso aos benef\u00edcios e oportunidades da IA, que o poder n\u00e3o esteja concentrado nas m\u00e3os de poucos e que a tecnologia possa ser implementada de forma mais uniforme e segura em toda a sociedade. \u00c9 por isso que continuamos a tomar medidas ao longo do caminho para que a IA de acesso aberto se torne o padr\u00e3o da ind\u00fastria. Vimos a comunidade construir coisas incr\u00edveis com modelos anteriores do Llama, incluindo um companheiro de estudo de IA criado com o Llama e implementado no WhatsApp e no Messenger, um LLM adaptado \u00e0 \u00e1rea m\u00e9dica projetado para ajudar na tomada de decis\u00f5es cl\u00ednicas, e uma organiza\u00e7\u00e3o sem fins lucrativos de sa\u00fade no Brasil que disponibiliza ao sistema de sa\u00fade a organiza\u00e7\u00e3o e comunica\u00e7\u00e3o de informa\u00e7\u00f5es dos pacientes sobre sua interna\u00e7\u00e3o, tudo com seguran\u00e7a de dados. Mal podemos esperar para ver o que a comunidade construir\u00e1 com nossos modelos mais recentes, gra\u00e7as ao poder do c\u00f3digo aberto. Construindo com Llama 3.1 405B Para o desenvolvedor m\u00e9dio, usar um modelo na escala do 405B \u00e9 um desafio. Embora seja um modelo incrivelmente poderoso, reconhecemos que requer recursos computacionais e experi\u00eancia significativos para trabalhar. Conversamos com a comunidade e percebemos que h\u00e1 muito mais no desenvolvimento de IA generativa do que apenas modelos de est\u00edmulo. Queremos permitir que todos aproveitem ao m\u00e1ximo o 405B, incluindo: Infer\u00eancia em tempo real e em lote Ajuste fino supervisionado Avalia\u00e7\u00e3o do seu modelo para sua aplica\u00e7\u00e3o espec\u00edfica Pr\u00e9-treinamento cont\u00ednuo Gera\u00e7\u00e3o Aumentada de Recupera\u00e7\u00e3o (RAG na sigla em ingl\u00eas)\u00a0 Chamada de fun\u00e7\u00e3o Gera\u00e7\u00e3o de dados sint\u00e9ticos \u00c9 aqui que o ecossistema Llama pode ajudar. A partir do primeiro dia, os desenvolvedores j\u00e1 podem aproveitar todos os recursos avan\u00e7ados do modelo 405B e come\u00e7ar a construir imediatamente. Os desenvolvedores tamb\u00e9m podem explorar fluxos de trabalho avan\u00e7ados, como gera\u00e7\u00e3o de dados sint\u00e9ticos f\u00e1ceis de usar, seguir instru\u00e7\u00f5es prontas para destila\u00e7\u00e3o de modelos e habilitar RAG cont\u00ednuo com solu\u00e7\u00f5es de parceiros, incluindo AWS, NVIDIA e Databricks. Al\u00e9m disso, a Groq otimizou a infer\u00eancia de baixa lat\u00eancia para implementa\u00e7\u00f5es em nuvem, com a Dell alcan\u00e7ando otimiza\u00e7\u00f5es semelhantes para sistemas locais. Trabalhamos com projetos comunit\u00e1rios importantes, como vLLM, TensorRT e PyTorch, para dar suporte desde o primeiro dia e garantir que a comunidade esteja pronta para a implementa\u00e7\u00e3o em produ\u00e7\u00e3o.\u00a0 Esperamos que o nosso lan\u00e7amento do 405B tamb\u00e9m estimule a inova\u00e7\u00e3o em toda a comunidade para facilitar a infer\u00eancia e o ajuste fino de modelos desta escala, al\u00e9m de permitir a pr\u00f3xima onda de pesquisa em destila\u00e7\u00e3o de modelos. Experimente hoje mesmo a cole\u00e7\u00e3o de modelos Llama 3.1 Mal podemos esperar para ver o que a comunidade far\u00e1 com este trabalho. H\u00e1 muito potencial para construir novas experi\u00eancias \u00fateis usando o multilinguismo e o aumento da extens\u00e3o do contexto. Com o Llama Stack e as novas ferramentas de seguran\u00e7a, esperamos continuar a construir junto com a comunidade de c\u00f3digo aberto de forma respons\u00e1vel. Antes de lan\u00e7ar um modelo, trabalhamos para identificar, avaliar e mitigar riscos potenciais por meio de diversas medidas, incluindo exerc\u00edcios de descoberta de riscos pr\u00e9-implementa\u00e7\u00e3o por meio de red teaming e ajustes de seguran\u00e7a. Por exemplo, conduzimos um extenso red teaming com especialistas externos e internos para testar a resist\u00eancia dos modelos e encontrar maneiras inesperadas de us\u00e1-los. (Leia mais sobre como estamos dimensionando nossa cole\u00e7\u00e3o de modelos Llama 3.1 de forma respons\u00e1vel neste blog) Embora este seja o nosso maior modelo at\u00e9 agora, acreditamos que ainda h\u00e1 muito terreno novo para explorar no futuro, incluindo tamanhos mais amig\u00e1veis \u200b\u200baos dispositivos, modalidades adicionais e mais investimento na camada da plataforma do agente. Como sempre, estamos ansiosos para ver todos os produtos e experi\u00eancias incr\u00edveis que a comunidade construir\u00e1 com esses modelos.\u00a0 Este trabalho foi apoiado pelos nossos parceiros da comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI e UC Berkeley &#8211; vLLM Project. &nbsp; Experimente o Llama 3.1 Leia o artigo sobre o Llama 3.1 Visite o reposit\u00f3rio do Llama no GitHub Fa\u00e7a o download do Llama 3.1 no Hugging Face","og_url":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/","og_site_name":"Sobre a Meta","article_published_time":"2024-07-23T15:30:03+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?resize=1024,576","type":"image\/png"}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/"},"author":"Facebook company","headline":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento","datePublished":"2024-07-23T15:30:03+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/"},"wordCount":2291,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/","url":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/","name":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080","datePublished":"2024-07-23T15:30:03+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2024\/07\/apresentando-o-llama-3-1-nossos-modelos-mais-capazes-ate-o-momento\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Apresentando o Llama 3.1: nossos modelos mais capazes at\u00e9 o momento"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/07\/452380335_1646136526224716_2406884886416151566_n.png?fit=1920%2C1080","jetpack-related-posts":[{"id":26290,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/modelos-llama-4\/","url_meta":{"origin":25688,"position":0},"title":"A Cole\u00e7\u00e3o de Modelos Llama 4: o In\u00edcio de uma nova era de inova\u00e7\u00e3o em IA multimodal nativa","author":"Meta","date":"05\/04\/2025","format":false,"excerpt":"\u00c0 medida que mais pessoas continuam a usar a intelig\u00eancia artificial para melhorar suas vidas di\u00e1rias, \u00e9 importante que os modelos e sistemas l\u00edderes estejam dispon\u00edveis abertamente para que todos possam construir o futuro das experi\u00eancias personalizadas. Hoje, estamos entusiasmados em anunciar a su\u00edte de modelos mais avan\u00e7ada que suporta\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26358,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/tudo-o-que-anunciamos-no-nosso-primeiro-llamacon\/","url_meta":{"origin":25688,"position":1},"title":"Tudo o que anunciamos no nosso primeiro LlamaCon","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"O LlamaCon come\u00e7ou oficialmente. Nosso evento inaugural integra desenvolvedores do mundo todo que t\u00eam algo em comum: a paix\u00e3o por construir com o Llama. J\u00e1 se passaram pouco mais de dois anos desde o lan\u00e7amento do Llama. Nesse per\u00edodo, ultrapassamos a marca de um bilh\u00e3o de downloads e, o mais\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26363,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/nova-escola-esta-entre-os-vencedores-do-llama-impact-grants-usando-ia-para-impulsionar-educacao-publica-no-brasil\/","url_meta":{"origin":25688,"position":2},"title":"Nova Escola est\u00e1 entre os vencedores do Llama Impact Grants, usando IA para impulsionar educa\u00e7\u00e3o p\u00fablica no Brasil","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"Estamos animados em anunciar os 10 vencedores internacionais da segunda edi\u00e7\u00e3o do Llama Impact Grants. As bolsas somam mais de US$ 1,5 milh\u00e3o em premia\u00e7\u00f5es e t\u00eam como objetivo impulsionar a inova\u00e7\u00e3o em empresas, startups e universidades que utilizam o Llama para gerar valor econ\u00f4mico e social. Representando o Brasil\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26252,"url":"https:\/\/about.fb.com\/br\/news\/2025\/03\/celebrando-1-bilhao-de-downloads-do-llama\/","url_meta":{"origin":25688,"position":3},"title":"Celebrando 1 bilh\u00e3o de downloads do Llama","author":"Meta","date":"18\/03\/2025","format":false,"excerpt":"Llama, a nossa cole\u00e7\u00e3o de modelos de Intelig\u00eancia Artificial (IA) com enfoque aberto, acaba de atingir 1 bilh\u00e3o de downloads. A IA de enfoque aberto \u00e9 crucial para garantir que pessoas em todos os lugares tenham acesso aos benef\u00edcios da IA, e cada download do Llama nos aproxima dessa meta.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=700%2C400 2x"},"classes":[]},{"id":26421,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/novo-estudo-mostra-que-a-ia-de-modelo-aberto-e-catalisadora-do-crescimento-economico\/","url_meta":{"origin":25688,"position":4},"title":"Novo estudo mostra que a IA open source \u00e9 catalisadora do crescimento econ\u00f4mico","author":"Meta","date":"21\/05\/2025","format":false,"excerpt":"O novo estudo, \u201cOs impactos econ\u00f4micos e no mercado de trabalho da IA open source\u201d, divulgado hoje pela Linux Foundation (LF) Research e encomendado pela Meta, mostra que muitas organiza\u00e7\u00f5es adotam modelos de IA open source por serem mais econ\u00f4micos. Dois ter\u00e7os das organiza\u00e7\u00f5es entrevistadas acreditam que a IA open\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26185,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/save-the-date-meta-connect-2025-e-nosso-primeiro-llamacon\/","url_meta":{"origin":25688,"position":5},"title":"Save The Date: Meta Connect 2025 e nosso primeiro LlamaCon","author":"Meta","date":"18\/02\/2025","format":false,"excerpt":"O ano passado foi repleto de acontecimentos importantes, com a apresenta\u00e7\u00e3o do Meta Horizon OS, o lan\u00e7amento do Meta Quest 3S e a expans\u00e3o da Meta AI \u2014 e 2025 promete ser ainda mais incr\u00edvel. E, como os meses passam rapidamente, estamos aqui para compartilhar algumas datas importantes para voc\u00ea\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25688","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25688"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25688\/revisions"}],"predecessor-version":[{"id":25705,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25688\/revisions\/25705"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/25695"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25688"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25688"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25688"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}