{"id":25811,"date":"2024-09-25T14:38:49","date_gmt":"2024-09-25T17:38:49","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25811"},"modified":"2024-09-25T15:46:24","modified_gmt":"2024-09-25T18:46:24","slug":"conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/","title":{"rendered":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Estamos animados com o <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/09\/com-um-crescimento-de-10-vezes-desde-2023-o-llama-e-o-principal-motor-de-inovacao-em-ia\/\"><span style=\"font-weight: 400\">impacto que o grupo de modelos Llama 3.1 causou<\/span><\/a><span style=\"font-weight: 400\"> nos dois meses desde que os anunciamos, incluindo o <\/span><a href=\"https:\/\/www.meta.ai\/?utm_source=llama_meta_site&amp;utm_medium=web&amp;utm_content=Llama_nav&amp;utm_campaign=July_moment\"><span style=\"font-weight: 400\">405B<\/span><\/a><span style=\"font-weight: 400\">, o primeiro modelo de IA de c\u00f3digo aberto de n\u00edvel de fronteira. Embora esses modelos sejam incrivelmente poderosos, reconhecemos que construir com eles requer recursos de computa\u00e7\u00e3o e experi\u00eancia significativos. Tamb\u00e9m ouvimos desenvolvedores que n\u00e3o t\u00eam acesso a esses recursos e ainda querem a oportunidade de construir com o Llama. Como Mark Zuckerberg compartilhou hoje no Connect, eles n\u00e3o ter\u00e3o que esperar mais. Hoje, estamos lan\u00e7ando o Llama 3.2, que inclui LLMs de vis\u00e3o de pequeno e m\u00e9dio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), que se encaixam em dispositivos m\u00f3veis e de ponta selecionados.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Faz apenas um ano e meio desde que anunciamos o Llama pela primeira vez, e fizemos um progresso incr\u00edvel em t\u00e3o pouco tempo. Este ano, o <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2024\/09\/com-um-crescimento-de-10-vezes-desde-2023-o-llama-e-o-principal-motor-de-inovacao-em-ia\/\"><span style=\"font-weight: 400\">Llama alcan\u00e7ou um crescimento de 10x<\/span><\/a><span style=\"font-weight: 400\"> e se tornou o padr\u00e3o para inova\u00e7\u00e3o respons\u00e1vel. O Llama tamb\u00e9m continua a liderar em abertura, modificabilidade e efici\u00eancia de custos, sendo competitivo com modelos fechados \u2014 at\u00e9 mesmo liderando em algumas \u00e1reas. Acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 o caminho certo a seguir, e \u00e9 por isso que continuamos a compartilhar nossa pesquisa e a colaborar com nossos parceiros e a comunidade de desenvolvedores.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos disponibilizando modelos Llama 3.2 para download em <\/span><a href=\"http:\/\/llama.meta.com\"><span style=\"font-weight: 400\">llama.com<\/span><\/a><span style=\"font-weight: 400\"> e <\/span><a href=\"https:\/\/huggingface.co\/meta-llama\"><span style=\"font-weight: 400\">Hugging Face<\/span><\/a><span style=\"font-weight: 400\">, e tamb\u00e9m est\u00e3o dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas de parceiros. Os parceiros s\u00e3o uma parte importante deste trabalho, e trabalhamos com mais de 25 empresas, incluindo AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA NIM, Oracle Cloud e Snowflake, para habilitar servi\u00e7os desde o in\u00edcio. Para o lan\u00e7amento do Llama 3.2, tamb\u00e9m estamos trabalhando com os parceiros <\/span><i><span style=\"font-weight: 400\">on-device<\/span><\/i><span style=\"font-weight: 400\"> Arm, MediaTek e Qualcomm para oferecer uma ampla gama de servi\u00e7os no lan\u00e7amento. A partir de hoje, tamb\u00e9m estamos disponibilizando o <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-stack\"><span style=\"font-weight: 400\">Llama Stack<\/span><\/a><span style=\"font-weight: 400\"> para a comunidade. Mais detalhes sobre o lan\u00e7amento mais recente, incluindo informa\u00e7\u00f5es sobre a <\/span><a href=\"https:\/\/euneedsai.com\/\"><span style=\"font-weight: 400\">disponibilidade multimodal<\/span><\/a><span style=\"font-weight: 400\"> na Europa, podem ser encontrados em <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-models\/blob\/main\/models\/llama3_2\/USE_POLICY.md\"><span style=\"font-weight: 400\">nossa pol\u00edtica de uso aceit\u00e1vel<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><b>Conhe\u00e7a o Llama 3.2<\/b><\/p>\n<p><span style=\"font-weight: 400\">Os dois maiores modelos da cole\u00e7\u00e3o Llama 3.2, 11B e 90B, oferecem suporte a casos de uso de racioc\u00ednio de imagem, como compreens\u00e3o em n\u00edvel de documento, incluindo tabelas e gr\u00e1ficos, legendas de imagens e tarefas de aterramento visual, como apontar objetos direcionalmente em imagens com base em descri\u00e7\u00f5es de linguagem natural. Por exemplo, uma pessoa pode fazer uma pergunta sobre qual m\u00eas do ano anterior sua pequena empresa teve as melhores vendas, e o Llama 3.2 pode ent\u00e3o raciocinar com base em um gr\u00e1fico dispon\u00edvel e fornecer a resposta rapidamente. Em outro exemplo, o modelo pode raciocinar com um mapa e ajudar a responder perguntas como quando uma caminhada pode se tornar mais \u00edngreme ou a dist\u00e2ncia de uma trilha espec\u00edfica marcada no mapa. Os modelos 11B e 90B tamb\u00e9m podem preencher a lacuna entre vis\u00e3o e linguagem extraindo detalhes de uma imagem, entendendo a cena e, em seguida, elaborando uma ou duas frases que podem ser usadas como legenda de imagem para ajudar a contar a hist\u00f3ria.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os modelos leves 1B e 3B s\u00e3o altamente capazes com gera\u00e7\u00e3o de texto multil\u00edngue e habilidades de chamada de ferramentas. Esses modelos capacitam os desenvolvedores a criar aplicativos agentes\u00a0 <\/span><i><span style=\"font-weight: 400\">on-device<\/span><\/i><span style=\"font-weight: 400\"> personalizados com forte privacidade, onde os dados nunca saem do dispositivo. Por exemplo, esses aplicativos podem ajudar a resumir as \u00faltimas 10 mensagens recebidas, extrair itens de a\u00e7\u00e3o e aproveitar a chamada de ferramentas para enviar diretamente convites de calend\u00e1rio para acompanhamento.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Executar esses modelos localmente traz duas grandes vantagens. Primeiro, os prompts e respostas podem parecer instant\u00e2neos, uma vez que o processamento \u00e9 feito localmente. Segundo, executar modelos localmente preserva a privacidade ao n\u00e3o enviar dados, como mensagens e informa\u00e7\u00f5es de calend\u00e1rio, para a nuvem, tornando o aplicativo mais privado em geral. Como o processamento \u00e9 feito localmente, o aplicativo pode controlar claramente quais consultas permanecem no dispositivo e quais podem precisar ser processadas por um modelo maior na nuvem.<\/span><\/p>\n<p><b>Avalia\u00e7\u00f5es de modelos<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nossa avalia\u00e7\u00e3o sugere que os modelos de vis\u00e3o Llama 3.2 s\u00e3o competitivos com os principais modelos de base, como Claude 3 Haiku e GPT4o-mini, em reconhecimento de imagem e uma variedade de tarefas de compreens\u00e3o visual. O modelo 3B supera os modelos Gemma 2 2.6B e Phi 3.5-mini em tarefas como seguir instru\u00e7\u00f5es, resumir, reescrever prompts e uso de ferramentas, enquanto o 1B \u00e9 competitivo com o Gemma nessas tarefas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Para os LLMs de vis\u00e3o, avaliamos o desempenho em benchmarks de compreens\u00e3o de imagem e racioc\u00ednio visual. Al\u00e9m disso, realizamos extensivas avalia\u00e7\u00f5es humanas que comparam o Llama 3.2 com modelos concorrentes em cen\u00e1rios do mundo real.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25839\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=960&#038;resize=960%2C763\" alt=\"\" width=\"960\" height=\"763\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=504 504w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=1360 1360w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=755 755w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461288018_1255239495501495_271827633811450582_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25840\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=960&#038;resize=960%2C919\" alt=\"\" width=\"960\" height=\"919\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=418 418w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=1128 1128w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=627 627w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461157789_931406385491961_1692349435372036848_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><b>Modelos de vis\u00e3o<\/b><\/p>\n<p><span style=\"font-weight: 400\">Como os primeiros modelos Llama a oferecer suporte a tarefas de vis\u00e3o, os modelos 11B e 90B exigiram uma arquitetura de modelo totalmente nova, que possibilita o racioc\u00ednio de imagem.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para adicionar suporte \u00e0 entrada de imagem, treinamos um conjunto de pesos de adaptador que integram o codificador de imagem pr\u00e9-treinado ao modelo de linguagem pr\u00e9-treinado. O adaptador consiste em uma s\u00e9rie de camadas de aten\u00e7\u00e3o cruzada que alimentam as representa\u00e7\u00f5es do codificador de imagem no modelo de linguagem. Treinamos o adaptador em pares de texto-imagem para alinhar as representa\u00e7\u00f5es de imagem com as representa\u00e7\u00f5es de linguagem. Durante o treinamento do adaptador, tamb\u00e9m atualizamos os par\u00e2metros do codificador de imagem, mas intencionalmente n\u00e3o atualizamos os par\u00e2metros do modelo de linguagem. Ao fazer isso, mantemos todos os recursos somente de texto intactos, oferecendo aos desenvolvedores uma substitui\u00e7\u00e3o imediata para os modelos Llama 3.1.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nosso pipeline de treinamento consiste em v\u00e1rios est\u00e1gios, come\u00e7ando com modelos de texto Llama 3.1 pr\u00e9-treinados. Primeiro, adicionamos adaptadores e codificadores de imagem; depois, pr\u00e9-treinamos em dados de pares (imagem, texto) ruidosos de grande escala. Em seguida, treinamos em dados de pares (imagem, texto) de alta qualidade e aprimorados por conhecimento, de escala m\u00e9dia.<\/span><\/p>\n<p><span style=\"font-weight: 400\">No p\u00f3s-treinamento, usamos uma abordagem semelhante \u00e0 dos modelos de texto, realizando v\u00e1rias rodadas de alinhamento em ajuste fino supervisionado, amostragem de rejei\u00e7\u00e3o e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Aproveitamos a gera\u00e7\u00e3o de dados sint\u00e9ticos utilizando o modelo Llama 3.1 para filtrar e aumentar perguntas e respostas sobre imagens do dom\u00ednio e usamos um modelo de recompensa para classificar todas as respostas candidatas, a fim de fornecer dados de ajuste fino de alta qualidade. Tamb\u00e9m adicionamos dados de mitiga\u00e7\u00e3o de seguran\u00e7a para produzir um modelo com alto n\u00edvel de seguran\u00e7a, mantendo a utilidade do modo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">O resultado final \u00e9 um conjunto de modelos que podem receber prompts de imagem e texto e entender e raciocinar profundamente sobre a combina\u00e7\u00e3o. Este \u00e9 mais um passo em dire\u00e7\u00e3o aos modelos Llama com capacidades de agente ainda mais ricas.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25811-1\" width=\"960\" height=\"691\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMWa-qHzyhc9oiqLbpYJyshnwMlIKn0Vicr5vjikwD0Wd_bYR2tlSLFe_hN4Zo9hEcgmPxo4GOGSidprO2FUvra.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMWa-qHzyhc9oiqLbpYJyshnwMlIKn0Vicr5vjikwD0Wd_bYR2tlSLFe_hN4Zo9hEcgmPxo4GOGSidprO2FUvra.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMWa-qHzyhc9oiqLbpYJyshnwMlIKn0Vicr5vjikwD0Wd_bYR2tlSLFe_hN4Zo9hEcgmPxo4GOGSidprO2FUvra.mp4<\/a><\/video><\/div>\n<p><b>Modelos leves<\/b><\/p>\n<p><span style=\"font-weight: 400\">Como dissemos sobre o Llama 3.1, modelos professores poderosos podem ser utilizados para criar modelos menores com desempenho aprimorado. Usamos dois m\u00e9todos \u2014 poda e destila\u00e7\u00e3o \u2014 nos modelos 1B e 3B, tornando-os os primeiros modelos Llama leves e altamente capazes que podem ser implantados de forma eficiente em dispositivos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A poda nos permitiu reduzir o tamanho dos modelos existentes no grupo Llama enquanto recuper\u00e1vamos o m\u00e1ximo de conhecimento e desempenho poss\u00edvel. Para os modelos 1B e 3B, adotamos a abordagem de usar uma poda estruturada de forma \u00fanica do Llama 3.2 8B. Isso envolveu remover sistematicamente partes da rede e ajustar a magnitude dos pesos e gradientes, para criar um modelo menor e mais eficiente que retenha o desempenho da rede original.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A destila\u00e7\u00e3o de conhecimento usa uma rede maior para transmitir conhecimento em uma rede menor, com a ideia de que um modelo menor pode atingir melhor desempenho usando um professor do que se o fizesse do zero. Para o 1B e 3B no Llama 3.2, incorporamos os logits dos modelos 8B e 70B do Llama 3.1 no est\u00e1gio de pr\u00e9-treinamento do desenvolvimento do modelo, onde as sa\u00eddas (logits) desses modelos maiores foram usadas como alvos de n\u00edvel de token. A destila\u00e7\u00e3o de conhecimento foi usada ap\u00f3s a poda, para recuperar o desempenho.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25843\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=960&#038;resize=960%2C507\" alt=\"\" width=\"960\" height=\"507\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=600 600w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=800 800w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/461209081_511117684875670_45564063096782202_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">No p\u00f3s-treinamento, usamos uma receita semelhante \u00e0 do Llama 3.1 e produzimos modelos de bate-papo finais, fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT), amostragem de rejei\u00e7\u00e3o (RS) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO).<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ampliamos o suporte ao comprimento do contexto para 128 mil tokens, mantendo a mesma qualidade do modelo pr\u00e9-treinado. Tamb\u00e9m nos dedicamos \u00e0 gera\u00e7\u00e3o de dados sint\u00e9ticos, que passam por um rigoroso processamento e filtragem para garantir alta qualidade. Misturamos cuidadosamente os dados para otimizar a qualidade em v\u00e1rias capacidades, como resumo, reescrita, acompanhamento de instru\u00e7\u00f5es, racioc\u00ednio lingu\u00edstico e uso de ferramentas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para permitir que a comunidade inovasse nesses modelos, trabalhamos em estreita colabora\u00e7\u00e3o com a Qualcomm e a Mediatek, as duas maiores empresas de sistemas m\u00f3veis em um chip (SoC) do mundo, e a ARM, que fornece o IP de computa\u00e7\u00e3o principal para <\/span><a href=\"https:\/\/www.arm.com\/company\"><span style=\"font-weight: 400\">99%<\/span><\/a><span style=\"font-weight: 400\"> dos dispositivos m\u00f3veis. Os pesos divulgados hoje s\u00e3o baseados em n\u00fameros BFloat16. Nossas equipes est\u00e3o explorando ativamente variantes quantizadas, que ser\u00e3o executadas ainda mais r\u00e1pido, e esperamos compartilhar mais sobre isso em breve.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25811-2\" width=\"960\" height=\"570\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQOsEY2WxZMd0Kqq-0Jsmv6PtQfVoce3QG0XLpyspB9U8M4VdncjzvSu4PfmnnB4cdOwMajGsG5W2V0Nvx1i7CQR.mp4?_=2\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQOsEY2WxZMd0Kqq-0Jsmv6PtQfVoce3QG0XLpyspB9U8M4VdncjzvSu4PfmnnB4cdOwMajGsG5W2V0Nvx1i7CQR.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQOsEY2WxZMd0Kqq-0Jsmv6PtQfVoce3QG0XLpyspB9U8M4VdncjzvSu4PfmnnB4cdOwMajGsG5W2V0Nvx1i7CQR.mp4<\/a><\/video><\/div>\n<p>&nbsp;<\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25811-3\" width=\"960\" height=\"570\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQPejAkmWiZ9YbHtOOqFZP7IhwDvi-wk7X2Up85igRBWy_5Bpgn7Q4n3Yp5LyLufdLgARBAO2_YK8ZovA2Bks3l6.mp4?_=3\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQPejAkmWiZ9YbHtOOqFZP7IhwDvi-wk7X2Up85igRBWy_5Bpgn7Q4n3Yp5LyLufdLgARBAO2_YK8ZovA2Bks3l6.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQPejAkmWiZ9YbHtOOqFZP7IhwDvi-wk7X2Up85igRBWy_5Bpgn7Q4n3Yp5LyLufdLgARBAO2_YK8ZovA2Bks3l6.mp4<\/a><\/video><\/div>\n<ul>\n<li>Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado.<\/li>\n<\/ul>\n<div style=\"width: 852px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25811-4\" width=\"852\" height=\"720\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMa7ndjgnFYwey1AduoqGBNhrmELfHqJP7uRdNl_eXCR2128UCrp2pE7vHpmSfYUOXdKCNSCIHIs2gF3luJbaK8.mp4?_=4\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMa7ndjgnFYwey1AduoqGBNhrmELfHqJP7uRdNl_eXCR2128UCrp2pE7vHpmSfYUOXdKCNSCIHIs2gF3luJbaK8.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMa7ndjgnFYwey1AduoqGBNhrmELfHqJP7uRdNl_eXCR2128UCrp2pE7vHpmSfYUOXdKCNSCIHIs2gF3luJbaK8.mp4<\/a><\/video><\/div>\n<ul>\n<li>Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado.<\/li>\n<\/ul>\n<p><b>Distribui\u00e7\u00f5es do Llama Stack<\/b><\/p>\n<p><span style=\"font-weight: 400\">Em julho, lan\u00e7amos uma <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-stack\/issues\/6\"><span style=\"font-weight: 400\">solicita\u00e7\u00e3o de coment\u00e1rios<\/span><\/a><span style=\"font-weight: 400\"> sobre a API do Llama Stack, uma interface padronizada para componentes de cadeia de ferramentas can\u00f4nicos (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) que permite personalizar os modelos Llama e construir aplicativos agentes. O engajamento tem sido \u00f3timo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desde ent\u00e3o, temos trabalhado arduamente para tornar a API real. Constru\u00edmos uma implementa\u00e7\u00e3o de refer\u00eancia das APIs para infer\u00eancia, uso de ferramentas e RAG. Al\u00e9m disso, temos trabalhado com parceiros para adapt\u00e1-los para se tornarem provedores das APIs. Por fim, introduzimos a Llama Stack Distribution como uma forma de empacotar v\u00e1rios provedores de API que funcionam bem juntos para fornecer um \u00fanico <\/span><i><span style=\"font-weight: 400\">endpoint<\/span><\/i><span style=\"font-weight: 400\"> para desenvolvedores. Agora estamos compartilhando com a comunidade uma experi\u00eancia consistente realmente simplificada para trabalhar com modelos Llama em v\u00e1rios ambientes &#8211; localmente, na nuvem, em um <\/span><i><span style=\"font-weight: 400\">single-node<\/span><\/i><span style=\"font-weight: 400\"> e <\/span><i><span style=\"font-weight: 400\">on-device<\/span><\/i><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25847\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=948&#038;resize=948%2C1024\" alt=\"\" width=\"948\" height=\"1024\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=370 370w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=278 278w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=948 948w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=1421 1421w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=1895 1895w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=999 999w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=1999 1999w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=555 555w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460924239_3402957093334534_4357083070437107157_n.png?w=2880 2880w\" sizes=\"auto, (max-width: 948px) 100vw, 948px\" \/><\/p>\n<p><span style=\"font-weight: 400\">O conjunto completo de lan\u00e7amentos inclui:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Llama CLI (interface de linha de comando) para criar, configurar e executar distribui\u00e7\u00f5es Llama Stack<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">C\u00f3digo do cliente em v\u00e1rias linguagens &#8211; python, node, kotlin, swift<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Cont\u00eaineres Docker para Llama Stack Distribution Server e Agents API Provider<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">V\u00e1rias distribui\u00e7\u00f5es<\/span><\/li>\n<\/ol>\n<ul>\n<li><span style=\"font-weight: 400\">Distribui\u00e7\u00e3o Llama Stack de <\/span><i><span style=\"font-weight: 400\">single-node<\/span><\/i><span style=\"font-weight: 400\"> via implementa\u00e7\u00e3o interna Meta e Ollama<\/span><\/li>\n<li><span style=\"font-weight: 400\">Distribui\u00e7\u00f5es Llama Stack em nuvem via AWS, Databricks, Fireworks e Together<\/span><\/li>\n<li><span style=\"font-weight: 400\">Distribui\u00e7\u00e3o Llama Stack no dispositivo no iOS implementada via PyTorch ExecuTorch<\/span><\/li>\n<li><span style=\"font-weight: 400\">Distribui\u00e7\u00e3o Llama Stack localmente com suporte da Dell<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Estamos ansiosos para trabalhar com desenvolvedores e parceiros para simplificar todos os aspectos da constru\u00e7\u00e3o com modelos Llama e agradecemos o feedback.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25832\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=960&#038;resize=960%2C859\" alt=\"\" width=\"960\" height=\"859\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=3840 3840w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=447 447w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=2048 2048w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=1207 1207w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=671 671w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/Llama-Stack-Distribution.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><b>Seguran\u00e7a a n\u00edvel de sistema<\/b><\/p>\n<p><span style=\"font-weight: 400\">Adotar uma abordagem aberta tem muitos benef\u00edcios. Isso ajuda a garantir que mais pessoas ao redor do mundo possam acessar as oportunidades que a IA oferece, protege contra a concentra\u00e7\u00e3o de poder nas m\u00e3os de poucos e implanta a tecnologia de maneira mais equitativa e segura em toda a sociedade. \u00c0 medida que continuamos a inovar, tamb\u00e9m queremos garantir que estamos capacitando os desenvolvedores a construir sistemas seguros e respons\u00e1veis.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Com base em nosso lan\u00e7amento anterior e no esfor\u00e7o cont\u00ednuo para apoiar a inova\u00e7\u00e3o respons\u00e1vel, hoje estamos adicionando novas atualiza\u00e7\u00f5es \u00e0 nossa fam\u00edlia de prote\u00e7\u00f5es:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Primeiro, estamos lan\u00e7ando o Llama Guard 3 11B Vision, projetado para dar suporte \u00e0 nova capacidade de compreens\u00e3o de imagem do Llama 3.2 e filtrar prompts de entrada de texto+imagem ou respostas de sa\u00edda de texto a esses prompts.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Segundo, ao lan\u00e7armos os modelos Llama 1B e 3B para serem usados em ambientes mais restritos, como em dispositivos, tamb\u00e9m otimizamos o Llama Guard para reduzir drasticamente seu custo de implanta\u00e7\u00e3o. O Llama Guard 3 1B \u00e9 baseado no modelo Llama 3.2 1B e foi podado e quantizado, reduzindo seu tamanho de 2.858 MB para 438 MB, tornando-o mais eficiente do que nunca para a implanta\u00e7\u00e3o.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Essas novas solu\u00e7\u00f5es s\u00e3o integradas em nossas implementa\u00e7\u00f5es de refer\u00eancia, demonstra\u00e7\u00f5es e aplicativos e est\u00e3o prontas para a comunidade de c\u00f3digo aberto usar desde o lan\u00e7amento.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25811-5\" width=\"960\" height=\"570\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMefUyY9O7piF_PDTAJxjg0ny8iyOtK4epLypbsUcccUsXjO_hNDpgS8aUwnglgKUwqpf0sRYYqS0U7eq0TvAeK.mp4?_=5\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMefUyY9O7piF_PDTAJxjg0ny8iyOtK4epLypbsUcccUsXjO_hNDpgS8aUwnglgKUwqpf0sRYYqS0U7eq0TvAeK.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/AQMefUyY9O7piF_PDTAJxjg0ny8iyOtK4epLypbsUcccUsXjO_hNDpgS8aUwnglgKUwqpf0sRYYqS0U7eq0TvAeK.mp4<\/a><\/video><\/div>\n<p><b>Experimente o Llama 3.2 hoje mesmo<\/b><\/p>\n<p><span style=\"font-weight: 400\">O Llama 3.2 est\u00e1 pronto para alcan\u00e7ar mais pessoas do que nunca e permitir novos casos de uso interessantes. Acreditamos que compartilhar esses modelos com a comunidade de c\u00f3digo aberto n\u00e3o \u00e9 suficiente. Queremos garantir que os desenvolvedores tamb\u00e9m tenham as ferramentas necess\u00e1rias para construir com o Llama de forma respons\u00e1vel. Como parte de nossos esfor\u00e7os cont\u00ednuos de lan\u00e7amento respons\u00e1vel, estamos oferecendo aos desenvolvedores novas <\/span><a href=\"https:\/\/ai.meta.com\/blog\/meta-llama-3-1-ai-responsibility\/\"><span style=\"font-weight: 400\">ferramentas e recursos<\/span><\/a><span style=\"font-weight: 400\"> e, como sempre, atualizaremos as melhores pr\u00e1ticas em nosso <\/span><a href=\"https:\/\/ai.meta.com\/static-resource\/responsible-use-guide\/\"><span style=\"font-weight: 400\">Guia de Uso Respons\u00e1vel<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Continuamos compartilhando os \u00faltimos avan\u00e7os no ecossistema Llama porque acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 boa para os desenvolvedores, para a Meta e para o mundo. Estamos animados para continuar as conversas que estamos tendo com nossos parceiros e a comunidade de c\u00f3digo aberto e, como sempre, mal podemos esperar para ver o que a comunidade construir\u00e1 usando o Llama 3.2 e o Llama Stack.<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">Este trabalho foi apoiado por nossos parceiros em toda a comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI e UC Berkeley &#8211; Projeto vLLM.<\/span><\/i><\/p>\n<p><a href=\"https:\/\/www.llama.com\/\">Saiba mais no site do Llama\u00a0<\/a><\/p>\n<p><a href=\"https:\/\/huggingface.co\/meta-llama\">Visite o Hugging Face<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Estamos animados com o impacto que o grupo de modelos Llama 3.1 causou nos dois meses desde que os anunciamos, incluindo o 405B, o primeiro modelo de IA de c\u00f3digo aberto de n\u00edvel de fronteira. Embora esses modelos sejam incrivelmente poderosos, reconhecemos que construir com eles requer recursos de computa\u00e7\u00e3o e experi\u00eancia significativos. Tamb\u00e9m ouvimos desenvolvedores que n\u00e3o t\u00eam acesso a esses recursos e ainda querem a oportunidade de construir com o Llama. Como Mark Zuckerberg compartilhou hoje no Connect, eles n\u00e3o ter\u00e3o que esperar mais. Hoje, estamos lan\u00e7ando o Llama 3.2, que inclui LLMs de vis\u00e3o de pequeno e m\u00e9dio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), que se encaixam em dispositivos m\u00f3veis e de ponta selecionados. Faz apenas um ano e meio desde que anunciamos o Llama pela primeira vez, e fizemos um progresso incr\u00edvel em t\u00e3o pouco tempo. Este ano, o Llama alcan\u00e7ou um crescimento de 10x e se tornou o padr\u00e3o para inova\u00e7\u00e3o respons\u00e1vel. O Llama tamb\u00e9m continua a liderar em abertura, modificabilidade e efici\u00eancia de custos, sendo competitivo com modelos fechados \u2014 at\u00e9 mesmo liderando em algumas \u00e1reas. Acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 o caminho certo a seguir, e \u00e9 por isso que continuamos a compartilhar nossa pesquisa e a colaborar com nossos parceiros e a comunidade de desenvolvedores. Estamos disponibilizando modelos Llama 3.2 para download em llama.com e Hugging Face, e tamb\u00e9m est\u00e3o dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas de parceiros. Os parceiros s\u00e3o uma parte importante deste trabalho, e trabalhamos com mais de 25 empresas, incluindo AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA NIM, Oracle Cloud e Snowflake, para habilitar servi\u00e7os desde o in\u00edcio. Para o lan\u00e7amento do Llama 3.2, tamb\u00e9m estamos trabalhando com os parceiros on-device Arm, MediaTek e Qualcomm para oferecer uma ampla gama de servi\u00e7os no lan\u00e7amento. A partir de hoje, tamb\u00e9m estamos disponibilizando o Llama Stack para a comunidade. Mais detalhes sobre o lan\u00e7amento mais recente, incluindo informa\u00e7\u00f5es sobre a disponibilidade multimodal na Europa, podem ser encontrados em nossa pol\u00edtica de uso aceit\u00e1vel. Conhe\u00e7a o Llama 3.2 Os dois maiores modelos da cole\u00e7\u00e3o Llama 3.2, 11B e 90B, oferecem suporte a casos de uso de racioc\u00ednio de imagem, como compreens\u00e3o em n\u00edvel de documento, incluindo tabelas e gr\u00e1ficos, legendas de imagens e tarefas de aterramento visual, como apontar objetos direcionalmente em imagens com base em descri\u00e7\u00f5es de linguagem natural. Por exemplo, uma pessoa pode fazer uma pergunta sobre qual m\u00eas do ano anterior sua pequena empresa teve as melhores vendas, e o Llama 3.2 pode ent\u00e3o raciocinar com base em um gr\u00e1fico dispon\u00edvel e fornecer a resposta rapidamente. Em outro exemplo, o modelo pode raciocinar com um mapa e ajudar a responder perguntas como quando uma caminhada pode se tornar mais \u00edngreme ou a dist\u00e2ncia de uma trilha espec\u00edfica marcada no mapa. Os modelos 11B e 90B tamb\u00e9m podem preencher a lacuna entre vis\u00e3o e linguagem extraindo detalhes de uma imagem, entendendo a cena e, em seguida, elaborando uma ou duas frases que podem ser usadas como legenda de imagem para ajudar a contar a hist\u00f3ria. Os modelos leves 1B e 3B s\u00e3o altamente capazes com gera\u00e7\u00e3o de texto multil\u00edngue e habilidades de chamada de ferramentas. Esses modelos capacitam os desenvolvedores a criar aplicativos agentes\u00a0 on-device personalizados com forte privacidade, onde os dados nunca saem do dispositivo. Por exemplo, esses aplicativos podem ajudar a resumir as \u00faltimas 10 mensagens recebidas, extrair itens de a\u00e7\u00e3o e aproveitar a chamada de ferramentas para enviar diretamente convites de calend\u00e1rio para acompanhamento. Executar esses modelos localmente traz duas grandes vantagens. Primeiro, os prompts e respostas podem parecer instant\u00e2neos, uma vez que o processamento \u00e9 feito localmente. Segundo, executar modelos localmente preserva a privacidade ao n\u00e3o enviar dados, como mensagens e informa\u00e7\u00f5es de calend\u00e1rio, para a nuvem, tornando o aplicativo mais privado em geral. Como o processamento \u00e9 feito localmente, o aplicativo pode controlar claramente quais consultas permanecem no dispositivo e quais podem precisar ser processadas por um modelo maior na nuvem. Avalia\u00e7\u00f5es de modelos Nossa avalia\u00e7\u00e3o sugere que os modelos de vis\u00e3o Llama 3.2 s\u00e3o competitivos com os principais modelos de base, como Claude 3 Haiku e GPT4o-mini, em reconhecimento de imagem e uma variedade de tarefas de compreens\u00e3o visual. O modelo 3B supera os modelos Gemma 2 2.6B e Phi 3.5-mini em tarefas como seguir instru\u00e7\u00f5es, resumir, reescrever prompts e uso de ferramentas, enquanto o 1B \u00e9 competitivo com o Gemma nessas tarefas. Avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Para os LLMs de vis\u00e3o, avaliamos o desempenho em benchmarks de compreens\u00e3o de imagem e racioc\u00ednio visual. Al\u00e9m disso, realizamos extensivas avalia\u00e7\u00f5es humanas que comparam o Llama 3.2 com modelos concorrentes em cen\u00e1rios do mundo real. &nbsp; &nbsp; Modelos de vis\u00e3o Como os primeiros modelos Llama a oferecer suporte a tarefas de vis\u00e3o, os modelos 11B e 90B exigiram uma arquitetura de modelo totalmente nova, que possibilita o racioc\u00ednio de imagem. Para adicionar suporte \u00e0 entrada de imagem, treinamos um conjunto de pesos de adaptador que integram o codificador de imagem pr\u00e9-treinado ao modelo de linguagem pr\u00e9-treinado. O adaptador consiste em uma s\u00e9rie de camadas de aten\u00e7\u00e3o cruzada que alimentam as representa\u00e7\u00f5es do codificador de imagem no modelo de linguagem. Treinamos o adaptador em pares de texto-imagem para alinhar as representa\u00e7\u00f5es de imagem com as representa\u00e7\u00f5es de linguagem. Durante o treinamento do adaptador, tamb\u00e9m atualizamos os par\u00e2metros do codificador de imagem, mas intencionalmente n\u00e3o atualizamos os par\u00e2metros do modelo de linguagem. Ao fazer isso, mantemos todos os recursos somente de texto intactos, oferecendo aos desenvolvedores uma substitui\u00e7\u00e3o imediata para os modelos Llama 3.1. Nosso pipeline de treinamento consiste em v\u00e1rios est\u00e1gios, come\u00e7ando com modelos de texto Llama 3.1 pr\u00e9-treinados. Primeiro, adicionamos adaptadores e codificadores de imagem; depois, pr\u00e9-treinamos em dados de pares (imagem, texto) ruidosos de grande escala. Em seguida, treinamos em dados de pares (imagem, texto) de alta qualidade e aprimorados por conhecimento, de escala m\u00e9dia. No p\u00f3s-treinamento, usamos uma abordagem semelhante \u00e0 dos modelos de texto, realizando v\u00e1rias rodadas de alinhamento em ajuste fino supervisionado, amostragem de rejei\u00e7\u00e3o e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Aproveitamos a gera\u00e7\u00e3o de dados sint\u00e9ticos utilizando o modelo Llama 3.1 para filtrar e aumentar perguntas e respostas sobre imagens do dom\u00ednio e usamos um modelo de recompensa para classificar todas as respostas candidatas, a fim de fornecer dados de ajuste fino de alta qualidade. Tamb\u00e9m adicionamos dados de mitiga\u00e7\u00e3o de seguran\u00e7a para produzir um modelo com alto n\u00edvel de seguran\u00e7a, mantendo a utilidade do modo. O resultado final \u00e9 um conjunto de modelos que podem receber prompts de imagem e texto e entender e raciocinar profundamente sobre a combina\u00e7\u00e3o. Este \u00e9 mais um passo em dire\u00e7\u00e3o aos modelos Llama com capacidades de agente ainda mais ricas. Modelos leves Como dissemos sobre o Llama 3.1, modelos professores poderosos podem ser utilizados para criar modelos menores com desempenho aprimorado. Usamos dois m\u00e9todos \u2014 poda e destila\u00e7\u00e3o \u2014 nos modelos 1B e 3B, tornando-os os primeiros modelos Llama leves e altamente capazes que podem ser implantados de forma eficiente em dispositivos. A poda nos permitiu reduzir o tamanho dos modelos existentes no grupo Llama enquanto recuper\u00e1vamos o m\u00e1ximo de conhecimento e desempenho poss\u00edvel. Para os modelos 1B e 3B, adotamos a abordagem de usar uma poda estruturada de forma \u00fanica do Llama 3.2 8B. Isso envolveu remover sistematicamente partes da rede e ajustar a magnitude dos pesos e gradientes, para criar um modelo menor e mais eficiente que retenha o desempenho da rede original. A destila\u00e7\u00e3o de conhecimento usa uma rede maior para transmitir conhecimento em uma rede menor, com a ideia de que um modelo menor pode atingir melhor desempenho usando um professor do que se o fizesse do zero. Para o 1B e 3B no Llama 3.2, incorporamos os logits dos modelos 8B e 70B do Llama 3.1 no est\u00e1gio de pr\u00e9-treinamento do desenvolvimento do modelo, onde as sa\u00eddas (logits) desses modelos maiores foram usadas como alvos de n\u00edvel de token. A destila\u00e7\u00e3o de conhecimento foi usada ap\u00f3s a poda, para recuperar o desempenho. No p\u00f3s-treinamento, usamos uma receita semelhante \u00e0 do Llama 3.1 e produzimos modelos de bate-papo finais, fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT), amostragem de rejei\u00e7\u00e3o (RS) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO). Ampliamos o suporte ao comprimento do contexto para 128 mil tokens, mantendo a mesma qualidade do modelo pr\u00e9-treinado. Tamb\u00e9m nos dedicamos \u00e0 gera\u00e7\u00e3o de dados sint\u00e9ticos, que passam por um rigoroso processamento e filtragem para garantir alta qualidade. Misturamos cuidadosamente os dados para otimizar a qualidade em v\u00e1rias capacidades, como resumo, reescrita, acompanhamento de instru\u00e7\u00f5es, racioc\u00ednio lingu\u00edstico e uso de ferramentas. Para permitir que a comunidade inovasse nesses modelos, trabalhamos em estreita colabora\u00e7\u00e3o com a Qualcomm e a Mediatek, as duas maiores empresas de sistemas m\u00f3veis em um chip (SoC) do mundo, e a ARM, que fornece o IP de computa\u00e7\u00e3o principal para 99% dos dispositivos m\u00f3veis. Os pesos divulgados hoje s\u00e3o baseados em n\u00fameros BFloat16. Nossas equipes est\u00e3o explorando ativamente variantes quantizadas, que ser\u00e3o executadas ainda mais r\u00e1pido, e esperamos compartilhar mais sobre isso em breve. &nbsp; Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Distribui\u00e7\u00f5es do Llama Stack Em julho, lan\u00e7amos uma solicita\u00e7\u00e3o de coment\u00e1rios sobre a API do Llama Stack, uma interface padronizada para componentes de cadeia de ferramentas can\u00f4nicos (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) que permite personalizar os modelos Llama e construir aplicativos agentes. O engajamento tem sido \u00f3timo. Desde ent\u00e3o, temos trabalhado arduamente para tornar a API real. Constru\u00edmos uma implementa\u00e7\u00e3o de refer\u00eancia das APIs para infer\u00eancia, uso de ferramentas e RAG. Al\u00e9m disso, temos trabalhado com parceiros para adapt\u00e1-los para se tornarem provedores das APIs. Por fim, introduzimos a Llama Stack Distribution como uma forma de empacotar v\u00e1rios provedores de API que funcionam bem juntos para fornecer um \u00fanico endpoint para desenvolvedores. Agora estamos compartilhando com a comunidade uma experi\u00eancia consistente realmente simplificada para trabalhar com modelos Llama em v\u00e1rios ambientes &#8211; localmente, na nuvem, em um single-node e on-device. O conjunto completo de lan\u00e7amentos inclui: Llama CLI (interface de linha de comando) para criar, configurar e executar distribui\u00e7\u00f5es Llama Stack C\u00f3digo do cliente em v\u00e1rias linguagens &#8211; python, node, kotlin, swift Cont\u00eaineres Docker para Llama Stack Distribution Server e Agents API Provider V\u00e1rias distribui\u00e7\u00f5es Distribui\u00e7\u00e3o Llama Stack de single-node via implementa\u00e7\u00e3o interna Meta e Ollama Distribui\u00e7\u00f5es Llama Stack em nuvem via AWS, Databricks, Fireworks e Together Distribui\u00e7\u00e3o Llama Stack no dispositivo no iOS implementada via PyTorch ExecuTorch Distribui\u00e7\u00e3o Llama Stack localmente com suporte da Dell Estamos ansiosos para trabalhar com desenvolvedores e parceiros para simplificar todos os aspectos da constru\u00e7\u00e3o com modelos Llama e agradecemos o feedback. Seguran\u00e7a a n\u00edvel de sistema Adotar uma abordagem aberta tem muitos benef\u00edcios. Isso ajuda a garantir que mais pessoas ao redor do mundo possam acessar as oportunidades que a IA oferece, protege contra a concentra\u00e7\u00e3o de poder nas m\u00e3os de poucos e implanta a tecnologia de maneira mais equitativa e segura em toda a sociedade. \u00c0 medida que continuamos a inovar, tamb\u00e9m queremos garantir que estamos capacitando os desenvolvedores a construir sistemas seguros e respons\u00e1veis. Com base em nosso lan\u00e7amento anterior e no esfor\u00e7o cont\u00ednuo para apoiar a inova\u00e7\u00e3o respons\u00e1vel, hoje estamos adicionando novas atualiza\u00e7\u00f5es \u00e0 nossa fam\u00edlia de prote\u00e7\u00f5es: Primeiro, estamos lan\u00e7ando o Llama Guard 3 11B Vision, projetado para dar suporte \u00e0 nova capacidade de compreens\u00e3o de imagem do Llama 3.2 e filtrar prompts de entrada de texto+imagem ou respostas de sa\u00edda de texto a esses prompts. Segundo, ao lan\u00e7armos os modelos Llama 1B e 3B para serem usados em ambientes mais restritos, como em dispositivos, tamb\u00e9m otimizamos o Llama Guard para reduzir drasticamente seu custo de implanta\u00e7\u00e3o. O Llama Guard 3 1B \u00e9 baseado no modelo Llama 3.2 1B e foi podado e quantizado, reduzindo seu tamanho de 2.858 MB para 438 MB, tornando-o mais eficiente do que nunca para a implanta\u00e7\u00e3o. Essas novas solu\u00e7\u00f5es s\u00e3o integradas em nossas implementa\u00e7\u00f5es de refer\u00eancia, demonstra\u00e7\u00f5es e aplicativos e est\u00e3o prontas para a comunidade de c\u00f3digo aberto usar desde o lan\u00e7amento. Experimente o Llama 3.2 hoje mesmo O Llama 3.2 est\u00e1 pronto para alcan\u00e7ar mais pessoas do que nunca e permitir novos casos de uso interessantes. Acreditamos que compartilhar esses modelos com a comunidade de c\u00f3digo aberto n\u00e3o \u00e9 suficiente. Queremos garantir que os desenvolvedores tamb\u00e9m tenham as ferramentas necess\u00e1rias para construir com o Llama de forma respons\u00e1vel. Como parte de nossos esfor\u00e7os cont\u00ednuos de lan\u00e7amento respons\u00e1vel, estamos oferecendo aos desenvolvedores novas ferramentas e recursos e, como sempre, atualizaremos as melhores pr\u00e1ticas em nosso Guia de Uso Respons\u00e1vel. Continuamos compartilhando os \u00faltimos avan\u00e7os no ecossistema Llama porque acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 boa para os desenvolvedores, para a Meta e para o mundo. Estamos animados para continuar as conversas que estamos tendo com nossos parceiros e a comunidade de c\u00f3digo aberto e, como sempre, mal podemos esperar para ver o que a comunidade construir\u00e1 usando o Llama 3.2 e o Llama Stack. Este trabalho foi apoiado por nossos parceiros em toda a comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI e UC Berkeley &#8211; Projeto vLLM. Saiba mais no site do Llama\u00a0 Visite o Hugging Face","protected":false},"author":164097234,"featured_media":25838,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-25811","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Estamos animados com o impacto que o grupo de modelos Llama 3.1 causou nos dois meses desde que os anunciamos, incluindo o 405B, o primeiro modelo de IA de c\u00f3digo aberto de n\u00edvel de fronteira. Embora esses modelos sejam incrivelmente poderosos, reconhecemos que construir com eles requer recursos de computa\u00e7\u00e3o e experi\u00eancia significativos. Tamb\u00e9m ouvimos desenvolvedores que n\u00e3o t\u00eam acesso a esses recursos e ainda querem a oportunidade de construir com o Llama. Como Mark Zuckerberg compartilhou hoje no Connect, eles n\u00e3o ter\u00e3o que esperar mais. Hoje, estamos lan\u00e7ando o Llama 3.2, que inclui LLMs de vis\u00e3o de pequeno e m\u00e9dio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), que se encaixam em dispositivos m\u00f3veis e de ponta selecionados. Faz apenas um ano e meio desde que anunciamos o Llama pela primeira vez, e fizemos um progresso incr\u00edvel em t\u00e3o pouco tempo. Este ano, o Llama alcan\u00e7ou um crescimento de 10x e se tornou o padr\u00e3o para inova\u00e7\u00e3o respons\u00e1vel. O Llama tamb\u00e9m continua a liderar em abertura, modificabilidade e efici\u00eancia de custos, sendo competitivo com modelos fechados \u2014 at\u00e9 mesmo liderando em algumas \u00e1reas. Acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 o caminho certo a seguir, e \u00e9 por isso que continuamos a compartilhar nossa pesquisa e a colaborar com nossos parceiros e a comunidade de desenvolvedores. Estamos disponibilizando modelos Llama 3.2 para download em llama.com e Hugging Face, e tamb\u00e9m est\u00e3o dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas de parceiros. Os parceiros s\u00e3o uma parte importante deste trabalho, e trabalhamos com mais de 25 empresas, incluindo AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA NIM, Oracle Cloud e Snowflake, para habilitar servi\u00e7os desde o in\u00edcio. Para o lan\u00e7amento do Llama 3.2, tamb\u00e9m estamos trabalhando com os parceiros on-device Arm, MediaTek e Qualcomm para oferecer uma ampla gama de servi\u00e7os no lan\u00e7amento. A partir de hoje, tamb\u00e9m estamos disponibilizando o Llama Stack para a comunidade. Mais detalhes sobre o lan\u00e7amento mais recente, incluindo informa\u00e7\u00f5es sobre a disponibilidade multimodal na Europa, podem ser encontrados em nossa pol\u00edtica de uso aceit\u00e1vel. Conhe\u00e7a o Llama 3.2 Os dois maiores modelos da cole\u00e7\u00e3o Llama 3.2, 11B e 90B, oferecem suporte a casos de uso de racioc\u00ednio de imagem, como compreens\u00e3o em n\u00edvel de documento, incluindo tabelas e gr\u00e1ficos, legendas de imagens e tarefas de aterramento visual, como apontar objetos direcionalmente em imagens com base em descri\u00e7\u00f5es de linguagem natural. Por exemplo, uma pessoa pode fazer uma pergunta sobre qual m\u00eas do ano anterior sua pequena empresa teve as melhores vendas, e o Llama 3.2 pode ent\u00e3o raciocinar com base em um gr\u00e1fico dispon\u00edvel e fornecer a resposta rapidamente. Em outro exemplo, o modelo pode raciocinar com um mapa e ajudar a responder perguntas como quando uma caminhada pode se tornar mais \u00edngreme ou a dist\u00e2ncia de uma trilha espec\u00edfica marcada no mapa. Os modelos 11B e 90B tamb\u00e9m podem preencher a lacuna entre vis\u00e3o e linguagem extraindo detalhes de uma imagem, entendendo a cena e, em seguida, elaborando uma ou duas frases que podem ser usadas como legenda de imagem para ajudar a contar a hist\u00f3ria. Os modelos leves 1B e 3B s\u00e3o altamente capazes com gera\u00e7\u00e3o de texto multil\u00edngue e habilidades de chamada de ferramentas. Esses modelos capacitam os desenvolvedores a criar aplicativos agentes\u00a0 on-device personalizados com forte privacidade, onde os dados nunca saem do dispositivo. Por exemplo, esses aplicativos podem ajudar a resumir as \u00faltimas 10 mensagens recebidas, extrair itens de a\u00e7\u00e3o e aproveitar a chamada de ferramentas para enviar diretamente convites de calend\u00e1rio para acompanhamento. Executar esses modelos localmente traz duas grandes vantagens. Primeiro, os prompts e respostas podem parecer instant\u00e2neos, uma vez que o processamento \u00e9 feito localmente. Segundo, executar modelos localmente preserva a privacidade ao n\u00e3o enviar dados, como mensagens e informa\u00e7\u00f5es de calend\u00e1rio, para a nuvem, tornando o aplicativo mais privado em geral. Como o processamento \u00e9 feito localmente, o aplicativo pode controlar claramente quais consultas permanecem no dispositivo e quais podem precisar ser processadas por um modelo maior na nuvem. Avalia\u00e7\u00f5es de modelos Nossa avalia\u00e7\u00e3o sugere que os modelos de vis\u00e3o Llama 3.2 s\u00e3o competitivos com os principais modelos de base, como Claude 3 Haiku e GPT4o-mini, em reconhecimento de imagem e uma variedade de tarefas de compreens\u00e3o visual. O modelo 3B supera os modelos Gemma 2 2.6B e Phi 3.5-mini em tarefas como seguir instru\u00e7\u00f5es, resumir, reescrever prompts e uso de ferramentas, enquanto o 1B \u00e9 competitivo com o Gemma nessas tarefas. Avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Para os LLMs de vis\u00e3o, avaliamos o desempenho em benchmarks de compreens\u00e3o de imagem e racioc\u00ednio visual. Al\u00e9m disso, realizamos extensivas avalia\u00e7\u00f5es humanas que comparam o Llama 3.2 com modelos concorrentes em cen\u00e1rios do mundo real. &nbsp; &nbsp; Modelos de vis\u00e3o Como os primeiros modelos Llama a oferecer suporte a tarefas de vis\u00e3o, os modelos 11B e 90B exigiram uma arquitetura de modelo totalmente nova, que possibilita o racioc\u00ednio de imagem. Para adicionar suporte \u00e0 entrada de imagem, treinamos um conjunto de pesos de adaptador que integram o codificador de imagem pr\u00e9-treinado ao modelo de linguagem pr\u00e9-treinado. O adaptador consiste em uma s\u00e9rie de camadas de aten\u00e7\u00e3o cruzada que alimentam as representa\u00e7\u00f5es do codificador de imagem no modelo de linguagem. Treinamos o adaptador em pares de texto-imagem para alinhar as representa\u00e7\u00f5es de imagem com as representa\u00e7\u00f5es de linguagem. Durante o treinamento do adaptador, tamb\u00e9m atualizamos os par\u00e2metros do codificador de imagem, mas intencionalmente n\u00e3o atualizamos os par\u00e2metros do modelo de linguagem. Ao fazer isso, mantemos todos os recursos somente de texto intactos, oferecendo aos desenvolvedores uma substitui\u00e7\u00e3o imediata para os modelos Llama 3.1. Nosso pipeline de treinamento consiste em v\u00e1rios est\u00e1gios, come\u00e7ando com modelos de texto Llama 3.1 pr\u00e9-treinados. Primeiro, adicionamos adaptadores e codificadores de imagem; depois, pr\u00e9-treinamos em dados de pares (imagem, texto) ruidosos de grande escala. Em seguida, treinamos em dados de pares (imagem, texto) de alta qualidade e aprimorados por conhecimento, de escala m\u00e9dia. No p\u00f3s-treinamento, usamos uma abordagem semelhante \u00e0 dos modelos de texto, realizando v\u00e1rias rodadas de alinhamento em ajuste fino supervisionado, amostragem de rejei\u00e7\u00e3o e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Aproveitamos a gera\u00e7\u00e3o de dados sint\u00e9ticos utilizando o modelo Llama 3.1 para filtrar e aumentar perguntas e respostas sobre imagens do dom\u00ednio e usamos um modelo de recompensa para classificar todas as respostas candidatas, a fim de fornecer dados de ajuste fino de alta qualidade. Tamb\u00e9m adicionamos dados de mitiga\u00e7\u00e3o de seguran\u00e7a para produzir um modelo com alto n\u00edvel de seguran\u00e7a, mantendo a utilidade do modo. O resultado final \u00e9 um conjunto de modelos que podem receber prompts de imagem e texto e entender e raciocinar profundamente sobre a combina\u00e7\u00e3o. Este \u00e9 mais um passo em dire\u00e7\u00e3o aos modelos Llama com capacidades de agente ainda mais ricas. Modelos leves Como dissemos sobre o Llama 3.1, modelos professores poderosos podem ser utilizados para criar modelos menores com desempenho aprimorado. Usamos dois m\u00e9todos \u2014 poda e destila\u00e7\u00e3o \u2014 nos modelos 1B e 3B, tornando-os os primeiros modelos Llama leves e altamente capazes que podem ser implantados de forma eficiente em dispositivos. A poda nos permitiu reduzir o tamanho dos modelos existentes no grupo Llama enquanto recuper\u00e1vamos o m\u00e1ximo de conhecimento e desempenho poss\u00edvel. Para os modelos 1B e 3B, adotamos a abordagem de usar uma poda estruturada de forma \u00fanica do Llama 3.2 8B. Isso envolveu remover sistematicamente partes da rede e ajustar a magnitude dos pesos e gradientes, para criar um modelo menor e mais eficiente que retenha o desempenho da rede original. A destila\u00e7\u00e3o de conhecimento usa uma rede maior para transmitir conhecimento em uma rede menor, com a ideia de que um modelo menor pode atingir melhor desempenho usando um professor do que se o fizesse do zero. Para o 1B e 3B no Llama 3.2, incorporamos os logits dos modelos 8B e 70B do Llama 3.1 no est\u00e1gio de pr\u00e9-treinamento do desenvolvimento do modelo, onde as sa\u00eddas (logits) desses modelos maiores foram usadas como alvos de n\u00edvel de token. A destila\u00e7\u00e3o de conhecimento foi usada ap\u00f3s a poda, para recuperar o desempenho. No p\u00f3s-treinamento, usamos uma receita semelhante \u00e0 do Llama 3.1 e produzimos modelos de bate-papo finais, fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT), amostragem de rejei\u00e7\u00e3o (RS) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO). Ampliamos o suporte ao comprimento do contexto para 128 mil tokens, mantendo a mesma qualidade do modelo pr\u00e9-treinado. Tamb\u00e9m nos dedicamos \u00e0 gera\u00e7\u00e3o de dados sint\u00e9ticos, que passam por um rigoroso processamento e filtragem para garantir alta qualidade. Misturamos cuidadosamente os dados para otimizar a qualidade em v\u00e1rias capacidades, como resumo, reescrita, acompanhamento de instru\u00e7\u00f5es, racioc\u00ednio lingu\u00edstico e uso de ferramentas. Para permitir que a comunidade inovasse nesses modelos, trabalhamos em estreita colabora\u00e7\u00e3o com a Qualcomm e a Mediatek, as duas maiores empresas de sistemas m\u00f3veis em um chip (SoC) do mundo, e a ARM, que fornece o IP de computa\u00e7\u00e3o principal para 99% dos dispositivos m\u00f3veis. Os pesos divulgados hoje s\u00e3o baseados em n\u00fameros BFloat16. Nossas equipes est\u00e3o explorando ativamente variantes quantizadas, que ser\u00e3o executadas ainda mais r\u00e1pido, e esperamos compartilhar mais sobre isso em breve. &nbsp; Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Distribui\u00e7\u00f5es do Llama Stack Em julho, lan\u00e7amos uma solicita\u00e7\u00e3o de coment\u00e1rios sobre a API do Llama Stack, uma interface padronizada para componentes de cadeia de ferramentas can\u00f4nicos (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) que permite personalizar os modelos Llama e construir aplicativos agentes. O engajamento tem sido \u00f3timo. Desde ent\u00e3o, temos trabalhado arduamente para tornar a API real. Constru\u00edmos uma implementa\u00e7\u00e3o de refer\u00eancia das APIs para infer\u00eancia, uso de ferramentas e RAG. Al\u00e9m disso, temos trabalhado com parceiros para adapt\u00e1-los para se tornarem provedores das APIs. Por fim, introduzimos a Llama Stack Distribution como uma forma de empacotar v\u00e1rios provedores de API que funcionam bem juntos para fornecer um \u00fanico endpoint para desenvolvedores. Agora estamos compartilhando com a comunidade uma experi\u00eancia consistente realmente simplificada para trabalhar com modelos Llama em v\u00e1rios ambientes &#8211; localmente, na nuvem, em um single-node e on-device. O conjunto completo de lan\u00e7amentos inclui: Llama CLI (interface de linha de comando) para criar, configurar e executar distribui\u00e7\u00f5es Llama Stack C\u00f3digo do cliente em v\u00e1rias linguagens &#8211; python, node, kotlin, swift Cont\u00eaineres Docker para Llama Stack Distribution Server e Agents API Provider V\u00e1rias distribui\u00e7\u00f5es Distribui\u00e7\u00e3o Llama Stack de single-node via implementa\u00e7\u00e3o interna Meta e Ollama Distribui\u00e7\u00f5es Llama Stack em nuvem via AWS, Databricks, Fireworks e Together Distribui\u00e7\u00e3o Llama Stack no dispositivo no iOS implementada via PyTorch ExecuTorch Distribui\u00e7\u00e3o Llama Stack localmente com suporte da Dell Estamos ansiosos para trabalhar com desenvolvedores e parceiros para simplificar todos os aspectos da constru\u00e7\u00e3o com modelos Llama e agradecemos o feedback. Seguran\u00e7a a n\u00edvel de sistema Adotar uma abordagem aberta tem muitos benef\u00edcios. Isso ajuda a garantir que mais pessoas ao redor do mundo possam acessar as oportunidades que a IA oferece, protege contra a concentra\u00e7\u00e3o de poder nas m\u00e3os de poucos e implanta a tecnologia de maneira mais equitativa e segura em toda a sociedade. \u00c0 medida que continuamos a inovar, tamb\u00e9m queremos garantir que estamos capacitando os desenvolvedores a construir sistemas seguros e respons\u00e1veis. Com base em nosso lan\u00e7amento anterior e no esfor\u00e7o cont\u00ednuo para apoiar a inova\u00e7\u00e3o respons\u00e1vel, hoje estamos adicionando novas atualiza\u00e7\u00f5es \u00e0 nossa fam\u00edlia de prote\u00e7\u00f5es: Primeiro, estamos lan\u00e7ando o Llama Guard 3 11B Vision, projetado para dar suporte \u00e0 nova capacidade de compreens\u00e3o de imagem do Llama 3.2 e filtrar prompts de entrada de texto+imagem ou respostas de sa\u00edda de texto a esses prompts. Segundo, ao lan\u00e7armos os modelos Llama 1B e 3B para serem usados em ambientes mais restritos, como em dispositivos, tamb\u00e9m otimizamos o Llama Guard para reduzir drasticamente seu custo de implanta\u00e7\u00e3o. O Llama Guard 3 1B \u00e9 baseado no modelo Llama 3.2 1B e foi podado e quantizado, reduzindo seu tamanho de 2.858 MB para 438 MB, tornando-o mais eficiente do que nunca para a implanta\u00e7\u00e3o. Essas novas solu\u00e7\u00f5es s\u00e3o integradas em nossas implementa\u00e7\u00f5es de refer\u00eancia, demonstra\u00e7\u00f5es e aplicativos e est\u00e3o prontas para a comunidade de c\u00f3digo aberto usar desde o lan\u00e7amento. Experimente o Llama 3.2 hoje mesmo O Llama 3.2 est\u00e1 pronto para alcan\u00e7ar mais pessoas do que nunca e permitir novos casos de uso interessantes. Acreditamos que compartilhar esses modelos com a comunidade de c\u00f3digo aberto n\u00e3o \u00e9 suficiente. Queremos garantir que os desenvolvedores tamb\u00e9m tenham as ferramentas necess\u00e1rias para construir com o Llama de forma respons\u00e1vel. Como parte de nossos esfor\u00e7os cont\u00ednuos de lan\u00e7amento respons\u00e1vel, estamos oferecendo aos desenvolvedores novas ferramentas e recursos e, como sempre, atualizaremos as melhores pr\u00e1ticas em nosso Guia de Uso Respons\u00e1vel. Continuamos compartilhando os \u00faltimos avan\u00e7os no ecossistema Llama porque acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 boa para os desenvolvedores, para a Meta e para o mundo. Estamos animados para continuar as conversas que estamos tendo com nossos parceiros e a comunidade de c\u00f3digo aberto e, como sempre, mal podemos esperar para ver o que a comunidade construir\u00e1 usando o Llama 3.2 e o Llama Stack. Este trabalho foi apoiado por nossos parceiros em toda a comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI e UC Berkeley &#8211; Projeto vLLM. Saiba mais no site do Llama\u00a0 Visite o Hugging Face\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-25T17:38:49+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-25T18:46:24+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\"},\"author\":\"Facebook company\",\"headline\":\"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis\",\"datePublished\":\"2024-09-25T17:38:49+00:00\",\"dateModified\":\"2024-09-25T18:46:24+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\"},\"wordCount\":2598,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\",\"name\":\"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160\",\"datePublished\":\"2024-09-25T17:38:49+00:00\",\"dateModified\":\"2024-09-25T18:46:24+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160\",\"width\":3840,\"height\":2160},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/","og_locale":"pt_BR","og_type":"article","og_title":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta","og_description":"Estamos animados com o impacto que o grupo de modelos Llama 3.1 causou nos dois meses desde que os anunciamos, incluindo o 405B, o primeiro modelo de IA de c\u00f3digo aberto de n\u00edvel de fronteira. Embora esses modelos sejam incrivelmente poderosos, reconhecemos que construir com eles requer recursos de computa\u00e7\u00e3o e experi\u00eancia significativos. Tamb\u00e9m ouvimos desenvolvedores que n\u00e3o t\u00eam acesso a esses recursos e ainda querem a oportunidade de construir com o Llama. Como Mark Zuckerberg compartilhou hoje no Connect, eles n\u00e3o ter\u00e3o que esperar mais. Hoje, estamos lan\u00e7ando o Llama 3.2, que inclui LLMs de vis\u00e3o de pequeno e m\u00e9dio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), que se encaixam em dispositivos m\u00f3veis e de ponta selecionados. Faz apenas um ano e meio desde que anunciamos o Llama pela primeira vez, e fizemos um progresso incr\u00edvel em t\u00e3o pouco tempo. Este ano, o Llama alcan\u00e7ou um crescimento de 10x e se tornou o padr\u00e3o para inova\u00e7\u00e3o respons\u00e1vel. O Llama tamb\u00e9m continua a liderar em abertura, modificabilidade e efici\u00eancia de custos, sendo competitivo com modelos fechados \u2014 at\u00e9 mesmo liderando em algumas \u00e1reas. Acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 o caminho certo a seguir, e \u00e9 por isso que continuamos a compartilhar nossa pesquisa e a colaborar com nossos parceiros e a comunidade de desenvolvedores. Estamos disponibilizando modelos Llama 3.2 para download em llama.com e Hugging Face, e tamb\u00e9m est\u00e3o dispon\u00edveis para desenvolvimento imediato em nosso amplo ecossistema de plataformas de parceiros. Os parceiros s\u00e3o uma parte importante deste trabalho, e trabalhamos com mais de 25 empresas, incluindo AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA NIM, Oracle Cloud e Snowflake, para habilitar servi\u00e7os desde o in\u00edcio. Para o lan\u00e7amento do Llama 3.2, tamb\u00e9m estamos trabalhando com os parceiros on-device Arm, MediaTek e Qualcomm para oferecer uma ampla gama de servi\u00e7os no lan\u00e7amento. A partir de hoje, tamb\u00e9m estamos disponibilizando o Llama Stack para a comunidade. Mais detalhes sobre o lan\u00e7amento mais recente, incluindo informa\u00e7\u00f5es sobre a disponibilidade multimodal na Europa, podem ser encontrados em nossa pol\u00edtica de uso aceit\u00e1vel. Conhe\u00e7a o Llama 3.2 Os dois maiores modelos da cole\u00e7\u00e3o Llama 3.2, 11B e 90B, oferecem suporte a casos de uso de racioc\u00ednio de imagem, como compreens\u00e3o em n\u00edvel de documento, incluindo tabelas e gr\u00e1ficos, legendas de imagens e tarefas de aterramento visual, como apontar objetos direcionalmente em imagens com base em descri\u00e7\u00f5es de linguagem natural. Por exemplo, uma pessoa pode fazer uma pergunta sobre qual m\u00eas do ano anterior sua pequena empresa teve as melhores vendas, e o Llama 3.2 pode ent\u00e3o raciocinar com base em um gr\u00e1fico dispon\u00edvel e fornecer a resposta rapidamente. Em outro exemplo, o modelo pode raciocinar com um mapa e ajudar a responder perguntas como quando uma caminhada pode se tornar mais \u00edngreme ou a dist\u00e2ncia de uma trilha espec\u00edfica marcada no mapa. Os modelos 11B e 90B tamb\u00e9m podem preencher a lacuna entre vis\u00e3o e linguagem extraindo detalhes de uma imagem, entendendo a cena e, em seguida, elaborando uma ou duas frases que podem ser usadas como legenda de imagem para ajudar a contar a hist\u00f3ria. Os modelos leves 1B e 3B s\u00e3o altamente capazes com gera\u00e7\u00e3o de texto multil\u00edngue e habilidades de chamada de ferramentas. Esses modelos capacitam os desenvolvedores a criar aplicativos agentes\u00a0 on-device personalizados com forte privacidade, onde os dados nunca saem do dispositivo. Por exemplo, esses aplicativos podem ajudar a resumir as \u00faltimas 10 mensagens recebidas, extrair itens de a\u00e7\u00e3o e aproveitar a chamada de ferramentas para enviar diretamente convites de calend\u00e1rio para acompanhamento. Executar esses modelos localmente traz duas grandes vantagens. Primeiro, os prompts e respostas podem parecer instant\u00e2neos, uma vez que o processamento \u00e9 feito localmente. Segundo, executar modelos localmente preserva a privacidade ao n\u00e3o enviar dados, como mensagens e informa\u00e7\u00f5es de calend\u00e1rio, para a nuvem, tornando o aplicativo mais privado em geral. Como o processamento \u00e9 feito localmente, o aplicativo pode controlar claramente quais consultas permanecem no dispositivo e quais podem precisar ser processadas por um modelo maior na nuvem. Avalia\u00e7\u00f5es de modelos Nossa avalia\u00e7\u00e3o sugere que os modelos de vis\u00e3o Llama 3.2 s\u00e3o competitivos com os principais modelos de base, como Claude 3 Haiku e GPT4o-mini, em reconhecimento de imagem e uma variedade de tarefas de compreens\u00e3o visual. O modelo 3B supera os modelos Gemma 2 2.6B e Phi 3.5-mini em tarefas como seguir instru\u00e7\u00f5es, resumir, reescrever prompts e uso de ferramentas, enquanto o 1B \u00e9 competitivo com o Gemma nessas tarefas. Avaliamos o desempenho em mais de 150 conjuntos de dados de refer\u00eancia que abrangem uma ampla variedade de idiomas. Para os LLMs de vis\u00e3o, avaliamos o desempenho em benchmarks de compreens\u00e3o de imagem e racioc\u00ednio visual. Al\u00e9m disso, realizamos extensivas avalia\u00e7\u00f5es humanas que comparam o Llama 3.2 com modelos concorrentes em cen\u00e1rios do mundo real. &nbsp; &nbsp; Modelos de vis\u00e3o Como os primeiros modelos Llama a oferecer suporte a tarefas de vis\u00e3o, os modelos 11B e 90B exigiram uma arquitetura de modelo totalmente nova, que possibilita o racioc\u00ednio de imagem. Para adicionar suporte \u00e0 entrada de imagem, treinamos um conjunto de pesos de adaptador que integram o codificador de imagem pr\u00e9-treinado ao modelo de linguagem pr\u00e9-treinado. O adaptador consiste em uma s\u00e9rie de camadas de aten\u00e7\u00e3o cruzada que alimentam as representa\u00e7\u00f5es do codificador de imagem no modelo de linguagem. Treinamos o adaptador em pares de texto-imagem para alinhar as representa\u00e7\u00f5es de imagem com as representa\u00e7\u00f5es de linguagem. Durante o treinamento do adaptador, tamb\u00e9m atualizamos os par\u00e2metros do codificador de imagem, mas intencionalmente n\u00e3o atualizamos os par\u00e2metros do modelo de linguagem. Ao fazer isso, mantemos todos os recursos somente de texto intactos, oferecendo aos desenvolvedores uma substitui\u00e7\u00e3o imediata para os modelos Llama 3.1. Nosso pipeline de treinamento consiste em v\u00e1rios est\u00e1gios, come\u00e7ando com modelos de texto Llama 3.1 pr\u00e9-treinados. Primeiro, adicionamos adaptadores e codificadores de imagem; depois, pr\u00e9-treinamos em dados de pares (imagem, texto) ruidosos de grande escala. Em seguida, treinamos em dados de pares (imagem, texto) de alta qualidade e aprimorados por conhecimento, de escala m\u00e9dia. No p\u00f3s-treinamento, usamos uma abordagem semelhante \u00e0 dos modelos de texto, realizando v\u00e1rias rodadas de alinhamento em ajuste fino supervisionado, amostragem de rejei\u00e7\u00e3o e otimiza\u00e7\u00e3o de prefer\u00eancia direta. Aproveitamos a gera\u00e7\u00e3o de dados sint\u00e9ticos utilizando o modelo Llama 3.1 para filtrar e aumentar perguntas e respostas sobre imagens do dom\u00ednio e usamos um modelo de recompensa para classificar todas as respostas candidatas, a fim de fornecer dados de ajuste fino de alta qualidade. Tamb\u00e9m adicionamos dados de mitiga\u00e7\u00e3o de seguran\u00e7a para produzir um modelo com alto n\u00edvel de seguran\u00e7a, mantendo a utilidade do modo. O resultado final \u00e9 um conjunto de modelos que podem receber prompts de imagem e texto e entender e raciocinar profundamente sobre a combina\u00e7\u00e3o. Este \u00e9 mais um passo em dire\u00e7\u00e3o aos modelos Llama com capacidades de agente ainda mais ricas. Modelos leves Como dissemos sobre o Llama 3.1, modelos professores poderosos podem ser utilizados para criar modelos menores com desempenho aprimorado. Usamos dois m\u00e9todos \u2014 poda e destila\u00e7\u00e3o \u2014 nos modelos 1B e 3B, tornando-os os primeiros modelos Llama leves e altamente capazes que podem ser implantados de forma eficiente em dispositivos. A poda nos permitiu reduzir o tamanho dos modelos existentes no grupo Llama enquanto recuper\u00e1vamos o m\u00e1ximo de conhecimento e desempenho poss\u00edvel. Para os modelos 1B e 3B, adotamos a abordagem de usar uma poda estruturada de forma \u00fanica do Llama 3.2 8B. Isso envolveu remover sistematicamente partes da rede e ajustar a magnitude dos pesos e gradientes, para criar um modelo menor e mais eficiente que retenha o desempenho da rede original. A destila\u00e7\u00e3o de conhecimento usa uma rede maior para transmitir conhecimento em uma rede menor, com a ideia de que um modelo menor pode atingir melhor desempenho usando um professor do que se o fizesse do zero. Para o 1B e 3B no Llama 3.2, incorporamos os logits dos modelos 8B e 70B do Llama 3.1 no est\u00e1gio de pr\u00e9-treinamento do desenvolvimento do modelo, onde as sa\u00eddas (logits) desses modelos maiores foram usadas como alvos de n\u00edvel de token. A destila\u00e7\u00e3o de conhecimento foi usada ap\u00f3s a poda, para recuperar o desempenho. No p\u00f3s-treinamento, usamos uma receita semelhante \u00e0 do Llama 3.1 e produzimos modelos de bate-papo finais, fazendo v\u00e1rias rodadas de alinhamento sobre o modelo pr\u00e9-treinado. Cada rodada envolve ajuste fino supervisionado (SFT), amostragem de rejei\u00e7\u00e3o (RS) e otimiza\u00e7\u00e3o de prefer\u00eancia direta (DPO). Ampliamos o suporte ao comprimento do contexto para 128 mil tokens, mantendo a mesma qualidade do modelo pr\u00e9-treinado. Tamb\u00e9m nos dedicamos \u00e0 gera\u00e7\u00e3o de dados sint\u00e9ticos, que passam por um rigoroso processamento e filtragem para garantir alta qualidade. Misturamos cuidadosamente os dados para otimizar a qualidade em v\u00e1rias capacidades, como resumo, reescrita, acompanhamento de instru\u00e7\u00f5es, racioc\u00ednio lingu\u00edstico e uso de ferramentas. Para permitir que a comunidade inovasse nesses modelos, trabalhamos em estreita colabora\u00e7\u00e3o com a Qualcomm e a Mediatek, as duas maiores empresas de sistemas m\u00f3veis em um chip (SoC) do mundo, e a ARM, que fornece o IP de computa\u00e7\u00e3o principal para 99% dos dispositivos m\u00f3veis. Os pesos divulgados hoje s\u00e3o baseados em n\u00fameros BFloat16. Nossas equipes est\u00e3o explorando ativamente variantes quantizadas, que ser\u00e3o executadas ainda mais r\u00e1pido, e esperamos compartilhar mais sobre isso em breve. &nbsp; Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Essa demonstra\u00e7\u00e3o \u00e9 baseada em um modelo quantizado n\u00e3o lan\u00e7ado. Distribui\u00e7\u00f5es do Llama Stack Em julho, lan\u00e7amos uma solicita\u00e7\u00e3o de coment\u00e1rios sobre a API do Llama Stack, uma interface padronizada para componentes de cadeia de ferramentas can\u00f4nicos (ajuste fino, gera\u00e7\u00e3o de dados sint\u00e9ticos) que permite personalizar os modelos Llama e construir aplicativos agentes. O engajamento tem sido \u00f3timo. Desde ent\u00e3o, temos trabalhado arduamente para tornar a API real. Constru\u00edmos uma implementa\u00e7\u00e3o de refer\u00eancia das APIs para infer\u00eancia, uso de ferramentas e RAG. Al\u00e9m disso, temos trabalhado com parceiros para adapt\u00e1-los para se tornarem provedores das APIs. Por fim, introduzimos a Llama Stack Distribution como uma forma de empacotar v\u00e1rios provedores de API que funcionam bem juntos para fornecer um \u00fanico endpoint para desenvolvedores. Agora estamos compartilhando com a comunidade uma experi\u00eancia consistente realmente simplificada para trabalhar com modelos Llama em v\u00e1rios ambientes &#8211; localmente, na nuvem, em um single-node e on-device. O conjunto completo de lan\u00e7amentos inclui: Llama CLI (interface de linha de comando) para criar, configurar e executar distribui\u00e7\u00f5es Llama Stack C\u00f3digo do cliente em v\u00e1rias linguagens &#8211; python, node, kotlin, swift Cont\u00eaineres Docker para Llama Stack Distribution Server e Agents API Provider V\u00e1rias distribui\u00e7\u00f5es Distribui\u00e7\u00e3o Llama Stack de single-node via implementa\u00e7\u00e3o interna Meta e Ollama Distribui\u00e7\u00f5es Llama Stack em nuvem via AWS, Databricks, Fireworks e Together Distribui\u00e7\u00e3o Llama Stack no dispositivo no iOS implementada via PyTorch ExecuTorch Distribui\u00e7\u00e3o Llama Stack localmente com suporte da Dell Estamos ansiosos para trabalhar com desenvolvedores e parceiros para simplificar todos os aspectos da constru\u00e7\u00e3o com modelos Llama e agradecemos o feedback. Seguran\u00e7a a n\u00edvel de sistema Adotar uma abordagem aberta tem muitos benef\u00edcios. Isso ajuda a garantir que mais pessoas ao redor do mundo possam acessar as oportunidades que a IA oferece, protege contra a concentra\u00e7\u00e3o de poder nas m\u00e3os de poucos e implanta a tecnologia de maneira mais equitativa e segura em toda a sociedade. \u00c0 medida que continuamos a inovar, tamb\u00e9m queremos garantir que estamos capacitando os desenvolvedores a construir sistemas seguros e respons\u00e1veis. Com base em nosso lan\u00e7amento anterior e no esfor\u00e7o cont\u00ednuo para apoiar a inova\u00e7\u00e3o respons\u00e1vel, hoje estamos adicionando novas atualiza\u00e7\u00f5es \u00e0 nossa fam\u00edlia de prote\u00e7\u00f5es: Primeiro, estamos lan\u00e7ando o Llama Guard 3 11B Vision, projetado para dar suporte \u00e0 nova capacidade de compreens\u00e3o de imagem do Llama 3.2 e filtrar prompts de entrada de texto+imagem ou respostas de sa\u00edda de texto a esses prompts. Segundo, ao lan\u00e7armos os modelos Llama 1B e 3B para serem usados em ambientes mais restritos, como em dispositivos, tamb\u00e9m otimizamos o Llama Guard para reduzir drasticamente seu custo de implanta\u00e7\u00e3o. O Llama Guard 3 1B \u00e9 baseado no modelo Llama 3.2 1B e foi podado e quantizado, reduzindo seu tamanho de 2.858 MB para 438 MB, tornando-o mais eficiente do que nunca para a implanta\u00e7\u00e3o. Essas novas solu\u00e7\u00f5es s\u00e3o integradas em nossas implementa\u00e7\u00f5es de refer\u00eancia, demonstra\u00e7\u00f5es e aplicativos e est\u00e3o prontas para a comunidade de c\u00f3digo aberto usar desde o lan\u00e7amento. Experimente o Llama 3.2 hoje mesmo O Llama 3.2 est\u00e1 pronto para alcan\u00e7ar mais pessoas do que nunca e permitir novos casos de uso interessantes. Acreditamos que compartilhar esses modelos com a comunidade de c\u00f3digo aberto n\u00e3o \u00e9 suficiente. Queremos garantir que os desenvolvedores tamb\u00e9m tenham as ferramentas necess\u00e1rias para construir com o Llama de forma respons\u00e1vel. Como parte de nossos esfor\u00e7os cont\u00ednuos de lan\u00e7amento respons\u00e1vel, estamos oferecendo aos desenvolvedores novas ferramentas e recursos e, como sempre, atualizaremos as melhores pr\u00e1ticas em nosso Guia de Uso Respons\u00e1vel. Continuamos compartilhando os \u00faltimos avan\u00e7os no ecossistema Llama porque acreditamos que a abertura impulsiona a inova\u00e7\u00e3o e \u00e9 boa para os desenvolvedores, para a Meta e para o mundo. Estamos animados para continuar as conversas que estamos tendo com nossos parceiros e a comunidade de c\u00f3digo aberto e, como sempre, mal podemos esperar para ver o que a comunidade construir\u00e1 usando o Llama 3.2 e o Llama Stack. Este trabalho foi apoiado por nossos parceiros em toda a comunidade de IA. Gostar\u00edamos de agradecer e reconhecer (em ordem alfab\u00e9tica): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI e UC Berkeley &#8211; Projeto vLLM. Saiba mais no site do Llama\u00a0 Visite o Hugging Face","og_url":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/","og_site_name":"Sobre a Meta","article_published_time":"2024-09-25T17:38:49+00:00","article_modified_time":"2024-09-25T18:46:24+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?resize=1024,576","type":"image\/png"}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/"},"author":"Facebook company","headline":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis","datePublished":"2024-09-25T17:38:49+00:00","dateModified":"2024-09-25T18:46:24+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/"},"wordCount":2598,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/","url":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/","name":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160","datePublished":"2024-09-25T17:38:49+00:00","dateModified":"2024-09-25T18:46:24+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160","width":3840,"height":2160},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2024\/09\/conheca-o-llama-3-2-da-nuvem-para-a-borda-e-agora-com-visao\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Llama 3.2: Revolucionando a IA de borda e vis\u00e3o com modelos abertos e personaliz\u00e1veis"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2024\/09\/460993006_2920762584889879_5205653052963582511_n.png?fit=3840%2C2160","jetpack-related-posts":[{"id":26358,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/tudo-o-que-anunciamos-no-nosso-primeiro-llamacon\/","url_meta":{"origin":25811,"position":0},"title":"Tudo o que anunciamos no nosso primeiro LlamaCon","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"O LlamaCon come\u00e7ou oficialmente. Nosso evento inaugural integra desenvolvedores do mundo todo que t\u00eam algo em comum: a paix\u00e3o por construir com o Llama. J\u00e1 se passaram pouco mais de dois anos desde o lan\u00e7amento do Llama. Nesse per\u00edodo, ultrapassamos a marca de um bilh\u00e3o de downloads e, o mais\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/493340882_1363289474727356_6058337847885698893_n.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26252,"url":"https:\/\/about.fb.com\/br\/news\/2025\/03\/celebrando-1-bilhao-de-downloads-do-llama\/","url_meta":{"origin":25811,"position":1},"title":"Celebrando 1 bilh\u00e3o de downloads do Llama","author":"Meta","date":"18\/03\/2025","format":false,"excerpt":"Llama, a nossa cole\u00e7\u00e3o de modelos de Intelig\u00eancia Artificial (IA) com enfoque aberto, acaba de atingir 1 bilh\u00e3o de downloads. A IA de enfoque aberto \u00e9 crucial para garantir que pessoas em todos os lugares tenham acesso aos benef\u00edcios da IA, e cada download do Llama nos aproxima dessa meta.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/03\/Imagem-Llama.gif?fit=853%2C480&resize=700%2C400 2x"},"classes":[]},{"id":26290,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/modelos-llama-4\/","url_meta":{"origin":25811,"position":2},"title":"A Cole\u00e7\u00e3o de Modelos Llama 4: o In\u00edcio de uma nova era de inova\u00e7\u00e3o em IA multimodal nativa","author":"Meta","date":"05\/04\/2025","format":false,"excerpt":"\u00c0 medida que mais pessoas continuam a usar a intelig\u00eancia artificial para melhorar suas vidas di\u00e1rias, \u00e9 importante que os modelos e sistemas l\u00edderes estejam dispon\u00edveis abertamente para que todos possam construir o futuro das experi\u00eancias personalizadas. Hoje, estamos entusiasmados em anunciar a su\u00edte de modelos mais avan\u00e7ada que suporta\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama4.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26363,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/nova-escola-esta-entre-os-vencedores-do-llama-impact-grants-usando-ia-para-impulsionar-educacao-publica-no-brasil\/","url_meta":{"origin":25811,"position":3},"title":"Nova Escola est\u00e1 entre os vencedores do Llama Impact Grants, usando IA para impulsionar educa\u00e7\u00e3o p\u00fablica no Brasil","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"Estamos animados em anunciar os 10 vencedores internacionais da segunda edi\u00e7\u00e3o do Llama Impact Grants. As bolsas somam mais de US$ 1,5 milh\u00e3o em premia\u00e7\u00f5es e t\u00eam como objetivo impulsionar a inova\u00e7\u00e3o em empresas, startups e universidades que utilizam o Llama para gerar valor econ\u00f4mico e social. Representando o Brasil\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26421,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/novo-estudo-mostra-que-a-ia-de-modelo-aberto-e-catalisadora-do-crescimento-economico\/","url_meta":{"origin":25811,"position":4},"title":"Novo estudo mostra que a IA open source \u00e9 catalisadora do crescimento econ\u00f4mico","author":"Meta","date":"21\/05\/2025","format":false,"excerpt":"O novo estudo, \u201cOs impactos econ\u00f4micos e no mercado de trabalho da IA open source\u201d, divulgado hoje pela Linux Foundation (LF) Research e encomendado pela Meta, mostra que muitas organiza\u00e7\u00f5es adotam modelos de IA open source por serem mais econ\u00f4micos. Dois ter\u00e7os das organiza\u00e7\u00f5es entrevistadas acreditam que a IA open\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26185,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/save-the-date-meta-connect-2025-e-nosso-primeiro-llamacon\/","url_meta":{"origin":25811,"position":5},"title":"Save The Date: Meta Connect 2025 e nosso primeiro LlamaCon","author":"Meta","date":"18\/02\/2025","format":false,"excerpt":"O ano passado foi repleto de acontecimentos importantes, com a apresenta\u00e7\u00e3o do Meta Horizon OS, o lan\u00e7amento do Meta Quest 3S e a expans\u00e3o da Meta AI \u2014 e 2025 promete ser ainda mais incr\u00edvel. E, como os meses passam rapidamente, estamos aqui para compartilhar algumas datas importantes para voc\u00ea\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/480461641_643359561502511_2536366497879774915_n_b2cb9b.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25811","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25811"}],"version-history":[{"count":9,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25811\/revisions"}],"predecessor-version":[{"id":25894,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25811\/revisions\/25894"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/25838"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25811"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25811"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25811"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}