Meta

Nossa Abordagem Responsável para a IA da Meta e o Meta Llama 3

Destaques

  • Tomamos medidas responsáveis antes de lançar a IA da Meta e o Meta Llama 3 para que as pessoas possam ter experiências mais seguras e agradáveis.
  • Estamos apoiando o ecossistema de desenvolvedores de código aberto fornecendo ferramentas e recursos para desenvolvedores enquanto constroem com o Llama 3.
  • Estamos trabalhando com um conjunto global de parceiros para criar padrões que beneficiem toda a comunidade de código aberto.

Hoje, lançamos a nova IA da Meta, um dos principais assistentes de inteligência artificial gratuitos do mundo, construído com o Meta Llama 3, a última geração de grandes modelos de linguagem disponíveis publicamente. Graças aos últimos avanços com o Llama 3, a IA da Meta está mais inteligente, rápida e divertida do que nunca.

Estamos comprometidos em desenvolver IA de forma responsável e ajudar outros a fazerem o mesmo. Por isso, estamos tomando uma série de medidas para que as pessoas possam ter experiências agradáveis ao usar esses recursos e modelos, compartilhando ferramentas para apoiar os desenvolvedores e a comunidade aberta.

Responsabilidade em diferentes camadas do processo de desenvolvimento

Estamos entusiasmados com o potencial que a tecnologia de IA generativa pode ter para pessoas que usam produtos da Meta e para o ecossistema mais amplo. Também queremos garantir que estamos desenvolvendo e lançando essa tecnologia de maneira que antecipe e trabalhe para reduzir riscos. Para isso, tomamos medidas para avaliar e abordar riscos em cada nível do processo de desenvolvimento e implantação de IA. Isso inclui incorporar proteções no processo que usamos para projetar e lançar o modelo base do Llama, apoiar o ecossistema de desenvolvedores para que possam construir de forma responsável e adotar as mesmas melhores práticas que esperamos de outros desenvolvedores quando desenvolvemos e lançamos nossos próprios recursos de IA generativa no Facebook, Instagram, WhatsApp e Messenger.

Como explicamos quando lançamos o Llama 2, é importante ser intencional na concepção dessas medidas, pois há algumas delas que só podem ser implementadas de forma eficaz pelo provedor do modelo, e outras que só funcionam de forma eficaz quando implementadas pelo desenvolvedor como parte de sua aplicação específica.

Por esses motivos, com o Llama, adotamos uma abordagem centrada no sistema que aplica proteções em cada camada de desenvolvimento. Isso inclui adotar uma abordagem cuidadosa para nossos esforços de treinamento e ajuste, e fornecer ferramentas que facilitem aos desenvolvedores a implementação responsável de modelos. Além de maximizar a eficácia de nossos esforços de IA responsável, essa abordagem está alinhada com nossa perspectiva de inovação aberta, dando aos desenvolvedores mais poder para personalizar seus produtos de forma que sejam mais seguros e beneficiem seus usuários. O Guia de Uso Responsável é um recurso importante para os desenvolvedores que esboçam pontos que devem ser considerados ao construir seus próprios produtos, razão pela qual seguimos seus principais passos ao construir o Meta IA.

Construindo de forma responsável o Llama 3 como um modelo fundacional

Tomamos várias medidas no nível do modelo para desenvolver um modelo de construção altamente capaz e seguro no Llama 3, incluindo:

1. Abordar riscos no treinamento

A base de qualquer modelo é o processo de treinamento, por meio do qual o modelo aprende tanto a linguagem quanto as informações de que precisa para operar. Como resultado, nossa abordagem começou com uma série de mitigadores de IA responsáveis em nosso processo de treinamento. Por exemplo:

2. Avaliações de Segurança e Ajuste

Adaptamos o modelo pré-treinado por meio de um processo de ajuste fino, no qual tomamos medidas adicionais para melhorar seu desempenho na compreensão e geração de conversas de texto para que possa ser usado em aplicativos de chat semelhantes a assistentes.

Durante e após o treinamento, realizamos avaliações automáticas e manuais para entender o desempenho de nossos modelos em uma série de áreas de risco, como armas, ataques cibernéticos e exploração infantil. Em cada área, realizamos trabalho adicional para limitar a chance de o modelo fornecer respostas indesejadas.

3. Reduzindo recusas benignas

Recebemos feedback dos desenvolvedores de que o Llama 2 às vezes recusava inadvertidamente responder a prompts inofensivos. Grandes modelos de linguagem tendem a generalizar demais e não pretendemos que ele se recuse a responder a prompts do tipo “Como mato um programa de computador?”, mesmo que não queiramos que ele responda a prompts como “Como mato meu vizinho?”.

4. Transparência do modelo

Assim como com o Llama 2, estamos publicando um cartão de modelo que inclui informações detalhadas sobre a arquitetura do Llama 3, parâmetros e avaliações pré-treinadas. O cartão do modelo também fornece informações sobre as capacidades e limitações das ferramentas.

Nos próximos meses, lançaremos modelos adicionais do Llama 3 com novas capacidades, incluindo multimodalidade, a capacidade de conversar em vários idiomas e capacidades globais mais fortes. Nossa abordagem geral de código aberto para nossos modelos do Llama 3 é algo a que permanecemos comprometidos. Atualmente, estamos treinando um modelo de 400 bilhões de parâmetros – e qualquer decisão final sobre quando, se e como tornar o código aberto será tomada após avaliações de segurança que realizaremos nos próximos meses.

Como construímos a IA da Meta como um desenvolvedor responsável

Construímos a nova IA da Meta sobre a base do Llama 3, imaginando que a ferramenta capacitará os desenvolvedores a expandir o ecossistema existente de produtos e serviços baseados no Llama. Como descrevemos em nosso Guia de Uso Responsável, adotamos medidas adicionais nas diferentes etapas do desenvolvimento e implantação do produto para construir a IA da Meta sobre o modelo de fundação, assim como qualquer desenvolvedor usaria o Llama 3 para construir seu próprio produto.

Além das mitigações que adotamos dentro do Llama 3, um desenvolvedor precisa adotar mitigações adicionais para garantir que o modelo possa operar adequadamente no contexto de seu sistema específico e em cada caso de uso. Para a IA da Meta, o caso de uso é um assistente seguro e útil disponível gratuitamente para as pessoas diretamente em nossos aplicativos. Projetamos para ajudar as pessoas a realizar tarefas como brainstorming e superar o bloqueio do escritor, ou conectar-se com amigos para descobrir novos lugares e aventuras.

Desde o lançamento da IA da Meta no ano passado, atualizamos e melhoramos consistentemente a experiência e estamos continuando a torná-la ainda melhor. Por exemplo:

1. Aprimoramos as respostas da IA da Meta em relação às solicitações e perguntas das pessoas.

2. Ensinamos ao modelo da IA da Meta instruções e respostas específicas para torná-lo um assistente de IA mais útil.

3. Avaliamos o desempenho da IA da Meta em relação a benchmarks e usando especialistas humanos.

4. Aplicamos salvaguardas no nível da solicitação e da resposta.

5. Incluímos ferramentas de feedback dentro da IA da Meta.

A transparência é fundamental para ajudar as pessoas a entenderem essa nova tecnologia e se sentirem confortáveis com ela. Quando alguém interage com a IA da Meta, informamos que é tecnologia de IA para que possam escolher se desejam continuar usando. Compartilhamos informações dentro dos próprios recursos para ajudar as pessoas a entenderem que a IA pode tomar saídas imprecisas ou inadequadas, o que é o mesmo para todos os sistemas de inteligência artificial generativa. Em conversas com a IA da Meta, as pessoas podem acessar informações adicionais sobre como ela gera conteúdo, as limitações da IA e como os dados que compartilharam com a IA da Meta são usados.

Também incluímos marcadores visíveis em imagens fotorrealistas geradas pela IA da Meta para que as pessoas saibam que o conteúdo foi criado com IA. Em maio, começaremos a rotular conteúdo de vídeo, áudio e imagem que as pessoas postam em nossos aplicativos como “Feito com IA” quando detectarmos indicadores de imagem de IA padrão da indústria ou quando as pessoas indicarem que estão enviando conteúdo gerado por ferramenta artificial.

Como os desenvolvedores podem construir de forma responsável com o Llama 3

A IA da Meta é apenas um dos muitos recursos e produtos que serão criados com o Llama 3. Estamos lançando modelos diferentes nos tamanhos 8B e 70B para que os desenvolvedores possam utilizar a melhor versão para eles. Estamos fornecendo, ainda, um modelo ajustado por instruções especializado em aplicativos de chatbot, bem como um modelo pré-treinado para desenvolvedores com casos de uso específicos que se beneficiariam de políticas personalizadas.

Além do Guia de Uso Responsável, estamos fornecendo ferramentas de código aberto que tornam ainda mais fácil para os desenvolvedores personalizarem o Llama 3 e implementarem experiências generativas com tecnologia de IA.

Abordagem aberta da Meta para apoiar o ecossistema

Há mais de uma década, a Meta está na vanguarda do código aberto responsável em IA, e acreditamos que uma abordagem aberta à IA resulta em produtos melhores e mais seguros, inovação mais rápida e um mercado maior. Pudemos apreciar pessoas utilizando o Llama 2 de maneiras novas e inovadoras desde que ele foi lançado em julho de 2023 – como o Meditron LLM de Yale, que está ajudando profissionais da área médica na tomada de decisões, e a ferramenta da Mayo Clinic, que ajuda radiologistas a criar resumos clinicamente precisos dos exames de seus pacientes. O Llama 3 tem o potencial de tornar essas ferramentas e experiências ainda melhores.

“Os próximos aprimoramentos nos recursos de raciocínio do Llama 3 são importantes para qualquer aplicação, mas, especialmente no domínio médico, onde a confiança depende muito da transparência do processo de tomada de decisão. A decomposição de uma decisão/previsão em um conjunto de etapas lógicas costuma ser a forma como os seres humanos explicam suas ações, e esse tipo de interpretabilidade é esperado das ferramentas de suporte à decisão clínica. O Llama 2 não só nos permitiu criar o Meditron, como também estabeleceu um precedente para o impacto potencial dos modelos de criação de código aberto em geral. Estamos entusiasmados com o Llama 3 pelo exemplo que ele adiciona ao setor sobre o valor social dos modelos abertos”. – Mary-Anne Hartley (Ph.D. MD, MPH), Diretora do Laboratory for Intelligent Global Health and Humanitarian Response Technologies, com sede conjunta na Yale School of Medicine e na EPFL School of Computer Science

Em geral, o software de código aberto é mais seguro e protegido devido ao feedback contínuo, à análise criteriosa, ao desenvolvimento e às atenuações da comunidade. A implementação da IA com segurança é uma responsabilidade compartilhada por todos no ecossistema, e é por isso que colaboramos há muitos anos com organizações que estão trabalhando para criar uma IA segura e confiável. Por exemplo, estamos trabalhando com a MLCommons e um conjunto global de parceiros para criar referências de responsabilidade de forma a beneficiar toda a comunidade de código aberto. Fomos co-fundadores da AI Alliance, uma coalizão de empresas, acadêmicos, defensores e governos que trabalham para desenvolver ferramentas que possibilitem um ecossistema de IA aberto e seguro. Recentemente, também divulgamos os resultados de um Fórum Comunitário em parceria com Stanford e a Behavioral Insights Team para que empresas, pesquisadores e governos possam tomar decisões com base nas opiniões de pessoas ao redor do mundo sobre o que é importante para elas quando se trata de chatbots de IA generativa.

Estamos colaborando com governos de todo o mundo para criar uma base sólida para que os avanços da IA sejam seguros, justos e confiáveis. Aguardamos ansiosamente o progresso da avaliação e da pesquisa de segurança dos institutos nacionais de segurança, incluindo os dos Estados Unidos e do Reino Unido, especialmente porque eles se concentram no estabelecimento de modelos e avaliações padronizadas de ameaças em todo o processo de desenvolvimento da IA. Isso ajudará a medir os riscos de forma quantitativa e consistente para que os limites de risco possam ser definidos. Os resultados desses esforços orientarão empresas como a Meta na mensuração e no tratamento de riscos, bem como na decisão de como e se devem liberar modelos.

Como as tecnologias continuam a evoluir, esperamos aprimorar esses recursos e modelos nos próximos meses e anos. Estamos ansiosos para ajudar as pessoas a construir, criar e se conectar de maneiras novas e interessantes.