A Meta é pioneira em IA há mais de uma década, já lançamos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores – incluindo a versão mais recente do nosso grande modelo de linguagem, Llama 2, disponível em parceria com a Microsoft.
No Connect 2023, anunciamos vários novos recursos de IA generativa que as pessoas podem usar para tornar suas experiências nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa é que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugestões de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno.
Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores práticas e políticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre será perfeita. Os modelos subjacentes, por exemplo, têm o potencial de gerar respostas fictícias ou aumentar estereótipos que podem aprender a partir dos seus dados de formação. Incorporamos lições que aprendemos na última década em nossos novos recursos – como avisos para que as pessoas entendam os limites da IA generativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso está sendo feito de acordo com as melhores práticas do setor descritas no Guia de uso responsável do Llama 2.
De acordo com o nosso compromisso com a IA responsável, também realizamos testes com nossos produtos para melhorar o desempenho de sua segurança. Também colaboramos regularmente com gestores de políticas públicas, especialistas do meio académico e da sociedade civil, e outros atores na nossa indústria para promover a utilização responsável desta tecnologia. Vamos lançar esses recursos passo a passo com as IAs na versão beta. Continuaremos a desenvolver e aperfeiçoar esses recursos à medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas.
Como estamos construindo com responsabilidade e priorizando a segurança das pessoas?
Os modelos de IA personalizados e que potencializam novas experiências baseadas em texto – como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, são construídos com base no Llama 2 e aproveitam seu treinamento de segurança e responsabilidade. Além disso, temos investido em medidas específicas para os recursos que anunciamos hoje.
Estamos compartilhando um recurso que explica com mais detalhes as etapas que estamos seguindo para identificar possíveis vulnerabilidades, reduzir riscos, aumentar a segurança e confiabilidade. Por exemplo:
- Estamos avaliando e melhorando nossas IAs de conversação com especialistas externos e internos por meio de exercícios com times de risco, que são equipes dedicadas de profissionais que passam horas testando nossos modelos, procurando maneiras inesperadas de usá-los, além de identificar e corrigir vulnerabilidades.
- Estamos ajustando os modelos, o que inclui treiná-los para executar tarefas específicas, como gerar imagens de alta qualidade, com instruções que podem aumentar a probabilidade de fornecer respostas úteis. Eles também estão sendo treinados para fornecer recursos apoiados por especialistas em resposta a questões de segurança. Por exemplo, as IAs recomendarão organizações locais de prevenção ao suicídio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixarão claro que não podem fornecer aconselhamento médico.
- Estamos treinando nossos modelos sobre diretrizes de segurança e responsabilidade, o que significa que eles são menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos.
- Estamos tomando medidas para reduzir o preconceito, que é uma nova área de investigação em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem.
- Desenvolvemos novas tecnologias para detectar e tomar medidas em relação a conteúdos que violam nossas políticas. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas.
- Construímos ferramentas de feedback dentro desses recursos. Nenhum modelo de IA é perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de segurança e a detecção automática de violações de políticas. Também estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de segurança por meio do programa de recompensas de bugs de longa duração da Meta.
Como protegemos a privacidade das pessoas
Respondemos pela proteção da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que construímos siga as práticas recomendadas e atenda aos altos padrões de proteção de dados.
Acreditamos que é importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, não utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui.
Como nos certificamos que as pessoas sabem como usar os novos recursos e estão cientes de suas limitações?
Fornecemos informações dentro dos recursos para ajudar as pessoas a entender quando estão interagindo com a IA e como essa nova tecnologia funciona. Durante a experiência do produto, indicamos que ele pode gerar resultados imprecisos ou inadequados.
Ano passado, publicamos 22 “cartões de sistema” para fornecer às pessoas informações claras sobre como nossos sistemas de IA tomam decisões que as afetam. Hoje, estamos compartilhando novos Cartões de Sistema de IA generativa no site de IA da Meta – um para sistemas de IA que geram texto que alimenta a IA da Meta e outro para sistemas de IA que geram imagens para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstração interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos.
Como estamos ajudando as pessoas a saber quando as imagens são criadas com nossos recursos de IA?
Estamos seguindo as melhores práticas do setor para que seja mais difícil a disseminação de informações incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo terão marcadores visíveis para que as pessoas saibam que o conteúdo foi criado por IA. Também estamos desenvolvendo técnicas adicionais para incluir informações em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experiências à medida que a tecnologia for aprimorada. Não planejamos adicionar esses recursos às figurinhas geradas por IA, pois elas não são fotorrealistas e, portanto, é improvável que induzam as pessoas a pensar que são reais.
Atualmente, não há padrões comuns para identificar e rotular o conteúdo gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em fóruns como a Partnership on AI na esperança de desenvolvê-los.
Que medidas estamos tomando para impedir que as pessoas espalhem desinformação usando IA generativa?
A IA é uma parte fundamental no combate à desinformação e a outros conteúdos potencialmente nocivos. Por exemplo, desenvolvemos tecnologias de IA para fazer a correspondência de duplicatas de conteúdo previamente verificado por checadores de informação. Também temos uma ferramenta chamada Few-Shot Learner, que pode se adaptar de maneira mais fácil e agir rapidamente em relação a conteúdos nocivos, sejam eles novos ou em evolução, trabalhando em mais de 100 idiomas. Anteriormente, precisávamos reunir milhares ou, às vezes, até milhões de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner é possível treinar um modelo de IA com base em apenas alguns exemplos.
A IA generativa pode nos ajudar a eliminar conteúdo nocivo com mais rapidez e precisão do que as ferramentas de IA existentes. Começamos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padrões da Comunidade para ajudar a determinar se um conteúdo viola nossas políticas ou não. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de máquina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poderá nos ajudar a aplicar nossas políticas no futuro.