Na Meta, passamos mais de uma década trabalhando para manter as pessoas seguras na internet. Nesse período, desenvolvemos diversas ferramentas e recursos para ajudar a prevenir e combater possíveis danos – e à medida que predadores se adaptaram para tentar escapar das nossas proteções, continuamos trabalhando para nos adequar a esse cenário em constante evolução.
Estamos felizes com as oportunidades que a tecnologia de inteligência artificial generativa pode trazer, mas queremos ter certeza de que a inovação e a segurança andam de mãos dadas. É por isso que tomamos medidas para construir os nossos recursos e modelos de inteligência artificial generativa de forma responsável. Por exemplo, realizamos extensos exercícios com equipes de profissionais especializados em áreas como exploração infantil e abordamos as vulnerabilidades localizadas.
Agora, a Meta está se unindo a empresas como a Thorn, a All Tech e outros líderes da indústria de tecnologia em um esforço para evitar o uso indevido das ferramentas de inteligência artificial generativa para a promoção da exploração infantil. Junto com nossos parceiros da indústria, a Meta se compromete com os princípios indicados abaixo, de “segurança por design” da Thorn e da All Tech is Human, que serão aplicados conforme necessário, e vamos disponibilizar atualizações sobre o nosso progresso. Esses fundamentos vão balizar o desenvolvimento da tecnologia de inteligência artificial generativa na Meta e ajudarão a garantir a mitigação de potenciais riscos desde o princípio.
DESENVOLVIMENTO: Desenvolver, construir e treinar modelos de inteligência artificial generativa que abordem, proativamente, os riscos à segurança infantil.
- Disponibilizar, de forma responsável, nossos conjuntos de dados de treinamento e protegê-los de materiais de abuso sexual infantil (CSAM) e conteúdos de exploração sexual infantil (CSEM): isso é essencial para ajudar a evitar que modelos generativos produzam CSAM e CSEM gerados por inteligência artificial. A presença de CSAM e CSEM em conjuntos de dados de treinamento para modelos generativos é um caminho pelo qual esses protótipos são capazes de reproduzir conteúdos abusivos desse tipo. Para alguns modelos, suas capacidades de generalização composicional permitem, ainda, combinar conceitos (por exemplo, conteúdo sexual adulto e representações não sexuais de crianças) para que, então, possam produzir CSAM com inteligência artificial generativa. Temos o compromisso de evitar ou mitigar dados de treinamento com potencial risco de conter CSAM e CSEM. Estamos empenhados em detectar e remover materiais de abuso e exploração sexual infantil dos nossos dados de treinamento e denunciar qualquer conteúdo de abuso sexual infantil às autoridades competentes. Estamos dedicados em abordar o risco da criação de CSAM com o uso de inteligência artificial generativa, que indicam a presença de representações de crianças ao lado de conteúdo sexual adulto, em nossos conjuntos de dados de treinamento de geração de vídeo, imagem e áudio.
- Incorporar ciclos de feedback e estratégias interativas de testes intensivos no nosso processo de desenvolvimento: O aprendizado e os testes contínuos para compreender as capacidades de um modelo para produzir conteúdos abusivos são fundamentais para combater, de forma eficaz, o uso indevido e recorrente desses modelos por criminosos. Se não testarmos a resistência dos nossos modelos frente a essas capacidades, os criminosos o farão de qualquer maneira. Estamos comprometidos em realizar testes intensivos, estruturados, em escala e consistentes com os nossos modelos durante todo o processo de desenvolvimento para verificar a capacidade de produção de materiais de CSAM e CSEM criados com inteligência artificial generativa e dentro dos limites da lei. Vamosintegrar essas descobertas novamente no treinamento e no desenvolvimento de modelos para melhorar a segurança para os nossos produtos e sistemas de inteligência artificial generativa.
- Aplicar a origem do conteúdo tendo em mente o seu uso indevido: Criminosos utilizam a inteligência artificial generativa para criar materiais de abuso sexual infantil e esse tipo de conteúdo realista pode ser produzido em grande escala. Podemos descrever a identificação das vítimas como “uma agulha no palheiro” para a aplicação da lei e para examinar grandes quantidades de conteúdo para encontrar uma criança que esteja potencialmente em risco. A crescente prevalência de CSAM criado com inteligência artificial está aumentando ainda mais esse “palheiro”. Soluções que visem entender a origem de conteúdos que possam ser usadas para identificar, com segurança, se o conteúdo é gerado por inteligência artificial serão cruciais para responder de forma eficaz aos materiais de abuso sexual infantil. Estamos comprometidos em desenvolver soluções de última geração para detectar, em nossas ferramentas, a origem de conteúdos que geram imagens e vídeos. Estamos empenhados em implementar soluções para lidar com o uso indevido de criminosos, como considerar a incorporação de marcas d’água ou outras técnicas que incluam sinais imperceptíveis no conteúdo como parte do processo de geração de imagens e vídeos, conforme viabilidade.
IMPLEMENTAÇÃO: Lançar e divulgar modelos de inteligência artificial generativa depois de terem sido treinados e avaliados para segurança infantil, fornecendo proteção durante todo o processo.
- Proteger os nossos produtos e serviços de inteligência artificial generativa contra conteúdos e condutas abusivos: Nossos produtos e serviços de inteligência artificial generativa capacitam nossos usuários a criar e explorar novos horizontes. Esses mesmos usuários merecem que esse espaço de criação esteja livre de fraudes e abusos. Estamos empenhados em combater e responder a conteúdos abusivos (materiais de abuso e exploração sexual infantil, incluindo aqueles criados com inteligência artificial generativa) através dos nossos sistemas de inteligência artificial generativa e em incorporar esforços de prevenção. As vozes dos nossos usuários são fundamentais e estamos comprometidos em incorporar opções de relatórios ou feedbacks dos usuários para capacitá-los a construir livremente em nossas plataformas.
- Hospedar modelos de forma responsável: À medida que nossos modelos continuam a alcançar novos recursos e patamares criativos, uma ampla variedade de mecanismos de implementação indicam oportunidades e riscos. A segurança do projeto deve incluir não apenas como o nosso modelo é treinado, mas como nosso modelo é hospedado. Estamos comprometidos com a hospedagem responsável dos nossos modelos generativos primários, analisando-os, por exemplo, com o apoio de equipes responsáveis ou pela implantação em fases de acordo com o seu potencial de gerar conteúdos de CSAM e CSEM com IA generativa e implementar restrições antes da hospedagem. Também estamos comprometidos em hospedar modelos de terceiros de forma responsável, de forma a minimizar a hospedagem de modelos que geram CSAM com o uso de inteligência artificial generativa. Vamos garantir que tenhamos regras e políticas claras em torno da proibição de modelos que gerem conteúdo que viole a segurança infantil.
- Incentive o domínio do desenvolvedor na segurança desde o início do projeto: A criatividade do desenvolvedor é a força vital do progresso, e este progresso deve ser acompanhado de uma cultura de apropriação e responsabilidade. Incentivamos o domínio do desenvolvedor na segurança desde o início do seu projeto. Faremos o possível para fornecer informações sobre os nossos modelos, incluindo uma seção de segurança infantil que detalhe as medidas tomadas para evitar o uso indevido do modelo para causar ainda mais danos sexuais contra crianças. Estamos empenhados em apoiar o ecossistema de desenvolvedores em seus esforços para lidar com os riscos de segurança infantil.
MANTER: Manter a segurança do modelo e da plataforma, continuando a compreender e responder ativamente aos riscos de segurança infantil.
- Impedir que os nossos serviços aumentem o acesso a ferramentas prejudiciais: Criminosos construíram modelos especificamente para produzir conteúdos de abuso sexual infantil com o uso de inteligência artificial generativa, em alguns casos visando crianças específicas para reproduzir conteúdo de abuso sexual infantil que retrate alguma semelhança com elas. Eles também construíram serviços que são usados para “nudificar” conteúdo de crianças, criando um novo CSAM gerado com IA generativa. Esta é uma grave violação dos direitos das crianças. Estamos empenhados em remover estes modelos e serviços das nossas plataformas, além dos seus resultados de pesquisa. [Este princípio se aplica apenas a mecanismos de pesquisa e provedores de modelos terceirizados voltados ao público.]
- Investir em pesquisas e soluções tecnológicas futuras: O combate ao abuso sexual infantil online é uma ameaça em constante evolução à medida que predadores adotam novas tecnologias nos seus esforços. O combate eficaz à utilização indevida de IA generativa para promover o abuso sexual infantil exigirá pesquisas contínuas para que possamos nos manter atualizados a novos vetores de danos e ameaças. Por exemplo, novas tecnologias para proteger os conteúdos dos usuários contra a manipulação da IA serão importantes para proteger as crianças do abuso e da exploração sexual online. Estamos empenhados em investir em estudos e em desenvolvimentos tecnológicos relevantes para abordar a utilização de IA generativa para o abuso e a exploração sexual de crianças online. Procuraremos compreender como é que as nossas plataformas, produtos e modelos estão sendo alvo de potenciais abusos por parte de criminosos. Estamos comprometidos em manter a qualidade das nossas restrições para atender e superar os novos caminhos de uso indevido que possam se materializar.
- Combater a exploração e abuso sexual (incluindo quando criados por IA generativa) nas nossas plataformas: Estamos empenhados em combater o CSAM online e evitar que as nossas plataformas sejam utilizadas para criar, armazenar, solicitar ou distribuir esse tipo de material. À medida que novos vetores de ameaças surgirem, estaremos sempre empenhados em enfrentar este momento. Nos dedicamos em detectar e remover conteúdos que violem a segurança infantil em nossas plataformas. Estamos dedicados a proibir e combater a exploração e abuso sexual (incluindo quando criados por IA generativa) nas nossas plataformas e em combater a utilização fraudulenta de inteligência artificial para prejudicar sexualmente crianças.