Por Stefano Fratta, Global Engagement Director, Meta Privacy Policy
Atualizado em 14 de junho de 2024
Estamos desapontados com o pedido da Comissão Irlandesa de Proteção de Dados (DPC), nosso principal regulador, em nome das DPAs europeias, para adiar o treinamento dos nossos grandes modelos de linguagem (LLMs) que utiliza do conteúdo público compartilhado por adultos no Facebook e no Instagram – especialmente tendo em vista que incorporamos o feedback regulatório e que as DPAs europeias foram informadas desse processo desde março. Isso representa um retrocesso para a inovação europeia, à concorrência no desenvolvimento da IA e mais atrasos na disponibilização dos benefícios da IA às pessoas na Europa.
Continuamos altamente confiantes de que a nossa abordagem está em conformidade com as leis e regulamentos europeus. O treinamento de IA não é exclusivo dos nossos serviços e somos mais transparentes do que muitos dos nossos parceiros do setor.
Estamos empenhados em levar a IA da Meta, junto com os modelos que a alimentam, a mais pessoas em todo o mundo, incluindo na Europa. Mas, em suma, sem a inclusão de informações locais, só seríamos capazes de oferecer às pessoas uma experiência abaixo do padrão. Isso significa que não podemos lançar o Meta AI na Europa neste momento.
Continuaremos a trabalhar em colaboração com o DPC para que as pessoas na Europa tenham acesso e sejam atendidas adequadamente pelo mesmo nível de inovação em IA que no restante do mundo.
Esse adiamento também nos permitirá atender a solicitações específicas que recebemos do Information Commissioner’s Office (ICO), nosso órgão regulador do Reino Unido, antes de dar início ao treinamento.
Originalmente publicado em 10 de junho de 2024
Durante anos, temos trabalhado arduamente para criar a próxima geração de recursos de IA em nossa família de aplicativos e dispositivos. E, este ano, planejamos expandir a inteligência artificial na Meta – nossa oferta de funcionalidades e experiências de IA generativa juntamente com os modelos que as alimentam – às pessoas na Europa.
A inteligência artificial na Meta já está disponível em outras partes do mundo. Isso inclui o Llama – nosso grande modelo de linguagem de código aberto de última geração – e o Meta AI – o assistente de IA mais inteligente que você pode usar de forma gratuita. Para servir adequadamente nossas comunidades europeias, os modelos que alimentam a inteligência artificial na Meta precisam ser treinados com informações relevantes que reflitam os diversos idiomas, geografias e referências culturais das pessoas na Europa que os utilizarão. Para fazer isso, queremos treinar nossos grandes modelos de linguagem que potencializam os recursos de IA usando o conteúdo que as pessoas na UE optaram por compartilhar publicamente nos produtos e serviços da Meta.
Se não treinarmos os nossos modelos com base no conteúdo público que os europeus compartilham em nossos serviços e em outros locais, como publicações ou comentários públicos, então os modelos e as funcionalidades de IA que eles alimentam não compreenderão com precisão idiomas, culturas ou tópicos de tendência importantes nas redes sociais da região. Acreditamos que os europeus serão mal servidos por modelos de IA que não sejam informados pelas ricas contribuições culturais, sociais e históricas da Europa.
A Meta não é a primeira empresa a fazer isso – estamos seguindo o exemplo dado por outras companhias, incluindo o Google e a OpenAI, que já utilizaram dados de usuários europeus para treinar IA. A nossa abordagem é mais transparente e oferece controles mais acessíveis do que muitos dos nossos concorrentes da indústria que já treinam os seus modelos com base em informações semelhantes disponíveis publicamente.
Estamos comprometidos em desenvolver a IA de forma responsável e transparente
A construção desta tecnologia implica a responsabilidade de desenvolver melhores práticas e políticas que cumpram as leis e regulamentos locais. Em linha com esse compromisso, estamos consultando o nosso principal regulador de privacidade na UE, a Comissão Irlandesa de Proteção de Dados, e incorporamos o seu feedback até o momento para garantir que a forma como treinamos IA na Meta esteja em conformidade com as leis de privacidade da região. Também continuamos a trabalhar com especialistas, como acadêmicos e defensores dos consumidores, para garantir que tudo o que construímos segue as melhores práticas.
Queremos ser transparentes com as pessoas para que estejam conscientes dos seus direitos e dos controles disponíveis. É por isso que, desde o dia 22 de maio, enviamos mais de dois milhões de notificações em nossos aplicativos e e-mails a usuários europeus para explicar o que estamos fazendo. Essas notificações contém um link para um formulário de objeção que dá às pessoas a oportunidade de se oporem ao uso de seus dados em nossos esforços de treinamento de IA.
Revisamos a abordagem dos nossos concorrentes do setor no desenvolvimento das nossas notificações, bem como as nossas próprias notificações anteriores de atualização de políticas. Como resultado, tornamos o nosso formulário mais fácil de encontrar, ler e utilizar do que os disponibilizados por outras empresas que oferecem IA generativa na UE: ele pode ser acessado com apenas três cliques e requer menos campos de preenchimento. Para ajudar ainda mais a compreensão, também o projetamos para que a leitura seja mais acessível a pessoas mais novas, embora não treinemos os nossos modelos Llama com base em conteúdos de contas de europeus com menos de 18 anos.
Honramos todas as objeções europeias. Se um formulário de objeção for enviado antes do início do treinamento do Llama, os dados dessa pessoa não serão usados para treinar esses modelos, nem na rodada de treinamento atual nem no futuro.
De forma clara, o nosso objetivo é criar funcionalidades úteis baseadas em informações que pessoas com mais de 18 anos na Europa optaram por partilhar publicamente nos produtos e serviços da Meta, tais como posts, comentários ou fotos públicos e suas respectivas legendas. Os modelos podem ser treinados nas postagens compartilhadas publicamente pelas pessoas, mas não é um banco de dados com as informações de cada pessoa e nem foi projetado para identificar qualquer indivíduo. Em vez disso, esses modelos são construídos por meio da análise da informação das pessoas para identificar padrões, como compreender frases coloquiais ou referências locais, e não para identificar uma pessoa específica ou as suas informações.
Como já dissemos, não usamos mensagens privadas de pessoas com amigos e familiares para treinar nossos sistemas de IA. No futuro, prevemos o uso de outros conteúdos, como interações com recursos de IA ou bate-papos com uma empresa que usa IA no Meta AI.
Tal como muitos atores da indústria que vieram antes de nós na formação de grandes modelos de linguagem utilizando dados europeus, para fazer este trabalho na UE, contaremos com uma base jurídica de “Interesses Legítimos” para cumprir o Regulamento Geral de Proteção de Dados da UE (GDPR). Acreditamos que essa base jurídica é o equilíbrio mais adequado para o processamento de dados públicos na escala necessária para treinar modelos de IA, ao mesmo tempo respeitando os direitos das pessoas.
Sentimos a responsabilidade de construir uma IA que não seja imposta aos europeus, mas que seja realmente desenvolvida para eles. Para fazer isso respeitando as escolhas dos usuários europeus, pensamos que a coisa certa a fazer é informá-los dos nossos planos e dar a eles a opção de nos dizerem se não quiserem participar. E acreditamos que a melhor forma de alcançar este equilíbrio é com a transparência das empresas em relação às informações que as suas IA utilizam, ao mesmo tempo que fornecem aos usuários controles proeminentes para cancelarem essas utilizações, se essa for a sua preferência. Isso é precisamente o que fizemos.
A Europa está numa encruzilhada
No momento em que a Europa se encontra no limiar da próxima grande evolução tecnológica da sociedade, alguns ativistas defendem abordagens extremas aos dados e à IA. Sejamos claros: essas posições não refletem a legislação europeia e equivalem a um argumento de que os europeus não deveriam ter acesso a — ou ser devidamente servidos por — IA que o resto do mundo tem. Discordamos profundamente desse resultado.
Sendo uma das regiões mais influentes do mundo, a Europa tem potencial para ser uma líder competitiva na inovação em IA. Mas ainda existem questões: os europeus terão igualdade de acesso à IA inovadora? As experiências de IA refletirão nossa cultura, humor e história? Ou será que a Europa quer observar como o resto do mundo se beneficia de uma tecnologia verdadeiramente inovadora que constrói comunidades e impulsiona o crescimento?
A IA é a próxima fronteira em inovação. Estamos vivendo um dos momentos tecnológicos mais emocionantes de uma geração, onde avanços acontecem diante de nossos olhos e as possibilidades são infinitas. E na Meta, queremos que os europeus façam parte disso.