{"id":25306,"date":"2023-11-30T15:48:29","date_gmt":"2023-11-30T18:48:29","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25306"},"modified":"2023-11-30T15:48:29","modified_gmt":"2023-11-30T18:48:29","slug":"progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/","title":{"rendered":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Estamos animados em compartilhar hoje mais informa\u00e7\u00f5es sobre a abordagem adotada da equipe Fundamental AI Research (FAIR) da Meta para criar uma pesquisa de intelig\u00eancia artificial (IA) socialmente respons\u00e1vel. Os modelos de IA n\u00e3o existem de forma isolada \u2013 eles fazem parte de um ecossistema com o qual os seres humanos interagem todos os dias. Tamb\u00e9m se tornou cada vez mais crucial tornar nossos modelos n\u00e3o apenas justos e robustos, mas tamb\u00e9m transparentes, para que juntos possamos contribuir com a cria\u00e7\u00e3o de uma IA que funcione bem para todos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos compartilhando atualiza\u00e7\u00f5es de tr\u00eas categorias de pesquisa de IA socialmente respons\u00e1vel na FAIR: compreens\u00e3o t\u00e9cnica, compreens\u00e3o contextual e avalia\u00e7\u00e3o e benchmarking. O aumento da compreens\u00e3o t\u00e9cnica ajuda a deduzir quando, por que e como os modelos demonstram preocupa\u00e7\u00f5es com a responsabilidade. A cria\u00e7\u00e3o de modelos inclusivos e conscientes do contexto pode aprofundar a compreens\u00e3o em diversos contextos sociais. J\u00e1 a cria\u00e7\u00e3o de benchmarks hol\u00edsticos e ferramentas de avalia\u00e7\u00e3o permite que a \u00e1rea mensure e acompanhe o progresso.<\/span><\/p>\n<p><b>Constru\u00e7\u00e3o de ferramentas e testes para imparcialidade<\/b><\/p>\n<p><span style=\"font-weight: 400\">Os aprimoramentos na pesquisa sobre imparcialidade podem ajudar a construir inova\u00e7\u00f5es em IA que funcionem bem para todos, independentemente das caracter\u00edsticas demogr\u00e1ficas. \u00c9 por isso que a FAIR est\u00e1 criando testes e ferramentas que visam minimizar poss\u00edveis vieses e ajudar a permitir a inclus\u00e3o e a acessibilidade da IA.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Continuamos nosso trabalho para criar e distribuir conjuntos de dados mais diversificados, que representam uma ampla gama de pessoas e experi\u00eancias. Lan\u00e7amos o<\/span><a href=\"https:\/\/ai.meta.com\/blog\/casual-conversations-v2-dataset-measure-fairness\/\"> <span style=\"font-weight: 400\">conjunto de dados Casual Conversations v2<\/span><\/a><span style=\"font-weight: 400\">, um recurso orientado por consentimento e dispon\u00edvel publicamente, que permite aos pesquisadores avaliar melhor a imparcialidade e a robustez de determinados tipos de modelos de IA. Tamb\u00e9m apresentamos o<\/span><a href=\"https:\/\/ai.meta.com\/blog\/dinov2-facet-computer-vision-fairness-evaluation\/\"> <span style=\"font-weight: 400\">FACET<\/span><\/a> <span style=\"font-weight: 400\">(FAirness in Computer Vision EvaluaTion), um novo tipo de benchmark abrangente para avaliar a imparcialidade dos modelos de vis\u00e3o computacional em tarefas de classifica\u00e7\u00e3o, detec\u00e7\u00e3o, segmenta\u00e7\u00e3o de inst\u00e2ncias e aterramento visual.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Na crescente sub\u00e1rea dos grandes modelos de linguagem (LLMs), as m\u00e9tricas de vi\u00e9s e toxicidade abrangem diferentes eixos demogr\u00e1ficos e dom\u00ednios de texto. O uso de apenas uma m\u00e9trica n\u00e3o fornece um panorama completo, por isso desenvolvemos o<\/span><a href=\"https:\/\/ai.meta.com\/research\/publications\/robbie-robust-bias-evaluation-of-large-generative-language-models\/\"> <span style=\"font-weight: 400\">Robust Bias Evaluation of Large Generative Language Models (ROBBIE)<\/span><\/a><span style=\"font-weight: 400\">, uma ferramenta que compara seis m\u00e9tricas diferentes de vi\u00e9s e toxicidade baseadas em solicita\u00e7\u00f5es em 12 eixos demogr\u00e1ficos e cinco LLMs distintos. A combina\u00e7\u00e3o dessas m\u00e9tricas permite uma melhor compreens\u00e3o de vi\u00e9s e da toxicidade nos modelos que est\u00e3o sendo comparados. Ela tamb\u00e9m nos permite explorar a frequ\u00eancia dos termos demogr\u00e1ficos nos textos em que um LLM \u00e9 treinado e fornece informa\u00e7\u00f5es sobre como isso pode afetar os poss\u00edveis vieses do modelo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A IA generativa representativa ajudaria a permitir a gera\u00e7\u00e3o consistente e realista de conte\u00fados diversificados e inclusivos. O<\/span><a href=\"https:\/\/arxiv.org\/abs\/2308.06198\"> <span style=\"font-weight: 400\">DIG In<\/span><\/a><span style=\"font-weight: 400\"> se concentra na avalia\u00e7\u00e3o de lacunas existentes na qualidade e na diversidade do conte\u00fado gerado a partir de modelos de texto para imagem entre regi\u00f5es geogr\u00e1ficas. Depois de auditar cinco modelos de texto para imagem de \u00faltima gera\u00e7\u00e3o usando o DIG In, nossos resultados sugerem que o progresso na qualidade da gera\u00e7\u00e3o de imagens ocorreu a partir da representa\u00e7\u00e3o geogr\u00e1fica do mundo real. Os insights que reunimos ajudaram a identificar \u00e1reas importantes para aprimoramento, como a redu\u00e7\u00e3o de estere\u00f3tipos de fundo ou a garantia de que a solicita\u00e7\u00e3o de diversidade n\u00e3o prejudique a consist\u00eancia da imagem.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A imparcialidade e a privacidade muitas vezes podem ser consideradas conflitantes, pois a maioria dos m\u00e9todos de imparcialidade precisam de acesso a informa\u00e7\u00f5es confidenciais. Desenvolvemos um<\/span><a href=\"https:\/\/arxiv.org\/pdf\/2305.11361.pdf\"> <span style=\"font-weight: 400\">novo paradigma<\/span><\/a><span style=\"font-weight: 400\"> para avaliar a imparcialidade do grupo que usa redes sociais para amenizar esse problema. A principal observa\u00e7\u00e3o desse trabalho \u00e9 que a homofilia, enquanto tend\u00eancia de se vincular a semelhantes, nos permite, nas redes sociais, definir a imparcialidade do grupo sem acesso a nenhuma informa\u00e7\u00e3o do mesmo. Isso nos permite reduzir os resultados injustos do aprendizado de m\u00e1quina, ajustando os resultados de acordo com a semelhan\u00e7a dos usu\u00e1rios induzida pela estrutura da rede. \u00c9 importante ressaltar que essa abordagem funciona sem acesso \u00e0s informa\u00e7\u00f5es do grupo e sem nunca inferir informa\u00e7\u00f5es confidenciais. Dessa forma, as informa\u00e7\u00f5es da rede social ajudam a respeitar a privacidade dos usu\u00e1rios e, ao mesmo tempo, permitem um aprendizado de m\u00e1quina justo.<\/span><\/p>\n<p><b>Promovendo transpar\u00eancia, seguran\u00e7a e responsabilidade<\/b><\/p>\n<p><span style=\"font-weight: 400\">A IA generativa est\u00e1 capacitando as pessoas a criarem rapidamente v\u00eddeos, imagens, \u00e1udios, textos vibrantes e muito mais \u2013 tudo com base em um prompt inserido. Essas novas ferramentas criativas tamb\u00e9m est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Embora haja muito com que se entusiasmar, \u00e9 importante que fa\u00e7amos nossa parte para reduzir a possibilidade de as pessoas utilizarem essas ferramentas de forma errada.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desenvolvemos o<\/span><a href=\"https:\/\/ai.meta.com\/blog\/stable-signature-watermarking-generative-ai\/\"> <span style=\"font-weight: 400\">Stable Signature<\/span><\/a><span style=\"font-weight: 400\">, um novo m\u00e9todo de marca d&#8217;\u00e1gua para distinguir quando as imagens s\u00e3o geradas por IA de c\u00f3digo aberto. Apesar da marca d&#8217;\u00e1gua ser invis\u00edvel a olho nu, ela pode ser detectada por algoritmos mesmo que o conte\u00fado tenha sido editado. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo<\/span><a href=\"https:\/\/ai.meta.com\/blog\/seamless-communication\/\"> <span style=\"font-weight: 400\">SeamlessM4T v2<\/span><\/a><span style=\"font-weight: 400\">, nosso modelo de tradu\u00e7\u00e3o fundamental para texto e fala. A marca d&#8217;\u00e1gua permite identificar com precis\u00e3o os segmentos gerados pela IA em um trecho de \u00e1udio mais longo. Essa precis\u00e3o \u00e9 particularmente importante para a fala, tendo em vista que a modifica\u00e7\u00e3o de uma \u00fanica palavra pode alterar todo o significado de uma frase. Detalhamos mais nossa abordagem de marca d&#8217;\u00e1gua para<\/span><a href=\"https:\/\/arxiv.org\/abs\/2303.15435\"> <span style=\"font-weight: 400\">imagens<\/span><\/a><span style=\"font-weight: 400\">,<\/span><a href=\"https:\/\/ai.meta.com\/blog\/seamless-communication\/\"> <span style=\"font-weight: 400\">fala<\/span><\/a><span style=\"font-weight: 400\"> e modelos de<\/span><a href=\"https:\/\/arxiv.org\/abs\/2308.00113\"> <span style=\"font-weight: 400\">texto<\/span><\/a><span style=\"font-weight: 400\"> em vers\u00f5es recentes.<\/span><\/p>\n<p><b>O que vem a seguir<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nossos esfor\u00e7os de IA socialmente respons\u00e1veis s\u00e3o impulsionados por uma equipe interdisciplinar cuja miss\u00e3o \u00e9 ajudar a garantir que a pesquisa na FAIR beneficie as pessoas e a sociedade. O objetivo \u00e9 colaborar com toda a comunidade de IA, desde empresas at\u00e9 o meio acad\u00eamico, para compartilhar e alinhar consistentemente m\u00e9tricas e considera\u00e7\u00f5es de refer\u00eancia. At\u00e9 mesmo a melhor pesquisa de IA respons\u00e1vel n\u00e3o teria impacto se n\u00e3o fosse adotada e apoiada pela comunidade de IA mais ampla. \u00c9 por isso que fizemos uma parceria com a<\/span><a href=\"https:\/\/mlcommons.org\/2023\/10\/mlcommons-announces-the-formation-of-ai-safety-working-group\/\"> <span style=\"font-weight: 400\">MLCommons<\/span><\/a><span style=\"font-weight: 400\"> para colaborar com o Grupo de Trabalho de Seguran\u00e7a de IA, pois trabalhamos em conjunto com l\u00edderes do setor e de universidades para desenvolver testes de seguran\u00e7a de IA e definir ainda mais as refer\u00eancias de seguran\u00e7a de IA padr\u00e3o.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tamb\u00e9m estamos trabalhando com a Partnership on AI (PAI) e apoiamos o<\/span><a href=\"https:\/\/partnershiponai.org\/pai-announces-meta-and-microsoft-to-join-framework-for-collective-action-on-synthetic-media\/\"> <span style=\"font-weight: 400\">Framework for Collective Action on Synthetic Media<\/span><\/a> <span style=\"font-weight: 400\">e o<\/span><a href=\"https:\/\/partnershiponai.org\/modeldeployment\/#landing\"> <span style=\"font-weight: 400\">Guidance for Safe Foundation Model Deployment<\/span><\/a><span style=\"font-weight: 400\">. <\/span><span style=\"font-weight: 400\">Como a \u00e1rea continua a evoluir, sabemos que n\u00e3o podemos fazer isso sozinhos. Uma maior colabora\u00e7\u00e3o ser\u00e1 essencial para fornecer a pesquisa de IA mais segura e respons\u00e1vel.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Estamos animados em compartilhar hoje mais informa\u00e7\u00f5es sobre a abordagem adotada da equipe Fundamental AI Research (FAIR) da Meta para criar uma pesquisa de intelig\u00eancia artificial (IA) socialmente respons\u00e1vel. Os modelos de IA n\u00e3o existem de forma isolada \u2013 eles fazem parte de um ecossistema com o qual os seres humanos interagem todos os dias. Tamb\u00e9m se tornou cada vez mais crucial tornar nossos modelos n\u00e3o apenas justos e robustos, mas tamb\u00e9m transparentes, para que juntos possamos contribuir com a cria\u00e7\u00e3o de uma IA que funcione bem para todos. Estamos compartilhando atualiza\u00e7\u00f5es de tr\u00eas categorias de pesquisa de IA socialmente respons\u00e1vel na FAIR: compreens\u00e3o t\u00e9cnica, compreens\u00e3o contextual e avalia\u00e7\u00e3o e benchmarking. O aumento da compreens\u00e3o t\u00e9cnica ajuda a deduzir quando, por que e como os modelos demonstram preocupa\u00e7\u00f5es com a responsabilidade. A cria\u00e7\u00e3o de modelos inclusivos e conscientes do contexto pode aprofundar a compreens\u00e3o em diversos contextos sociais. J\u00e1 a cria\u00e7\u00e3o de benchmarks hol\u00edsticos e ferramentas de avalia\u00e7\u00e3o permite que a \u00e1rea mensure e acompanhe o progresso. Constru\u00e7\u00e3o de ferramentas e testes para imparcialidade Os aprimoramentos na pesquisa sobre imparcialidade podem ajudar a construir inova\u00e7\u00f5es em IA que funcionem bem para todos, independentemente das caracter\u00edsticas demogr\u00e1ficas. \u00c9 por isso que a FAIR est\u00e1 criando testes e ferramentas que visam minimizar poss\u00edveis vieses e ajudar a permitir a inclus\u00e3o e a acessibilidade da IA. Continuamos nosso trabalho para criar e distribuir conjuntos de dados mais diversificados, que representam uma ampla gama de pessoas e experi\u00eancias. Lan\u00e7amos o conjunto de dados Casual Conversations v2, um recurso orientado por consentimento e dispon\u00edvel publicamente, que permite aos pesquisadores avaliar melhor a imparcialidade e a robustez de determinados tipos de modelos de IA. Tamb\u00e9m apresentamos o FACET (FAirness in Computer Vision EvaluaTion), um novo tipo de benchmark abrangente para avaliar a imparcialidade dos modelos de vis\u00e3o computacional em tarefas de classifica\u00e7\u00e3o, detec\u00e7\u00e3o, segmenta\u00e7\u00e3o de inst\u00e2ncias e aterramento visual. Na crescente sub\u00e1rea dos grandes modelos de linguagem (LLMs), as m\u00e9tricas de vi\u00e9s e toxicidade abrangem diferentes eixos demogr\u00e1ficos e dom\u00ednios de texto. O uso de apenas uma m\u00e9trica n\u00e3o fornece um panorama completo, por isso desenvolvemos o Robust Bias Evaluation of Large Generative Language Models (ROBBIE), uma ferramenta que compara seis m\u00e9tricas diferentes de vi\u00e9s e toxicidade baseadas em solicita\u00e7\u00f5es em 12 eixos demogr\u00e1ficos e cinco LLMs distintos. A combina\u00e7\u00e3o dessas m\u00e9tricas permite uma melhor compreens\u00e3o de vi\u00e9s e da toxicidade nos modelos que est\u00e3o sendo comparados. Ela tamb\u00e9m nos permite explorar a frequ\u00eancia dos termos demogr\u00e1ficos nos textos em que um LLM \u00e9 treinado e fornece informa\u00e7\u00f5es sobre como isso pode afetar os poss\u00edveis vieses do modelo. A IA generativa representativa ajudaria a permitir a gera\u00e7\u00e3o consistente e realista de conte\u00fados diversificados e inclusivos. O DIG In se concentra na avalia\u00e7\u00e3o de lacunas existentes na qualidade e na diversidade do conte\u00fado gerado a partir de modelos de texto para imagem entre regi\u00f5es geogr\u00e1ficas. Depois de auditar cinco modelos de texto para imagem de \u00faltima gera\u00e7\u00e3o usando o DIG In, nossos resultados sugerem que o progresso na qualidade da gera\u00e7\u00e3o de imagens ocorreu a partir da representa\u00e7\u00e3o geogr\u00e1fica do mundo real. Os insights que reunimos ajudaram a identificar \u00e1reas importantes para aprimoramento, como a redu\u00e7\u00e3o de estere\u00f3tipos de fundo ou a garantia de que a solicita\u00e7\u00e3o de diversidade n\u00e3o prejudique a consist\u00eancia da imagem. A imparcialidade e a privacidade muitas vezes podem ser consideradas conflitantes, pois a maioria dos m\u00e9todos de imparcialidade precisam de acesso a informa\u00e7\u00f5es confidenciais. Desenvolvemos um novo paradigma para avaliar a imparcialidade do grupo que usa redes sociais para amenizar esse problema. A principal observa\u00e7\u00e3o desse trabalho \u00e9 que a homofilia, enquanto tend\u00eancia de se vincular a semelhantes, nos permite, nas redes sociais, definir a imparcialidade do grupo sem acesso a nenhuma informa\u00e7\u00e3o do mesmo. Isso nos permite reduzir os resultados injustos do aprendizado de m\u00e1quina, ajustando os resultados de acordo com a semelhan\u00e7a dos usu\u00e1rios induzida pela estrutura da rede. \u00c9 importante ressaltar que essa abordagem funciona sem acesso \u00e0s informa\u00e7\u00f5es do grupo e sem nunca inferir informa\u00e7\u00f5es confidenciais. Dessa forma, as informa\u00e7\u00f5es da rede social ajudam a respeitar a privacidade dos usu\u00e1rios e, ao mesmo tempo, permitem um aprendizado de m\u00e1quina justo. Promovendo transpar\u00eancia, seguran\u00e7a e responsabilidade A IA generativa est\u00e1 capacitando as pessoas a criarem rapidamente v\u00eddeos, imagens, \u00e1udios, textos vibrantes e muito mais \u2013 tudo com base em um prompt inserido. Essas novas ferramentas criativas tamb\u00e9m est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Embora haja muito com que se entusiasmar, \u00e9 importante que fa\u00e7amos nossa parte para reduzir a possibilidade de as pessoas utilizarem essas ferramentas de forma errada. Desenvolvemos o Stable Signature, um novo m\u00e9todo de marca d&#8217;\u00e1gua para distinguir quando as imagens s\u00e3o geradas por IA de c\u00f3digo aberto. Apesar da marca d&#8217;\u00e1gua ser invis\u00edvel a olho nu, ela pode ser detectada por algoritmos mesmo que o conte\u00fado tenha sido editado. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo de tradu\u00e7\u00e3o fundamental para texto e fala. A marca d&#8217;\u00e1gua permite identificar com precis\u00e3o os segmentos gerados pela IA em um trecho de \u00e1udio mais longo. Essa precis\u00e3o \u00e9 particularmente importante para a fala, tendo em vista que a modifica\u00e7\u00e3o de uma \u00fanica palavra pode alterar todo o significado de uma frase. Detalhamos mais nossa abordagem de marca d&#8217;\u00e1gua para imagens, fala e modelos de texto em vers\u00f5es recentes. O que vem a seguir Nossos esfor\u00e7os de IA socialmente respons\u00e1veis s\u00e3o impulsionados por uma equipe interdisciplinar cuja miss\u00e3o \u00e9 ajudar a garantir que a pesquisa na FAIR beneficie as pessoas e a sociedade. O objetivo \u00e9 colaborar com toda a comunidade de IA, desde empresas at\u00e9 o meio acad\u00eamico, para compartilhar e alinhar consistentemente m\u00e9tricas e considera\u00e7\u00f5es de refer\u00eancia. At\u00e9 mesmo a melhor pesquisa de IA respons\u00e1vel n\u00e3o teria impacto se n\u00e3o fosse adotada e apoiada pela comunidade de IA mais ampla. \u00c9 por isso que fizemos uma parceria com a MLCommons para colaborar com o Grupo de Trabalho de Seguran\u00e7a de IA, pois trabalhamos em conjunto com l\u00edderes do setor e de universidades para desenvolver testes de seguran\u00e7a de IA e definir ainda mais as refer\u00eancias de seguran\u00e7a de IA padr\u00e3o. Tamb\u00e9m estamos trabalhando com a Partnership on AI (PAI) e apoiamos o Framework for Collective Action on Synthetic Media e o Guidance for Safe Foundation Model Deployment. Como a \u00e1rea continua a evoluir, sabemos que n\u00e3o podemos fazer isso sozinhos. Uma maior colabora\u00e7\u00e3o ser\u00e1 essencial para fornecer a pesquisa de IA mais segura e respons\u00e1vel.","protected":false},"author":164097222,"featured_media":25307,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-25306","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-recent-news"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Estamos animados em compartilhar hoje mais informa\u00e7\u00f5es sobre a abordagem adotada da equipe Fundamental AI Research (FAIR) da Meta para criar uma pesquisa de intelig\u00eancia artificial (IA) socialmente respons\u00e1vel. Os modelos de IA n\u00e3o existem de forma isolada \u2013 eles fazem parte de um ecossistema com o qual os seres humanos interagem todos os dias. Tamb\u00e9m se tornou cada vez mais crucial tornar nossos modelos n\u00e3o apenas justos e robustos, mas tamb\u00e9m transparentes, para que juntos possamos contribuir com a cria\u00e7\u00e3o de uma IA que funcione bem para todos. Estamos compartilhando atualiza\u00e7\u00f5es de tr\u00eas categorias de pesquisa de IA socialmente respons\u00e1vel na FAIR: compreens\u00e3o t\u00e9cnica, compreens\u00e3o contextual e avalia\u00e7\u00e3o e benchmarking. O aumento da compreens\u00e3o t\u00e9cnica ajuda a deduzir quando, por que e como os modelos demonstram preocupa\u00e7\u00f5es com a responsabilidade. A cria\u00e7\u00e3o de modelos inclusivos e conscientes do contexto pode aprofundar a compreens\u00e3o em diversos contextos sociais. J\u00e1 a cria\u00e7\u00e3o de benchmarks hol\u00edsticos e ferramentas de avalia\u00e7\u00e3o permite que a \u00e1rea mensure e acompanhe o progresso. Constru\u00e7\u00e3o de ferramentas e testes para imparcialidade Os aprimoramentos na pesquisa sobre imparcialidade podem ajudar a construir inova\u00e7\u00f5es em IA que funcionem bem para todos, independentemente das caracter\u00edsticas demogr\u00e1ficas. \u00c9 por isso que a FAIR est\u00e1 criando testes e ferramentas que visam minimizar poss\u00edveis vieses e ajudar a permitir a inclus\u00e3o e a acessibilidade da IA. Continuamos nosso trabalho para criar e distribuir conjuntos de dados mais diversificados, que representam uma ampla gama de pessoas e experi\u00eancias. Lan\u00e7amos o conjunto de dados Casual Conversations v2, um recurso orientado por consentimento e dispon\u00edvel publicamente, que permite aos pesquisadores avaliar melhor a imparcialidade e a robustez de determinados tipos de modelos de IA. Tamb\u00e9m apresentamos o FACET (FAirness in Computer Vision EvaluaTion), um novo tipo de benchmark abrangente para avaliar a imparcialidade dos modelos de vis\u00e3o computacional em tarefas de classifica\u00e7\u00e3o, detec\u00e7\u00e3o, segmenta\u00e7\u00e3o de inst\u00e2ncias e aterramento visual. Na crescente sub\u00e1rea dos grandes modelos de linguagem (LLMs), as m\u00e9tricas de vi\u00e9s e toxicidade abrangem diferentes eixos demogr\u00e1ficos e dom\u00ednios de texto. O uso de apenas uma m\u00e9trica n\u00e3o fornece um panorama completo, por isso desenvolvemos o Robust Bias Evaluation of Large Generative Language Models (ROBBIE), uma ferramenta que compara seis m\u00e9tricas diferentes de vi\u00e9s e toxicidade baseadas em solicita\u00e7\u00f5es em 12 eixos demogr\u00e1ficos e cinco LLMs distintos. A combina\u00e7\u00e3o dessas m\u00e9tricas permite uma melhor compreens\u00e3o de vi\u00e9s e da toxicidade nos modelos que est\u00e3o sendo comparados. Ela tamb\u00e9m nos permite explorar a frequ\u00eancia dos termos demogr\u00e1ficos nos textos em que um LLM \u00e9 treinado e fornece informa\u00e7\u00f5es sobre como isso pode afetar os poss\u00edveis vieses do modelo. A IA generativa representativa ajudaria a permitir a gera\u00e7\u00e3o consistente e realista de conte\u00fados diversificados e inclusivos. O DIG In se concentra na avalia\u00e7\u00e3o de lacunas existentes na qualidade e na diversidade do conte\u00fado gerado a partir de modelos de texto para imagem entre regi\u00f5es geogr\u00e1ficas. Depois de auditar cinco modelos de texto para imagem de \u00faltima gera\u00e7\u00e3o usando o DIG In, nossos resultados sugerem que o progresso na qualidade da gera\u00e7\u00e3o de imagens ocorreu a partir da representa\u00e7\u00e3o geogr\u00e1fica do mundo real. Os insights que reunimos ajudaram a identificar \u00e1reas importantes para aprimoramento, como a redu\u00e7\u00e3o de estere\u00f3tipos de fundo ou a garantia de que a solicita\u00e7\u00e3o de diversidade n\u00e3o prejudique a consist\u00eancia da imagem. A imparcialidade e a privacidade muitas vezes podem ser consideradas conflitantes, pois a maioria dos m\u00e9todos de imparcialidade precisam de acesso a informa\u00e7\u00f5es confidenciais. Desenvolvemos um novo paradigma para avaliar a imparcialidade do grupo que usa redes sociais para amenizar esse problema. A principal observa\u00e7\u00e3o desse trabalho \u00e9 que a homofilia, enquanto tend\u00eancia de se vincular a semelhantes, nos permite, nas redes sociais, definir a imparcialidade do grupo sem acesso a nenhuma informa\u00e7\u00e3o do mesmo. Isso nos permite reduzir os resultados injustos do aprendizado de m\u00e1quina, ajustando os resultados de acordo com a semelhan\u00e7a dos usu\u00e1rios induzida pela estrutura da rede. \u00c9 importante ressaltar que essa abordagem funciona sem acesso \u00e0s informa\u00e7\u00f5es do grupo e sem nunca inferir informa\u00e7\u00f5es confidenciais. Dessa forma, as informa\u00e7\u00f5es da rede social ajudam a respeitar a privacidade dos usu\u00e1rios e, ao mesmo tempo, permitem um aprendizado de m\u00e1quina justo. Promovendo transpar\u00eancia, seguran\u00e7a e responsabilidade A IA generativa est\u00e1 capacitando as pessoas a criarem rapidamente v\u00eddeos, imagens, \u00e1udios, textos vibrantes e muito mais \u2013 tudo com base em um prompt inserido. Essas novas ferramentas criativas tamb\u00e9m est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Embora haja muito com que se entusiasmar, \u00e9 importante que fa\u00e7amos nossa parte para reduzir a possibilidade de as pessoas utilizarem essas ferramentas de forma errada. Desenvolvemos o Stable Signature, um novo m\u00e9todo de marca d&#8217;\u00e1gua para distinguir quando as imagens s\u00e3o geradas por IA de c\u00f3digo aberto. Apesar da marca d&#8217;\u00e1gua ser invis\u00edvel a olho nu, ela pode ser detectada por algoritmos mesmo que o conte\u00fado tenha sido editado. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo de tradu\u00e7\u00e3o fundamental para texto e fala. A marca d&#8217;\u00e1gua permite identificar com precis\u00e3o os segmentos gerados pela IA em um trecho de \u00e1udio mais longo. Essa precis\u00e3o \u00e9 particularmente importante para a fala, tendo em vista que a modifica\u00e7\u00e3o de uma \u00fanica palavra pode alterar todo o significado de uma frase. Detalhamos mais nossa abordagem de marca d&#8217;\u00e1gua para imagens, fala e modelos de texto em vers\u00f5es recentes. O que vem a seguir Nossos esfor\u00e7os de IA socialmente respons\u00e1veis s\u00e3o impulsionados por uma equipe interdisciplinar cuja miss\u00e3o \u00e9 ajudar a garantir que a pesquisa na FAIR beneficie as pessoas e a sociedade. O objetivo \u00e9 colaborar com toda a comunidade de IA, desde empresas at\u00e9 o meio acad\u00eamico, para compartilhar e alinhar consistentemente m\u00e9tricas e considera\u00e7\u00f5es de refer\u00eancia. At\u00e9 mesmo a melhor pesquisa de IA respons\u00e1vel n\u00e3o teria impacto se n\u00e3o fosse adotada e apoiada pela comunidade de IA mais ampla. \u00c9 por isso que fizemos uma parceria com a MLCommons para colaborar com o Grupo de Trabalho de Seguran\u00e7a de IA, pois trabalhamos em conjunto com l\u00edderes do setor e de universidades para desenvolver testes de seguran\u00e7a de IA e definir ainda mais as refer\u00eancias de seguran\u00e7a de IA padr\u00e3o. Tamb\u00e9m estamos trabalhando com a Partnership on AI (PAI) e apoiamos o Framework for Collective Action on Synthetic Media e o Guidance for Safe Foundation Model Deployment. Como a \u00e1rea continua a evoluir, sabemos que n\u00e3o podemos fazer isso sozinhos. Uma maior colabora\u00e7\u00e3o ser\u00e1 essencial para fornecer a pesquisa de IA mais segura e respons\u00e1vel.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-30T18:48:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"vivianlusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\"},\"author\":\"Facebook company\",\"headline\":\"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel\",\"datePublished\":\"2023-11-30T18:48:29+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\"},\"wordCount\":1217,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080\",\"articleSection\":[\"Recent News\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\",\"name\":\"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080\",\"datePublished\":\"2023-11-30T18:48:29+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/","og_locale":"pt_BR","og_type":"article","og_title":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta","og_description":"Estamos animados em compartilhar hoje mais informa\u00e7\u00f5es sobre a abordagem adotada da equipe Fundamental AI Research (FAIR) da Meta para criar uma pesquisa de intelig\u00eancia artificial (IA) socialmente respons\u00e1vel. Os modelos de IA n\u00e3o existem de forma isolada \u2013 eles fazem parte de um ecossistema com o qual os seres humanos interagem todos os dias. Tamb\u00e9m se tornou cada vez mais crucial tornar nossos modelos n\u00e3o apenas justos e robustos, mas tamb\u00e9m transparentes, para que juntos possamos contribuir com a cria\u00e7\u00e3o de uma IA que funcione bem para todos. Estamos compartilhando atualiza\u00e7\u00f5es de tr\u00eas categorias de pesquisa de IA socialmente respons\u00e1vel na FAIR: compreens\u00e3o t\u00e9cnica, compreens\u00e3o contextual e avalia\u00e7\u00e3o e benchmarking. O aumento da compreens\u00e3o t\u00e9cnica ajuda a deduzir quando, por que e como os modelos demonstram preocupa\u00e7\u00f5es com a responsabilidade. A cria\u00e7\u00e3o de modelos inclusivos e conscientes do contexto pode aprofundar a compreens\u00e3o em diversos contextos sociais. J\u00e1 a cria\u00e7\u00e3o de benchmarks hol\u00edsticos e ferramentas de avalia\u00e7\u00e3o permite que a \u00e1rea mensure e acompanhe o progresso. Constru\u00e7\u00e3o de ferramentas e testes para imparcialidade Os aprimoramentos na pesquisa sobre imparcialidade podem ajudar a construir inova\u00e7\u00f5es em IA que funcionem bem para todos, independentemente das caracter\u00edsticas demogr\u00e1ficas. \u00c9 por isso que a FAIR est\u00e1 criando testes e ferramentas que visam minimizar poss\u00edveis vieses e ajudar a permitir a inclus\u00e3o e a acessibilidade da IA. Continuamos nosso trabalho para criar e distribuir conjuntos de dados mais diversificados, que representam uma ampla gama de pessoas e experi\u00eancias. Lan\u00e7amos o conjunto de dados Casual Conversations v2, um recurso orientado por consentimento e dispon\u00edvel publicamente, que permite aos pesquisadores avaliar melhor a imparcialidade e a robustez de determinados tipos de modelos de IA. Tamb\u00e9m apresentamos o FACET (FAirness in Computer Vision EvaluaTion), um novo tipo de benchmark abrangente para avaliar a imparcialidade dos modelos de vis\u00e3o computacional em tarefas de classifica\u00e7\u00e3o, detec\u00e7\u00e3o, segmenta\u00e7\u00e3o de inst\u00e2ncias e aterramento visual. Na crescente sub\u00e1rea dos grandes modelos de linguagem (LLMs), as m\u00e9tricas de vi\u00e9s e toxicidade abrangem diferentes eixos demogr\u00e1ficos e dom\u00ednios de texto. O uso de apenas uma m\u00e9trica n\u00e3o fornece um panorama completo, por isso desenvolvemos o Robust Bias Evaluation of Large Generative Language Models (ROBBIE), uma ferramenta que compara seis m\u00e9tricas diferentes de vi\u00e9s e toxicidade baseadas em solicita\u00e7\u00f5es em 12 eixos demogr\u00e1ficos e cinco LLMs distintos. A combina\u00e7\u00e3o dessas m\u00e9tricas permite uma melhor compreens\u00e3o de vi\u00e9s e da toxicidade nos modelos que est\u00e3o sendo comparados. Ela tamb\u00e9m nos permite explorar a frequ\u00eancia dos termos demogr\u00e1ficos nos textos em que um LLM \u00e9 treinado e fornece informa\u00e7\u00f5es sobre como isso pode afetar os poss\u00edveis vieses do modelo. A IA generativa representativa ajudaria a permitir a gera\u00e7\u00e3o consistente e realista de conte\u00fados diversificados e inclusivos. O DIG In se concentra na avalia\u00e7\u00e3o de lacunas existentes na qualidade e na diversidade do conte\u00fado gerado a partir de modelos de texto para imagem entre regi\u00f5es geogr\u00e1ficas. Depois de auditar cinco modelos de texto para imagem de \u00faltima gera\u00e7\u00e3o usando o DIG In, nossos resultados sugerem que o progresso na qualidade da gera\u00e7\u00e3o de imagens ocorreu a partir da representa\u00e7\u00e3o geogr\u00e1fica do mundo real. Os insights que reunimos ajudaram a identificar \u00e1reas importantes para aprimoramento, como a redu\u00e7\u00e3o de estere\u00f3tipos de fundo ou a garantia de que a solicita\u00e7\u00e3o de diversidade n\u00e3o prejudique a consist\u00eancia da imagem. A imparcialidade e a privacidade muitas vezes podem ser consideradas conflitantes, pois a maioria dos m\u00e9todos de imparcialidade precisam de acesso a informa\u00e7\u00f5es confidenciais. Desenvolvemos um novo paradigma para avaliar a imparcialidade do grupo que usa redes sociais para amenizar esse problema. A principal observa\u00e7\u00e3o desse trabalho \u00e9 que a homofilia, enquanto tend\u00eancia de se vincular a semelhantes, nos permite, nas redes sociais, definir a imparcialidade do grupo sem acesso a nenhuma informa\u00e7\u00e3o do mesmo. Isso nos permite reduzir os resultados injustos do aprendizado de m\u00e1quina, ajustando os resultados de acordo com a semelhan\u00e7a dos usu\u00e1rios induzida pela estrutura da rede. \u00c9 importante ressaltar que essa abordagem funciona sem acesso \u00e0s informa\u00e7\u00f5es do grupo e sem nunca inferir informa\u00e7\u00f5es confidenciais. Dessa forma, as informa\u00e7\u00f5es da rede social ajudam a respeitar a privacidade dos usu\u00e1rios e, ao mesmo tempo, permitem um aprendizado de m\u00e1quina justo. Promovendo transpar\u00eancia, seguran\u00e7a e responsabilidade A IA generativa est\u00e1 capacitando as pessoas a criarem rapidamente v\u00eddeos, imagens, \u00e1udios, textos vibrantes e muito mais \u2013 tudo com base em um prompt inserido. Essas novas ferramentas criativas tamb\u00e9m est\u00e3o inspirando as pessoas a compartilhar suas cria\u00e7\u00f5es com amigos, familiares e seguidores nas redes sociais. Embora haja muito com que se entusiasmar, \u00e9 importante que fa\u00e7amos nossa parte para reduzir a possibilidade de as pessoas utilizarem essas ferramentas de forma errada. Desenvolvemos o Stable Signature, um novo m\u00e9todo de marca d&#8217;\u00e1gua para distinguir quando as imagens s\u00e3o geradas por IA de c\u00f3digo aberto. Apesar da marca d&#8217;\u00e1gua ser invis\u00edvel a olho nu, ela pode ser detectada por algoritmos mesmo que o conte\u00fado tenha sido editado. Inclu\u00edmos marcas d&#8217;\u00e1gua semelhantes em amostras de fala geradas pelo SeamlessM4T v2, nosso modelo de tradu\u00e7\u00e3o fundamental para texto e fala. A marca d&#8217;\u00e1gua permite identificar com precis\u00e3o os segmentos gerados pela IA em um trecho de \u00e1udio mais longo. Essa precis\u00e3o \u00e9 particularmente importante para a fala, tendo em vista que a modifica\u00e7\u00e3o de uma \u00fanica palavra pode alterar todo o significado de uma frase. Detalhamos mais nossa abordagem de marca d&#8217;\u00e1gua para imagens, fala e modelos de texto em vers\u00f5es recentes. O que vem a seguir Nossos esfor\u00e7os de IA socialmente respons\u00e1veis s\u00e3o impulsionados por uma equipe interdisciplinar cuja miss\u00e3o \u00e9 ajudar a garantir que a pesquisa na FAIR beneficie as pessoas e a sociedade. O objetivo \u00e9 colaborar com toda a comunidade de IA, desde empresas at\u00e9 o meio acad\u00eamico, para compartilhar e alinhar consistentemente m\u00e9tricas e considera\u00e7\u00f5es de refer\u00eancia. At\u00e9 mesmo a melhor pesquisa de IA respons\u00e1vel n\u00e3o teria impacto se n\u00e3o fosse adotada e apoiada pela comunidade de IA mais ampla. \u00c9 por isso que fizemos uma parceria com a MLCommons para colaborar com o Grupo de Trabalho de Seguran\u00e7a de IA, pois trabalhamos em conjunto com l\u00edderes do setor e de universidades para desenvolver testes de seguran\u00e7a de IA e definir ainda mais as refer\u00eancias de seguran\u00e7a de IA padr\u00e3o. Tamb\u00e9m estamos trabalhando com a Partnership on AI (PAI) e apoiamos o Framework for Collective Action on Synthetic Media e o Guidance for Safe Foundation Model Deployment. Como a \u00e1rea continua a evoluir, sabemos que n\u00e3o podemos fazer isso sozinhos. Uma maior colabora\u00e7\u00e3o ser\u00e1 essencial para fornecer a pesquisa de IA mais segura e respons\u00e1vel.","og_url":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/","og_site_name":"Sobre a Meta","article_published_time":"2023-11-30T18:48:29+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"vivianlusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/"},"author":"Facebook company","headline":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel","datePublished":"2023-11-30T18:48:29+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/"},"wordCount":1217,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080","articleSection":["Recent News"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/","url":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/","name":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080","datePublished":"2023-11-30T18:48:29+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2023\/11\/progressos-e-aprendizados-da-fair-na-pesquisa-de-ia-socialmente-responsavel\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Progressos e aprendizados da FAIR na pesquisa de IA socialmente respons\u00e1vel"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/11\/fair-progress-texto-2.jpg?fit=1920%2C1080","jetpack-related-posts":[{"id":26149,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","url_meta":{"origin":25306,"position":0},"title":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26166,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/anunciando-o-programa-de-parceria-em-tecnologia-de-linguagem\/","url_meta":{"origin":25306,"position":1},"title":"Anunciando o Programa de Parceria em Tecnologia de Linguagem","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) \u2014 uma IA que pode usar o racioc\u00ednio humano para realizar tarefas cognitivamente exigentes, como a tradu\u00e7\u00e3o \u2014 e us\u00e1-la para impulsionar produtos e inova\u00e7\u00f5es que beneficiem\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":26157,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","url_meta":{"origin":25306,"position":2},"title":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26823,"url":"https:\/\/about.fb.com\/br\/news\/2025\/11\/nossos-novos-modelos-sam-facilitam-a-deteccao-de-objetos-e-a-criacao-de-reconstrucoes-3d\/","url_meta":{"origin":25306,"position":3},"title":"Nossos Novos Modelos SAM Facilitam a Detec\u00e7\u00e3o de Objetos e a Cria\u00e7\u00e3o de Reconstru\u00e7\u00f5es 3D","author":"Meta","date":"19\/11\/2025","format":false,"excerpt":"Hoje, estamos animados em anunciar o SAM 3 e o SAM 3D, as mais novas adi\u00e7\u00f5es \u00e0 nossa Segment Anything Collection. O SAM 3 permite a detec\u00e7\u00e3o e o rastreamento de objetos em imagens e v\u00eddeos usando prompts de texto, e o SAM 3D possibilita a reconstru\u00e7\u00e3o 3D de objetos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=700%2C400 2x"},"classes":[]},{"id":26130,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/aumentando-a-transparencia-da-ia-generativa-nos-produtos-de-anuncios-da-meta\/","url_meta":{"origin":25306,"position":4},"title":"Aumentando a transpar\u00eancia da IA generativa nos produtos de an\u00fancios da Meta","author":"Meta","date":"03\/02\/2025","format":false,"excerpt":"Na Meta, continuamos priorizando a transpar\u00eancia e a responsabilidade em nossas diretrizes para anunciantes. Desde o ano passado, come\u00e7amos a rotular os an\u00fancios criados ou significativamente editados com o uso dos nossos recursos de criativo de IA generativa, que est\u00e3o dispon\u00edveis nas ferramentas de marketing para anunciantes. Vou explicar a\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26363,"url":"https:\/\/about.fb.com\/br\/news\/2025\/04\/nova-escola-esta-entre-os-vencedores-do-llama-impact-grants-usando-ia-para-impulsionar-educacao-publica-no-brasil\/","url_meta":{"origin":25306,"position":5},"title":"Nova Escola est\u00e1 entre os vencedores do Llama Impact Grants, usando IA para impulsionar educa\u00e7\u00e3o p\u00fablica no Brasil","author":"Meta","date":"29\/04\/2025","format":false,"excerpt":"Estamos animados em anunciar os 10 vencedores internacionais da segunda edi\u00e7\u00e3o do Llama Impact Grants. As bolsas somam mais de US$ 1,5 milh\u00e3o em premia\u00e7\u00f5es e t\u00eam como objetivo impulsionar a inova\u00e7\u00e3o em empresas, startups e universidades que utilizam o Llama para gerar valor econ\u00f4mico e social. Representando o Brasil\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/04\/Llama-Grant-Winners_Header.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25306","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097222"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25306"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25306\/revisions"}],"predecessor-version":[{"id":25308,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25306\/revisions\/25308"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/25307"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25306"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25306"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25306"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}