{"id":25137,"date":"2023-09-27T14:56:30","date_gmt":"2023-09-27T17:56:30","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=25137"},"modified":"2024-06-05T15:56:43","modified_gmt":"2024-06-05T18:56:43","slug":"construindo-recursos-de-ia-generativa-com-responsabilidade","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/","title":{"rendered":"Construindo recursos de IA generativa com responsabilidade"},"content":{"rendered":"<p><span style=\"font-weight: 400\">A Meta \u00e9 pioneira em IA h\u00e1 mais de uma d\u00e9cada, j\u00e1 lan\u00e7amos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores \u2013 incluindo a vers\u00e3o mais recente do nosso grande modelo de linguagem, Llama 2, dispon\u00edvel em parceria com a Microsoft.<\/span><\/p>\n<p><span style=\"font-weight: 400\">No Connect 2023, anunciamos v\u00e1rios <a href=\"https:\/\/about.fb.com\/br\/news\/2023\/09\/apresentamos-novas-experiencias-de-ia-em-nossa-familia-de-aplicativos-e-dispositivos\/\">novos recursos de IA generativa<\/a> que as pessoas podem usar para tornar suas experi\u00eancias nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa \u00e9 que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugest\u00f5es de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores pr\u00e1ticas e pol\u00edticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre ser\u00e1 perfeita. Os modelos subjacentes, por exemplo, t\u00eam o potencial de gerar respostas fict\u00edcias ou aumentar estere\u00f3tipos que podem aprender a partir dos seus dados de forma\u00e7\u00e3o. Incorporamos li\u00e7\u00f5es que aprendemos na \u00faltima d\u00e9cada em nossos novos recursos \u2013 como avisos para que as pessoas entendam os limites da IA \u200b\u200bgenerativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso est\u00e1 sendo feito de acordo com as melhores pr\u00e1ticas do setor descritas no <\/span><a href=\"https:\/\/ai.meta.com\/llama\/responsible-use-guide\/\"><span style=\"font-weight: 400\">Guia de uso respons\u00e1vel<\/span><\/a><span style=\"font-weight: 400\"> do Llama 2.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">De acordo com o nosso compromisso com a IA respons\u00e1vel, tamb\u00e9m realizamos testes com nossos produtos para melhorar o desempenho de sua seguran\u00e7a. Tamb\u00e9m colaboramos regularmente com gestores de pol\u00edticas p\u00fablicas, especialistas do meio acad\u00e9mico e da sociedade civil, e outros atores na nossa ind\u00fastria para promover a utiliza\u00e7\u00e3o respons\u00e1vel desta tecnologia. Vamos lan\u00e7ar esses recursos passo a passo com as IAs na vers\u00e3o beta. Continuaremos a desenvolver e aperfei\u00e7oar esses recursos \u00e0 medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas.<\/span><\/p>\n<p><b>Como estamos construindo com responsabilidade e priorizando a seguran\u00e7a das pessoas?<\/b><\/p>\n<p><span style=\"font-weight: 400\">Os modelos de IA personalizados e que potencializam novas experi\u00eancias baseadas em texto &#8211; como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, s\u00e3o constru\u00eddos com base no <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/07\/meta-e-microsoft-anunciam-a-proxima-geracao-do-llama\/\"><span style=\"font-weight: 400\">Llama 2<\/span><\/a><span style=\"font-weight: 400\"> e aproveitam seu treinamento de seguran\u00e7a e responsabilidade. Al\u00e9m disso, temos investido em medidas espec\u00edficas para os recursos que anunciamos hoje.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos compartilhando um <\/span><a href=\"https:\/\/ai.meta.com\/static-resource\/building-generative-ai-responsibly\/\"><span style=\"font-weight: 400\">recurso<\/span><\/a><span style=\"font-weight: 400\"> que explica com mais detalhes as etapas que estamos seguindo para identificar poss\u00edveis vulnerabilidades, reduzir riscos, aumentar a seguran\u00e7a e confiabilidade. Por exemplo:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><b>Estamos avaliando e melhorando nossas IAs de conversa\u00e7\u00e3o com especialistas externos e internos por meio de exerc\u00edcios com times de risco, <\/b><span style=\"font-weight: 400\">que s\u00e3o equipes dedicadas de profissionais\u00a0 que passam horas testando nossos modelos, procurando maneiras inesperadas de us\u00e1-los, al\u00e9m de identificar e corrigir vulnerabilidades.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Estamos ajustando os modelos,<\/b><span style=\"font-weight: 400\"> o que inclui trein\u00e1-los para executar tarefas espec\u00edficas, como gerar imagens de alta qualidade, com instru\u00e7\u00f5es que podem aumentar a probabilidade de fornecer respostas \u00fateis. Eles tamb\u00e9m est\u00e3o sendo treinados para fornecer recursos apoiados por especialistas em resposta a quest\u00f5es de seguran\u00e7a. Por exemplo, as IAs recomendar\u00e3o organiza\u00e7\u00f5es locais de preven\u00e7\u00e3o ao suic\u00eddio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixar\u00e3o claro que n\u00e3o podem fornecer aconselhamento m\u00e9dico.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Estamos treinando nossos modelos sobre diretrizes de seguran\u00e7a e responsabilidade,<\/b><span style=\"font-weight: 400\"> o que\u00a0 significa que eles s\u00e3o menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Estamos tomando medidas para reduzir o preconceito, <\/b><span style=\"font-weight: 400\">que \u00e9 uma nova<\/span> <span style=\"font-weight: 400\">\u00e1rea de investiga\u00e7\u00e3o em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Desenvolvemos novas tecnologias para detectar e tomar medidas em rela\u00e7\u00e3o a conte\u00fados que violam nossas pol\u00edticas<\/b><span style=\"font-weight: 400\">. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Constru\u00edmos ferramentas de feedback dentro desses recursos.<\/b><span style=\"font-weight: 400\"> Nenhum modelo de IA \u00e9 perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de seguran\u00e7a e a detec\u00e7\u00e3o autom\u00e1tica de viola\u00e7\u00f5es de pol\u00edticas. Tamb\u00e9m estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de seguran\u00e7a por meio do programa de recompensas de bugs de longa dura\u00e7\u00e3o da Meta.<\/span><\/li>\n<\/ul>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25160\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/1-2.png?w=567&#038;resize=567%2C494\" alt=\"\" width=\"567\" height=\"494\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/1-2.png?w=567 567w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/1-2.png?w=459 459w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/1-2.png?w=300 300w\" sizes=\"auto, (max-width: 567px) 100vw, 567px\" \/><\/p>\n<p><b>Como protegemos a privacidade das pessoas<\/b><\/p>\n<p><span style=\"font-weight: 400\">Respondemos pela prote\u00e7\u00e3o da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que constru\u00edmos siga as pr\u00e1ticas recomendadas e atenda aos altos padr\u00f5es de prote\u00e7\u00e3o de dados.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Acreditamos que \u00e9 importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, n\u00e3o utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui.<\/span><\/p>\n<p><b>Como nos certificamos que as pessoas sabem como usar os novos recursos e est\u00e3o cientes de suas limita\u00e7\u00f5es?<\/b><\/p>\n<p><span style=\"font-weight: 400\">Fornecemos informa\u00e7\u00f5es dentro dos recursos para ajudar as pessoas a entender quando est\u00e3o interagindo com a IA e como essa nova tecnologia funciona. Durante a experi\u00eancia do produto, indicamos que ele\u00a0 pode gerar resultados imprecisos ou inadequados.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25150\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/2-2.png?w=567&#038;resize=567%2C494\" alt=\"\" width=\"567\" height=\"494\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/2-2.png?w=567 567w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/2-2.png?w=459 459w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/2-2.png?w=300 300w\" sizes=\"auto, (max-width: 567px) 100vw, 567px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Ano passado, publicamos <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\"><span style=\"font-weight: 400\">22 &#8220;cart\u00f5es de sistema&#8221;<\/span><\/a><span style=\"font-weight: 400\"> para fornecer \u00e0s pessoas informa\u00e7\u00f5es claras sobre como nossos sistemas de IA tomam decis\u00f5es que as afetam. Hoje, estamos compartilhando novos Cart\u00f5es de Sistema de IA generativa no site de IA da Meta &#8211; um para sistemas de IA que <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\/ai-systems-that-generate-text\"><span style=\"font-weight: 400\">geram texto<\/span><\/a><span style=\"font-weight: 400\"> que alimenta a IA da Meta e outro para sistemas de IA que <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\/ai-systems-that-generate-images\"><span style=\"font-weight: 400\">geram imagens<\/span><\/a><span style=\"font-weight: 400\"> para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstra\u00e7\u00e3o interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos<\/span><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><b>Como estamos ajudando as pessoas a saber quando as imagens s\u00e3o criadas com nossos recursos de IA?<\/b><\/p>\n<p><span style=\"font-weight: 400\">Estamos seguindo as melhores pr\u00e1ticas do setor para que seja mais dif\u00edcil a dissemina\u00e7\u00e3o de informa\u00e7\u00f5es incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo ter\u00e3o marcadores vis\u00edveis para que as pessoas saibam que o conte\u00fado foi criado por IA. Tamb\u00e9m estamos desenvolvendo t\u00e9cnicas adicionais para incluir informa\u00e7\u00f5es em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experi\u00eancias \u00e0 medida que a tecnologia for aprimorada. N\u00e3o planejamos adicionar esses recursos \u00e0s figurinhas geradas por IA, pois elas n\u00e3o s\u00e3o fotorrealistas e, portanto, \u00e9 improv\u00e1vel que induzam as pessoas a pensar que s\u00e3o reais.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Atualmente, n\u00e3o h\u00e1 padr\u00f5es comuns para identificar e rotular o conte\u00fado gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em f\u00f3runs como a <\/span><i><span style=\"font-weight: 400\">Partnership on AI<\/span><\/i><span style=\"font-weight: 400\"> na esperan\u00e7a de desenvolv\u00ea-los.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25158\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/4-2.png?w=567&#038;resize=567%2C494\" alt=\"\" width=\"567\" height=\"494\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/4-2.png?w=567 567w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/4-2.png?w=459 459w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/4-2.png?w=300 300w\" sizes=\"auto, (max-width: 567px) 100vw, 567px\" \/><\/p>\n<p><b>Que medidas estamos tomando para impedir que as pessoas espalhem desinforma\u00e7\u00e3o usando IA generativa?<\/b><\/p>\n<p><span style=\"font-weight: 400\">A IA \u00e9 uma parte fundamental no combate \u00e0 desinforma\u00e7\u00e3o e a outros conte\u00fados potencialmente nocivos. Por exemplo, desenvolvemos <\/span><a href=\"https:\/\/ai.meta.com\/blog\/heres-how-were-using-ai-to-help-detect-misinformation\/\"><span style=\"font-weight: 400\">tecnologias de IA<\/span><\/a><span style=\"font-weight: 400\"> para fazer a correspond\u00eancia de duplicatas de conte\u00fado previamente verificado por checadores de informa\u00e7\u00e3o. Tamb\u00e9m temos uma ferramenta chamada <\/span><a href=\"https:\/\/ai.meta.com\/blog\/harmful-content-can-evolve-quickly-our-new-ai-system-adapts-to-tackle-it\/\"><span style=\"font-weight: 400\">Few-Shot Learner<\/span><\/a><span style=\"font-weight: 400\">, que pode se adaptar de maneira mais f\u00e1cil e agir rapidamente em rela\u00e7\u00e3o a conte\u00fados nocivos, sejam eles novos ou em evolu\u00e7\u00e3o, trabalhando em mais de 100 idiomas. Anteriormente, precis\u00e1vamos reunir milhares ou, \u00e0s vezes, at\u00e9 milh\u00f5es de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner \u00e9 poss\u00edvel treinar um modelo de IA com base em apenas alguns exemplos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A IA generativa pode nos ajudar a eliminar conte\u00fado nocivo com mais rapidez e precis\u00e3o do que as ferramentas de IA existentes. Come\u00e7amos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padr\u00f5es da Comunidade para ajudar a determinar se um conte\u00fado viola nossas pol\u00edticas ou n\u00e3o. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de m\u00e1quina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poder\u00e1 nos ajudar a aplicar nossas pol\u00edticas no futuro.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"A Meta \u00e9 pioneira em IA h\u00e1 mais de uma d\u00e9cada, j\u00e1 lan\u00e7amos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores \u2013 incluindo a vers\u00e3o mais recente do nosso grande modelo de linguagem, Llama 2, dispon\u00edvel em parceria com a Microsoft. No Connect 2023, anunciamos v\u00e1rios novos recursos de IA generativa que as pessoas podem usar para tornar suas experi\u00eancias nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa \u00e9 que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugest\u00f5es de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno. Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores pr\u00e1ticas e pol\u00edticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre ser\u00e1 perfeita. Os modelos subjacentes, por exemplo, t\u00eam o potencial de gerar respostas fict\u00edcias ou aumentar estere\u00f3tipos que podem aprender a partir dos seus dados de forma\u00e7\u00e3o. Incorporamos li\u00e7\u00f5es que aprendemos na \u00faltima d\u00e9cada em nossos novos recursos \u2013 como avisos para que as pessoas entendam os limites da IA \u200b\u200bgenerativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso est\u00e1 sendo feito de acordo com as melhores pr\u00e1ticas do setor descritas no Guia de uso respons\u00e1vel do Llama 2.\u00a0 De acordo com o nosso compromisso com a IA respons\u00e1vel, tamb\u00e9m realizamos testes com nossos produtos para melhorar o desempenho de sua seguran\u00e7a. Tamb\u00e9m colaboramos regularmente com gestores de pol\u00edticas p\u00fablicas, especialistas do meio acad\u00e9mico e da sociedade civil, e outros atores na nossa ind\u00fastria para promover a utiliza\u00e7\u00e3o respons\u00e1vel desta tecnologia. Vamos lan\u00e7ar esses recursos passo a passo com as IAs na vers\u00e3o beta. Continuaremos a desenvolver e aperfei\u00e7oar esses recursos \u00e0 medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas. Como estamos construindo com responsabilidade e priorizando a seguran\u00e7a das pessoas? Os modelos de IA personalizados e que potencializam novas experi\u00eancias baseadas em texto &#8211; como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, s\u00e3o constru\u00eddos com base no Llama 2 e aproveitam seu treinamento de seguran\u00e7a e responsabilidade. Al\u00e9m disso, temos investido em medidas espec\u00edficas para os recursos que anunciamos hoje. Estamos compartilhando um recurso que explica com mais detalhes as etapas que estamos seguindo para identificar poss\u00edveis vulnerabilidades, reduzir riscos, aumentar a seguran\u00e7a e confiabilidade. Por exemplo: Estamos avaliando e melhorando nossas IAs de conversa\u00e7\u00e3o com especialistas externos e internos por meio de exerc\u00edcios com times de risco, que s\u00e3o equipes dedicadas de profissionais\u00a0 que passam horas testando nossos modelos, procurando maneiras inesperadas de us\u00e1-los, al\u00e9m de identificar e corrigir vulnerabilidades. Estamos ajustando os modelos, o que inclui trein\u00e1-los para executar tarefas espec\u00edficas, como gerar imagens de alta qualidade, com instru\u00e7\u00f5es que podem aumentar a probabilidade de fornecer respostas \u00fateis. Eles tamb\u00e9m est\u00e3o sendo treinados para fornecer recursos apoiados por especialistas em resposta a quest\u00f5es de seguran\u00e7a. Por exemplo, as IAs recomendar\u00e3o organiza\u00e7\u00f5es locais de preven\u00e7\u00e3o ao suic\u00eddio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixar\u00e3o claro que n\u00e3o podem fornecer aconselhamento m\u00e9dico. Estamos treinando nossos modelos sobre diretrizes de seguran\u00e7a e responsabilidade, o que\u00a0 significa que eles s\u00e3o menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos. Estamos tomando medidas para reduzir o preconceito, que \u00e9 uma nova \u00e1rea de investiga\u00e7\u00e3o em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem. Desenvolvemos novas tecnologias para detectar e tomar medidas em rela\u00e7\u00e3o a conte\u00fados que violam nossas pol\u00edticas. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas. Constru\u00edmos ferramentas de feedback dentro desses recursos. Nenhum modelo de IA \u00e9 perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de seguran\u00e7a e a detec\u00e7\u00e3o autom\u00e1tica de viola\u00e7\u00f5es de pol\u00edticas. Tamb\u00e9m estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de seguran\u00e7a por meio do programa de recompensas de bugs de longa dura\u00e7\u00e3o da Meta. Como protegemos a privacidade das pessoas Respondemos pela prote\u00e7\u00e3o da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que constru\u00edmos siga as pr\u00e1ticas recomendadas e atenda aos altos padr\u00f5es de prote\u00e7\u00e3o de dados. Acreditamos que \u00e9 importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, n\u00e3o utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui. Como nos certificamos que as pessoas sabem como usar os novos recursos e est\u00e3o cientes de suas limita\u00e7\u00f5es? Fornecemos informa\u00e7\u00f5es dentro dos recursos para ajudar as pessoas a entender quando est\u00e3o interagindo com a IA e como essa nova tecnologia funciona. Durante a experi\u00eancia do produto, indicamos que ele\u00a0 pode gerar resultados imprecisos ou inadequados. Ano passado, publicamos 22 &#8220;cart\u00f5es de sistema&#8221; para fornecer \u00e0s pessoas informa\u00e7\u00f5es claras sobre como nossos sistemas de IA tomam decis\u00f5es que as afetam. Hoje, estamos compartilhando novos Cart\u00f5es de Sistema de IA generativa no site de IA da Meta &#8211; um para sistemas de IA que geram texto que alimenta a IA da Meta e outro para sistemas de IA que geram imagens para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstra\u00e7\u00e3o interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos. Como estamos ajudando as pessoas a saber quando as imagens s\u00e3o criadas com nossos recursos de IA? Estamos seguindo as melhores pr\u00e1ticas do setor para que seja mais dif\u00edcil a dissemina\u00e7\u00e3o de informa\u00e7\u00f5es incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo ter\u00e3o marcadores vis\u00edveis para que as pessoas saibam que o conte\u00fado foi criado por IA. Tamb\u00e9m estamos desenvolvendo t\u00e9cnicas adicionais para incluir informa\u00e7\u00f5es em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experi\u00eancias \u00e0 medida que a tecnologia for aprimorada. N\u00e3o planejamos adicionar esses recursos \u00e0s figurinhas geradas por IA, pois elas n\u00e3o s\u00e3o fotorrealistas e, portanto, \u00e9 improv\u00e1vel que induzam as pessoas a pensar que s\u00e3o reais. Atualmente, n\u00e3o h\u00e1 padr\u00f5es comuns para identificar e rotular o conte\u00fado gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em f\u00f3runs como a Partnership on AI na esperan\u00e7a de desenvolv\u00ea-los. Que medidas estamos tomando para impedir que as pessoas espalhem desinforma\u00e7\u00e3o usando IA generativa? A IA \u00e9 uma parte fundamental no combate \u00e0 desinforma\u00e7\u00e3o e a outros conte\u00fados potencialmente nocivos. Por exemplo, desenvolvemos tecnologias de IA para fazer a correspond\u00eancia de duplicatas de conte\u00fado previamente verificado por checadores de informa\u00e7\u00e3o. Tamb\u00e9m temos uma ferramenta chamada Few-Shot Learner, que pode se adaptar de maneira mais f\u00e1cil e agir rapidamente em rela\u00e7\u00e3o a conte\u00fados nocivos, sejam eles novos ou em evolu\u00e7\u00e3o, trabalhando em mais de 100 idiomas. Anteriormente, precis\u00e1vamos reunir milhares ou, \u00e0s vezes, at\u00e9 milh\u00f5es de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner \u00e9 poss\u00edvel treinar um modelo de IA com base em apenas alguns exemplos. A IA generativa pode nos ajudar a eliminar conte\u00fado nocivo com mais rapidez e precis\u00e3o do que as ferramentas de IA existentes. Come\u00e7amos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padr\u00f5es da Comunidade para ajudar a determinar se um conte\u00fado viola nossas pol\u00edticas ou n\u00e3o. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de m\u00e1quina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poder\u00e1 nos ajudar a aplicar nossas pol\u00edticas no futuro.","protected":false},"author":164097222,"featured_media":25153,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542171],"tags":[],"class_list":["post-25137","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-seguranca"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Construindo recursos de IA generativa com responsabilidade | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"A Meta \u00e9 pioneira em IA h\u00e1 mais de uma d\u00e9cada, j\u00e1 lan\u00e7amos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores \u2013 incluindo a vers\u00e3o mais recente do nosso grande modelo de linguagem, Llama 2, dispon\u00edvel em parceria com a Microsoft. No Connect 2023, anunciamos v\u00e1rios novos recursos de IA generativa que as pessoas podem usar para tornar suas experi\u00eancias nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa \u00e9 que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugest\u00f5es de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno. Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores pr\u00e1ticas e pol\u00edticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre ser\u00e1 perfeita. Os modelos subjacentes, por exemplo, t\u00eam o potencial de gerar respostas fict\u00edcias ou aumentar estere\u00f3tipos que podem aprender a partir dos seus dados de forma\u00e7\u00e3o. Incorporamos li\u00e7\u00f5es que aprendemos na \u00faltima d\u00e9cada em nossos novos recursos \u2013 como avisos para que as pessoas entendam os limites da IA \u200b\u200bgenerativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso est\u00e1 sendo feito de acordo com as melhores pr\u00e1ticas do setor descritas no Guia de uso respons\u00e1vel do Llama 2.\u00a0 De acordo com o nosso compromisso com a IA respons\u00e1vel, tamb\u00e9m realizamos testes com nossos produtos para melhorar o desempenho de sua seguran\u00e7a. Tamb\u00e9m colaboramos regularmente com gestores de pol\u00edticas p\u00fablicas, especialistas do meio acad\u00e9mico e da sociedade civil, e outros atores na nossa ind\u00fastria para promover a utiliza\u00e7\u00e3o respons\u00e1vel desta tecnologia. Vamos lan\u00e7ar esses recursos passo a passo com as IAs na vers\u00e3o beta. Continuaremos a desenvolver e aperfei\u00e7oar esses recursos \u00e0 medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas. Como estamos construindo com responsabilidade e priorizando a seguran\u00e7a das pessoas? Os modelos de IA personalizados e que potencializam novas experi\u00eancias baseadas em texto &#8211; como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, s\u00e3o constru\u00eddos com base no Llama 2 e aproveitam seu treinamento de seguran\u00e7a e responsabilidade. Al\u00e9m disso, temos investido em medidas espec\u00edficas para os recursos que anunciamos hoje. Estamos compartilhando um recurso que explica com mais detalhes as etapas que estamos seguindo para identificar poss\u00edveis vulnerabilidades, reduzir riscos, aumentar a seguran\u00e7a e confiabilidade. Por exemplo: Estamos avaliando e melhorando nossas IAs de conversa\u00e7\u00e3o com especialistas externos e internos por meio de exerc\u00edcios com times de risco, que s\u00e3o equipes dedicadas de profissionais\u00a0 que passam horas testando nossos modelos, procurando maneiras inesperadas de us\u00e1-los, al\u00e9m de identificar e corrigir vulnerabilidades. Estamos ajustando os modelos, o que inclui trein\u00e1-los para executar tarefas espec\u00edficas, como gerar imagens de alta qualidade, com instru\u00e7\u00f5es que podem aumentar a probabilidade de fornecer respostas \u00fateis. Eles tamb\u00e9m est\u00e3o sendo treinados para fornecer recursos apoiados por especialistas em resposta a quest\u00f5es de seguran\u00e7a. Por exemplo, as IAs recomendar\u00e3o organiza\u00e7\u00f5es locais de preven\u00e7\u00e3o ao suic\u00eddio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixar\u00e3o claro que n\u00e3o podem fornecer aconselhamento m\u00e9dico. Estamos treinando nossos modelos sobre diretrizes de seguran\u00e7a e responsabilidade, o que\u00a0 significa que eles s\u00e3o menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos. Estamos tomando medidas para reduzir o preconceito, que \u00e9 uma nova \u00e1rea de investiga\u00e7\u00e3o em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem. Desenvolvemos novas tecnologias para detectar e tomar medidas em rela\u00e7\u00e3o a conte\u00fados que violam nossas pol\u00edticas. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas. Constru\u00edmos ferramentas de feedback dentro desses recursos. Nenhum modelo de IA \u00e9 perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de seguran\u00e7a e a detec\u00e7\u00e3o autom\u00e1tica de viola\u00e7\u00f5es de pol\u00edticas. Tamb\u00e9m estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de seguran\u00e7a por meio do programa de recompensas de bugs de longa dura\u00e7\u00e3o da Meta. Como protegemos a privacidade das pessoas Respondemos pela prote\u00e7\u00e3o da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que constru\u00edmos siga as pr\u00e1ticas recomendadas e atenda aos altos padr\u00f5es de prote\u00e7\u00e3o de dados. Acreditamos que \u00e9 importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, n\u00e3o utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui. Como nos certificamos que as pessoas sabem como usar os novos recursos e est\u00e3o cientes de suas limita\u00e7\u00f5es? Fornecemos informa\u00e7\u00f5es dentro dos recursos para ajudar as pessoas a entender quando est\u00e3o interagindo com a IA e como essa nova tecnologia funciona. Durante a experi\u00eancia do produto, indicamos que ele\u00a0 pode gerar resultados imprecisos ou inadequados. Ano passado, publicamos 22 &#8220;cart\u00f5es de sistema&#8221; para fornecer \u00e0s pessoas informa\u00e7\u00f5es claras sobre como nossos sistemas de IA tomam decis\u00f5es que as afetam. Hoje, estamos compartilhando novos Cart\u00f5es de Sistema de IA generativa no site de IA da Meta &#8211; um para sistemas de IA que geram texto que alimenta a IA da Meta e outro para sistemas de IA que geram imagens para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstra\u00e7\u00e3o interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos. Como estamos ajudando as pessoas a saber quando as imagens s\u00e3o criadas com nossos recursos de IA? Estamos seguindo as melhores pr\u00e1ticas do setor para que seja mais dif\u00edcil a dissemina\u00e7\u00e3o de informa\u00e7\u00f5es incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo ter\u00e3o marcadores vis\u00edveis para que as pessoas saibam que o conte\u00fado foi criado por IA. Tamb\u00e9m estamos desenvolvendo t\u00e9cnicas adicionais para incluir informa\u00e7\u00f5es em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experi\u00eancias \u00e0 medida que a tecnologia for aprimorada. N\u00e3o planejamos adicionar esses recursos \u00e0s figurinhas geradas por IA, pois elas n\u00e3o s\u00e3o fotorrealistas e, portanto, \u00e9 improv\u00e1vel que induzam as pessoas a pensar que s\u00e3o reais. Atualmente, n\u00e3o h\u00e1 padr\u00f5es comuns para identificar e rotular o conte\u00fado gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em f\u00f3runs como a Partnership on AI na esperan\u00e7a de desenvolv\u00ea-los. Que medidas estamos tomando para impedir que as pessoas espalhem desinforma\u00e7\u00e3o usando IA generativa? A IA \u00e9 uma parte fundamental no combate \u00e0 desinforma\u00e7\u00e3o e a outros conte\u00fados potencialmente nocivos. Por exemplo, desenvolvemos tecnologias de IA para fazer a correspond\u00eancia de duplicatas de conte\u00fado previamente verificado por checadores de informa\u00e7\u00e3o. Tamb\u00e9m temos uma ferramenta chamada Few-Shot Learner, que pode se adaptar de maneira mais f\u00e1cil e agir rapidamente em rela\u00e7\u00e3o a conte\u00fados nocivos, sejam eles novos ou em evolu\u00e7\u00e3o, trabalhando em mais de 100 idiomas. Anteriormente, precis\u00e1vamos reunir milhares ou, \u00e0s vezes, at\u00e9 milh\u00f5es de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner \u00e9 poss\u00edvel treinar um modelo de IA com base em apenas alguns exemplos. A IA generativa pode nos ajudar a eliminar conte\u00fado nocivo com mais rapidez e precis\u00e3o do que as ferramentas de IA existentes. Come\u00e7amos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padr\u00f5es da Comunidade para ajudar a determinar se um conte\u00fado viola nossas pol\u00edticas ou n\u00e3o. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de m\u00e1quina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poder\u00e1 nos ajudar a aplicar nossas pol\u00edticas no futuro.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2023-09-27T17:56:30+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-06-05T18:56:43+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=960%2C540\" \/>\n\t<meta property=\"og:image:width\" content=\"960\" \/>\n\t<meta property=\"og:image:height\" content=\"540\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/gif\" \/>\n<meta name=\"author\" content=\"vivianlusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\"},\"author\":\"Facebook company\",\"headline\":\"Construindo recursos de IA generativa com responsabilidade\",\"datePublished\":\"2023-09-27T17:56:30+00:00\",\"dateModified\":\"2024-06-05T18:56:43+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\"},\"wordCount\":1539,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"articleSection\":[\"Meta\",\"Recent News\",\"Seguran\u00e7a\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\",\"name\":\"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"datePublished\":\"2023-09-27T17:56:30+00:00\",\"dateModified\":\"2024-06-05T18:56:43+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Construindo recursos de IA generativa com responsabilidade\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/","og_locale":"pt_BR","og_type":"article","og_title":"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta","og_description":"A Meta \u00e9 pioneira em IA h\u00e1 mais de uma d\u00e9cada, j\u00e1 lan\u00e7amos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores \u2013 incluindo a vers\u00e3o mais recente do nosso grande modelo de linguagem, Llama 2, dispon\u00edvel em parceria com a Microsoft. No Connect 2023, anunciamos v\u00e1rios novos recursos de IA generativa que as pessoas podem usar para tornar suas experi\u00eancias nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa \u00e9 que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugest\u00f5es de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno. Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores pr\u00e1ticas e pol\u00edticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre ser\u00e1 perfeita. Os modelos subjacentes, por exemplo, t\u00eam o potencial de gerar respostas fict\u00edcias ou aumentar estere\u00f3tipos que podem aprender a partir dos seus dados de forma\u00e7\u00e3o. Incorporamos li\u00e7\u00f5es que aprendemos na \u00faltima d\u00e9cada em nossos novos recursos \u2013 como avisos para que as pessoas entendam os limites da IA \u200b\u200bgenerativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso est\u00e1 sendo feito de acordo com as melhores pr\u00e1ticas do setor descritas no Guia de uso respons\u00e1vel do Llama 2.\u00a0 De acordo com o nosso compromisso com a IA respons\u00e1vel, tamb\u00e9m realizamos testes com nossos produtos para melhorar o desempenho de sua seguran\u00e7a. Tamb\u00e9m colaboramos regularmente com gestores de pol\u00edticas p\u00fablicas, especialistas do meio acad\u00e9mico e da sociedade civil, e outros atores na nossa ind\u00fastria para promover a utiliza\u00e7\u00e3o respons\u00e1vel desta tecnologia. Vamos lan\u00e7ar esses recursos passo a passo com as IAs na vers\u00e3o beta. Continuaremos a desenvolver e aperfei\u00e7oar esses recursos \u00e0 medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas. Como estamos construindo com responsabilidade e priorizando a seguran\u00e7a das pessoas? Os modelos de IA personalizados e que potencializam novas experi\u00eancias baseadas em texto &#8211; como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, s\u00e3o constru\u00eddos com base no Llama 2 e aproveitam seu treinamento de seguran\u00e7a e responsabilidade. Al\u00e9m disso, temos investido em medidas espec\u00edficas para os recursos que anunciamos hoje. Estamos compartilhando um recurso que explica com mais detalhes as etapas que estamos seguindo para identificar poss\u00edveis vulnerabilidades, reduzir riscos, aumentar a seguran\u00e7a e confiabilidade. Por exemplo: Estamos avaliando e melhorando nossas IAs de conversa\u00e7\u00e3o com especialistas externos e internos por meio de exerc\u00edcios com times de risco, que s\u00e3o equipes dedicadas de profissionais\u00a0 que passam horas testando nossos modelos, procurando maneiras inesperadas de us\u00e1-los, al\u00e9m de identificar e corrigir vulnerabilidades. Estamos ajustando os modelos, o que inclui trein\u00e1-los para executar tarefas espec\u00edficas, como gerar imagens de alta qualidade, com instru\u00e7\u00f5es que podem aumentar a probabilidade de fornecer respostas \u00fateis. Eles tamb\u00e9m est\u00e3o sendo treinados para fornecer recursos apoiados por especialistas em resposta a quest\u00f5es de seguran\u00e7a. Por exemplo, as IAs recomendar\u00e3o organiza\u00e7\u00f5es locais de preven\u00e7\u00e3o ao suic\u00eddio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixar\u00e3o claro que n\u00e3o podem fornecer aconselhamento m\u00e9dico. Estamos treinando nossos modelos sobre diretrizes de seguran\u00e7a e responsabilidade, o que\u00a0 significa que eles s\u00e3o menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos. Estamos tomando medidas para reduzir o preconceito, que \u00e9 uma nova \u00e1rea de investiga\u00e7\u00e3o em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem. Desenvolvemos novas tecnologias para detectar e tomar medidas em rela\u00e7\u00e3o a conte\u00fados que violam nossas pol\u00edticas. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas. Constru\u00edmos ferramentas de feedback dentro desses recursos. Nenhum modelo de IA \u00e9 perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de seguran\u00e7a e a detec\u00e7\u00e3o autom\u00e1tica de viola\u00e7\u00f5es de pol\u00edticas. Tamb\u00e9m estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de seguran\u00e7a por meio do programa de recompensas de bugs de longa dura\u00e7\u00e3o da Meta. Como protegemos a privacidade das pessoas Respondemos pela prote\u00e7\u00e3o da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que constru\u00edmos siga as pr\u00e1ticas recomendadas e atenda aos altos padr\u00f5es de prote\u00e7\u00e3o de dados. Acreditamos que \u00e9 importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, n\u00e3o utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui. Como nos certificamos que as pessoas sabem como usar os novos recursos e est\u00e3o cientes de suas limita\u00e7\u00f5es? Fornecemos informa\u00e7\u00f5es dentro dos recursos para ajudar as pessoas a entender quando est\u00e3o interagindo com a IA e como essa nova tecnologia funciona. Durante a experi\u00eancia do produto, indicamos que ele\u00a0 pode gerar resultados imprecisos ou inadequados. Ano passado, publicamos 22 &#8220;cart\u00f5es de sistema&#8221; para fornecer \u00e0s pessoas informa\u00e7\u00f5es claras sobre como nossos sistemas de IA tomam decis\u00f5es que as afetam. Hoje, estamos compartilhando novos Cart\u00f5es de Sistema de IA generativa no site de IA da Meta &#8211; um para sistemas de IA que geram texto que alimenta a IA da Meta e outro para sistemas de IA que geram imagens para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstra\u00e7\u00e3o interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos. Como estamos ajudando as pessoas a saber quando as imagens s\u00e3o criadas com nossos recursos de IA? Estamos seguindo as melhores pr\u00e1ticas do setor para que seja mais dif\u00edcil a dissemina\u00e7\u00e3o de informa\u00e7\u00f5es incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo ter\u00e3o marcadores vis\u00edveis para que as pessoas saibam que o conte\u00fado foi criado por IA. Tamb\u00e9m estamos desenvolvendo t\u00e9cnicas adicionais para incluir informa\u00e7\u00f5es em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experi\u00eancias \u00e0 medida que a tecnologia for aprimorada. N\u00e3o planejamos adicionar esses recursos \u00e0s figurinhas geradas por IA, pois elas n\u00e3o s\u00e3o fotorrealistas e, portanto, \u00e9 improv\u00e1vel que induzam as pessoas a pensar que s\u00e3o reais. Atualmente, n\u00e3o h\u00e1 padr\u00f5es comuns para identificar e rotular o conte\u00fado gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em f\u00f3runs como a Partnership on AI na esperan\u00e7a de desenvolv\u00ea-los. Que medidas estamos tomando para impedir que as pessoas espalhem desinforma\u00e7\u00e3o usando IA generativa? A IA \u00e9 uma parte fundamental no combate \u00e0 desinforma\u00e7\u00e3o e a outros conte\u00fados potencialmente nocivos. Por exemplo, desenvolvemos tecnologias de IA para fazer a correspond\u00eancia de duplicatas de conte\u00fado previamente verificado por checadores de informa\u00e7\u00e3o. Tamb\u00e9m temos uma ferramenta chamada Few-Shot Learner, que pode se adaptar de maneira mais f\u00e1cil e agir rapidamente em rela\u00e7\u00e3o a conte\u00fados nocivos, sejam eles novos ou em evolu\u00e7\u00e3o, trabalhando em mais de 100 idiomas. Anteriormente, precis\u00e1vamos reunir milhares ou, \u00e0s vezes, at\u00e9 milh\u00f5es de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner \u00e9 poss\u00edvel treinar um modelo de IA com base em apenas alguns exemplos. A IA generativa pode nos ajudar a eliminar conte\u00fado nocivo com mais rapidez e precis\u00e3o do que as ferramentas de IA existentes. Come\u00e7amos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padr\u00f5es da Comunidade para ajudar a determinar se um conte\u00fado viola nossas pol\u00edticas ou n\u00e3o. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de m\u00e1quina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poder\u00e1 nos ajudar a aplicar nossas pol\u00edticas no futuro.","og_url":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/","og_site_name":"Sobre a Meta","article_published_time":"2023-09-27T17:56:30+00:00","article_modified_time":"2024-06-05T18:56:43+00:00","og_image":[{"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=960%2C540","width":960,"height":540,"type":"image\/gif"}],"author":"vivianlusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/"},"author":"Facebook company","headline":"Construindo recursos de IA generativa com responsabilidade","datePublished":"2023-09-27T17:56:30+00:00","dateModified":"2024-06-05T18:56:43+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/"},"wordCount":1539,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","articleSection":["Meta","Recent News","Seguran\u00e7a"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/","url":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/","name":"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","datePublished":"2023-09-27T17:56:30+00:00","dateModified":"2024-06-05T18:56:43+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Construindo recursos de IA generativa com responsabilidade"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","jetpack-related-posts":[{"id":26130,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/aumentando-a-transparencia-da-ia-generativa-nos-produtos-de-anuncios-da-meta\/","url_meta":{"origin":25137,"position":0},"title":"Aumentando a transpar\u00eancia da IA generativa nos produtos de an\u00fancios da Meta","author":"Meta","date":"03\/02\/2025","format":false,"excerpt":"Na Meta, continuamos priorizando a transpar\u00eancia e a responsabilidade em nossas diretrizes para anunciantes. Desde o ano passado, come\u00e7amos a rotular os an\u00fancios criados ou significativamente editados com o uso dos nossos recursos de criativo de IA generativa, que est\u00e3o dispon\u00edveis nas ferramentas de marketing para anunciantes. Vou explicar a\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Transparency-Labels-for-Ads_Header.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26476,"url":"https:\/\/about.fb.com\/br\/news\/2025\/06\/cannes-lions-2025-a-nova-era-da-ia-generativa-para-anunciantes-e-agencias-com-foco-em-personalizacao-em-escala\/","url_meta":{"origin":25137,"position":1},"title":"Cannes Lions 2025: A nova era da IA generativa para anunciantes e ag\u00eancias com foco em personaliza\u00e7\u00e3o em escala","author":"Meta","date":"17\/06\/2025","format":false,"excerpt":"Nesta semana, durante o Festival Internacional de Criatividade Cannes Lions, estamos apresentando a nova era das solu\u00e7\u00f5es de IA generativa para anunciantes e ag\u00eancias, com o objetivo de melhorar o desempenho das campanhas publicit\u00e1rias e impulsionar o crescimento dos neg\u00f3cios. \u00c0 medida que a IA continua evoluindo, ela abre novos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26696,"url":"https:\/\/about.fb.com\/br\/news\/2025\/10\/desempenho-potencializado-por-ia-para-o-agora-e-o-futuro\/","url_meta":{"origin":25137,"position":2},"title":"Desempenho potencializado por IA para o agora e o futuro","author":"Meta","date":"02\/10\/2025","format":false,"excerpt":"Para os profissionais de marketing, cada ponto de desempenho incremental pode significar a diferen\u00e7a entre empatar e bater recordes. Por isso, a Meta continua investindo em solu\u00e7\u00f5es l\u00edderes com IA, incluindo o Advantage+ e a infraestrutura que o sustenta, para ajudar empresas, anunciantes e ag\u00eancias a expandirem rapidamente. Estamos escrevendo\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26887,"url":"https:\/\/about.fb.com\/br\/news\/2025\/12\/novo-estudo-revela-o-impacto-potencial-da-inteligencia-artificial-no-brasil-e-na-america-latina\/","url_meta":{"origin":25137,"position":3},"title":"Novo estudo revela o impacto potencial da Intelig\u00eancia Artificial no Brasil e na Am\u00e9rica Latina","author":"Meta","date":"18\/12\/2025","format":false,"excerpt":"Um novo estudo realizado pela Linux Foundation, encomendado pela Meta, apresenta dados e informa\u00e7\u00f5es sobre o cen\u00e1rio do mercado de Intelig\u00eancia Artificial (IA) na Am\u00e9rica Latina, e revela os principais desafios e oportunidades para que a regi\u00e3o possa alavancar essa tecnologia e promover um desenvolvimento tecnol\u00f3gico mais equitativo. Segundo o\u2026","rel":"","context":"In &quot;Impacto Econ\u00f4mico&quot;","block_context":{"text":"Impacto Econ\u00f4mico","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/impacto-economico\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/12\/Economic-and-Workforce-Impacts-of-OS-AI-Linux-Foundation-paper-1.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26692,"url":"https:\/\/about.fb.com\/br\/news\/2025\/10\/melhorando-suas-recomendacoes-em-nossos-aplicativos-com-ia-na-meta\/","url_meta":{"origin":25137,"position":4},"title":"Melhorando suas recomenda\u00e7\u00f5es em nossos aplicativos com IA na Meta","author":"Meta","date":"01\/10\/2025","format":false,"excerpt":"Mais de 1 bilh\u00e3o de pessoas usam Meta AI todo m\u00eas. Continuamos a melhorar a forma como nossos produtos de IA se mostram relevantes para voc\u00ea, entendem seus objetivos e ajudam a realizar tarefas de maneira mais eficiente. Tamb\u00e9m estamos usando Meta AI, bem como outros recursos de IA para\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/10\/Meta-Privacy-Update_Header.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26367,"url":"https:\/\/about.fb.com\/br\/news\/2025\/05\/insights-dos-resultados-do-1o-trimestre-da-meta-para-impulsionar-o-desempenho-dos-negocios\/","url_meta":{"origin":25137,"position":5},"title":"Insights dos resultados do 1\u00ba trimestre da Meta para impulsionar o desempenho dos neg\u00f3cios","author":"Meta","date":"02\/05\/2025","format":false,"excerpt":"Hoje, estamos compartilhando alguns insights importantes sobre ganhos de performance com o uso de produtos de an\u00fancios baseados em intelig\u00eancia artificial, v\u00eddeos e Reels, al\u00e9m de a\u00e7\u00f5es que as empresas podem adotar para atrair mais clientes e aproveitar ao m\u00e1ximo cada investimento em marketing. As dicas se baseiam nos destaques\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/05\/capa.png?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25137","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097222"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=25137"}],"version-history":[{"count":12,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25137\/revisions"}],"predecessor-version":[{"id":25621,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/25137\/revisions\/25621"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/25153"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=25137"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=25137"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=25137"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}