{"version":"1.0","provider_name":"Sobre a Meta","provider_url":"https:\/\/about.fb.com\/br","author_name":"Meta","author_url":"https:\/\/about.fb.com\/br","title":"Construindo recursos de IA generativa com responsabilidade | Sobre a Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"MC9473ksca\"><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/\">Construindo recursos de IA generativa com responsabilidade<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/br\/news\/2023\/09\/construindo-recursos-de-ia-generativa-com-responsabilidade\/embed\/#?secret=MC9473ksca\" width=\"600\" height=\"338\" title=\"&#8220;Construindo recursos de IA generativa com responsabilidade&#8221; &#8212; Sobre a Meta\" data-secret=\"MC9473ksca\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/br\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","thumbnail_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2023\/09\/AI-Responsibility_Header.gif?fit=960%2C540","thumbnail_width":960,"thumbnail_height":540,"description":"A Meta \u00e9 pioneira em IA h\u00e1 mais de uma d\u00e9cada, j\u00e1 lan\u00e7amos mais de 1.000 modelos de IA, bibliotecas e conjuntos de dados para pesquisadores \u2013 incluindo a vers\u00e3o mais recente do nosso grande modelo de linguagem, Llama 2, dispon\u00edvel em parceria com a Microsoft. No Connect 2023, anunciamos v\u00e1rios novos recursos de IA generativa que as pessoas podem usar para tornar suas experi\u00eancias nas nossas plataformas ainda mais sociais e imersivas. Nossa expectativa \u00e9 que ferramentas de IA generativa como essas possam ajudar as pessoas de diversas maneiras. Imagine um grupo de amigos planejando uma viagem juntos: em um bate-papo em grupo, eles podem pedir sugest\u00f5es de atividades e restaurantes a um assistente de IA. Em outro caso, um professor poderia usar uma IA para ajudar a criar planos de aula personalizados para diferentes estilos de aprendizagem de cada aluno. Construir esta tecnologia implica ter a responsabilidade de desenvolver melhores pr\u00e1ticas e pol\u00edticas. Embora existam muitos casos de uso interessantes e criativos para IA generativa, ela nem sempre ser\u00e1 perfeita. Os modelos subjacentes, por exemplo, t\u00eam o potencial de gerar respostas fict\u00edcias ou aumentar estere\u00f3tipos que podem aprender a partir dos seus dados de forma\u00e7\u00e3o. Incorporamos li\u00e7\u00f5es que aprendemos na \u00faltima d\u00e9cada em nossos novos recursos \u2013 como avisos para que as pessoas entendam os limites da IA \u200b\u200bgenerativa e classificadores de integridade que nos ajudam a detectar e remover respostas perigosas. Isso est\u00e1 sendo feito de acordo com as melhores pr\u00e1ticas do setor descritas no Guia de uso respons\u00e1vel do Llama 2.\u00a0 De acordo com o nosso compromisso com a IA respons\u00e1vel, tamb\u00e9m realizamos testes com nossos produtos para melhorar o desempenho de sua seguran\u00e7a. Tamb\u00e9m colaboramos regularmente com gestores de pol\u00edticas p\u00fablicas, especialistas do meio acad\u00e9mico e da sociedade civil, e outros atores na nossa ind\u00fastria para promover a utiliza\u00e7\u00e3o respons\u00e1vel desta tecnologia. Vamos lan\u00e7ar esses recursos passo a passo com as IAs na vers\u00e3o beta. Continuaremos a desenvolver e aperfei\u00e7oar esses recursos \u00e0 medida que as tecnologias evoluem, e vemos como as pessoas a utilizam diariamente em suas vidas. Como estamos construindo com responsabilidade e priorizando a seguran\u00e7a das pessoas? Os modelos de IA personalizados e que potencializam novas experi\u00eancias baseadas em texto &#8211; como a IA da Meta, nosso assistente alimentado por grandes modelos de linguagem, s\u00e3o constru\u00eddos com base no Llama 2 e aproveitam seu treinamento de seguran\u00e7a e responsabilidade. Al\u00e9m disso, temos investido em medidas espec\u00edficas para os recursos que anunciamos hoje. Estamos compartilhando um recurso que explica com mais detalhes as etapas que estamos seguindo para identificar poss\u00edveis vulnerabilidades, reduzir riscos, aumentar a seguran\u00e7a e confiabilidade. Por exemplo: Estamos avaliando e melhorando nossas IAs de conversa\u00e7\u00e3o com especialistas externos e internos por meio de exerc\u00edcios com times de risco, que s\u00e3o equipes dedicadas de profissionais\u00a0 que passam horas testando nossos modelos, procurando maneiras inesperadas de us\u00e1-los, al\u00e9m de identificar e corrigir vulnerabilidades. Estamos ajustando os modelos, o que inclui trein\u00e1-los para executar tarefas espec\u00edficas, como gerar imagens de alta qualidade, com instru\u00e7\u00f5es que podem aumentar a probabilidade de fornecer respostas \u00fateis. Eles tamb\u00e9m est\u00e3o sendo treinados para fornecer recursos apoiados por especialistas em resposta a quest\u00f5es de seguran\u00e7a. Por exemplo, as IAs recomendar\u00e3o organiza\u00e7\u00f5es locais de preven\u00e7\u00e3o ao suic\u00eddio e suporte a transtornos alimentares em resposta a determinadas perguntas, ao mesmo tempo que deixar\u00e3o claro que n\u00e3o podem fornecer aconselhamento m\u00e9dico. Estamos treinando nossos modelos sobre diretrizes de seguran\u00e7a e responsabilidade, o que\u00a0 significa que eles s\u00e3o menos propensos a compartilhar respostas potencialmente nocivas ou inadequadas para todas as idades em nossos aplicativos. Estamos tomando medidas para reduzir o preconceito, que \u00e9 uma nova \u00e1rea de investiga\u00e7\u00e3o em sistemas de IA generativos. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem. Desenvolvemos novas tecnologias para detectar e tomar medidas em rela\u00e7\u00e3o a conte\u00fados que violam nossas pol\u00edticas. Nossas equipes criaram algoritmos que verificam e filtram respostas potencialmente nocivas antes que elas sejam compartilhadas com as pessoas. Constru\u00edmos ferramentas de feedback dentro desses recursos. Nenhum modelo de IA \u00e9 perfeito e vamos usar todo o feedback que recebermos para continuar treinando os modelos e melhorar o desempenho de seguran\u00e7a e a detec\u00e7\u00e3o autom\u00e1tica de viola\u00e7\u00f5es de pol\u00edticas. Tamb\u00e9m estamos disponibilizando nossos novos recursos de IA generativa para pesquisadores de seguran\u00e7a por meio do programa de recompensas de bugs de longa dura\u00e7\u00e3o da Meta. Como protegemos a privacidade das pessoas Respondemos pela prote\u00e7\u00e3o da privacidade das pessoas perante reguladores, legisladores e especialistas. Trabalhamos com eles para garantir que o que constru\u00edmos siga as pr\u00e1ticas recomendadas e atenda aos altos padr\u00f5es de prote\u00e7\u00e3o de dados. Acreditamos que \u00e9 importante que as pessoas entendam os tipos de dados que usamos para treinar os modelos que alimentam nossos produtos de IA generativa. Por exemplo, n\u00e3o utilizamos as suas mensagens privadas com amigos e familiares para treinar as nossas IAs. Podemos usar os dados do seu uso de figurinhas de IA, assim como suas pesquisas por um figurinhas para usar em um bate-papo, para melhorar nossos modelos de figurinhas de IA. Para saber mais sobre os tipos de dados que usamos, clique aqui. Como nos certificamos que as pessoas sabem como usar os novos recursos e est\u00e3o cientes de suas limita\u00e7\u00f5es? Fornecemos informa\u00e7\u00f5es dentro dos recursos para ajudar as pessoas a entender quando est\u00e3o interagindo com a IA e como essa nova tecnologia funciona. Durante a experi\u00eancia do produto, indicamos que ele\u00a0 pode gerar resultados imprecisos ou inadequados. Ano passado, publicamos 22 &#8220;cart\u00f5es de sistema&#8221; para fornecer \u00e0s pessoas informa\u00e7\u00f5es claras sobre como nossos sistemas de IA tomam decis\u00f5es que as afetam. Hoje, estamos compartilhando novos Cart\u00f5es de Sistema de IA generativa no site de IA da Meta &#8211; um para sistemas de IA que geram texto que alimenta a IA da Meta e outro para sistemas de IA que geram imagens para figurinhas de IA, IA da Meta, Reestilizar e Plano de Fundo. Eles incluem uma demonstra\u00e7\u00e3o interativa para que as pessoas possam ver como o refinamento do seu comando afeta o resultado dos modelos. Como estamos ajudando as pessoas a saber quando as imagens s\u00e3o criadas com nossos recursos de IA? Estamos seguindo as melhores pr\u00e1ticas do setor para que seja mais dif\u00edcil a dissemina\u00e7\u00e3o de informa\u00e7\u00f5es incorretas com nossas ferramentas. As imagens criadas ou editadas pelas ferramentas da IA da Meta, Reestilizar e Plano de Fundo ter\u00e3o marcadores vis\u00edveis para que as pessoas saibam que o conte\u00fado foi criado por IA. Tamb\u00e9m estamos desenvolvendo t\u00e9cnicas adicionais para incluir informa\u00e7\u00f5es em arquivos de imagem criados pela IA da Meta e pretendemos expandir isso para outras experi\u00eancias \u00e0 medida que a tecnologia for aprimorada. N\u00e3o planejamos adicionar esses recursos \u00e0s figurinhas geradas por IA, pois elas n\u00e3o s\u00e3o fotorrealistas e, portanto, \u00e9 improv\u00e1vel que induzam as pessoas a pensar que s\u00e3o reais. Atualmente, n\u00e3o h\u00e1 padr\u00f5es comuns para identificar e rotular o conte\u00fado gerado por IA em todo o setor, mas acreditamos que deveria haver, por isso estamos trabalhando com outras empresas em f\u00f3runs como a Partnership on AI na esperan\u00e7a de desenvolv\u00ea-los. Que medidas estamos tomando para impedir que as pessoas espalhem desinforma\u00e7\u00e3o usando IA generativa? A IA \u00e9 uma parte fundamental no combate \u00e0 desinforma\u00e7\u00e3o e a outros conte\u00fados potencialmente nocivos. Por exemplo, desenvolvemos tecnologias de IA para fazer a correspond\u00eancia de duplicatas de conte\u00fado previamente verificado por checadores de informa\u00e7\u00e3o. Tamb\u00e9m temos uma ferramenta chamada Few-Shot Learner, que pode se adaptar de maneira mais f\u00e1cil e agir rapidamente em rela\u00e7\u00e3o a conte\u00fados nocivos, sejam eles novos ou em evolu\u00e7\u00e3o, trabalhando em mais de 100 idiomas. Anteriormente, precis\u00e1vamos reunir milhares ou, \u00e0s vezes, at\u00e9 milh\u00f5es de exemplos para criar um conjunto de dados grande o suficiente para treinar um modelo de IA e, em seguida, fazer o ajuste fino para que ele funcionasse corretamente. Com o Few-Shot Learner \u00e9 poss\u00edvel treinar um modelo de IA com base em apenas alguns exemplos. A IA generativa pode nos ajudar a eliminar conte\u00fado nocivo com mais rapidez e precis\u00e3o do que as ferramentas de IA existentes. Come\u00e7amos a testar grandes modelos de linguagem (LLMs) treinando-os em nossos Padr\u00f5es da Comunidade para ajudar a determinar se um conte\u00fado viola nossas pol\u00edticas ou n\u00e3o. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de m\u00e1quina existentes ou, pelo menos, aprimorar modelos como o Few-Shot Learner, e estamos otimistas de que a IA generativa poder\u00e1 nos ajudar a aplicar nossas pol\u00edticas no futuro."}