{"id":22265,"date":"2021-01-20T11:09:58","date_gmt":"2021-01-20T14:09:58","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=22265"},"modified":"2021-07-01T17:14:28","modified_gmt":"2021-07-01T20:14:28","slug":"como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/","title":{"rendered":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Quando as pessoas navegam por seu Feed de Not\u00edcias no Facebook, elas encontram diversos tipos de conte\u00fado \u2014 artigos, coment\u00e1rios de amigos, convites para eventos e, claro, fotos. A maioria das pessoas consegue ver instantaneamente o que est\u00e1 nessas imagens, seja o registro de seu novo neto, um barco em um rio ou a imagem granulada de uma banda no palco. Mas muitos usu\u00e1rios com defici\u00eancia visual tamb\u00e9m podem experienciar essas imagens, desde que sejam marcadas devidamente com texto alternativo (ou &#8220;texto alt.&#8221;). Um leitor de tela pode descrever o conte\u00fado dessas imagens usando uma voz sint\u00e9tica e permitir que as pessoas com defici\u00eancia visual entendam as imagens em seu Feed do Facebook.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Infelizmente, muitas fotos s\u00e3o postadas sem texto alternativo, ent\u00e3o, em 2016, introduzimos uma nova tecnologia chamada <\/span><a href=\"https:\/\/engineering.fb.com\/2016\/04\/04\/ios\/under-the-hood-building-accessibility-tools-for-the-visually-impaired-on-facebook\/\"><span style=\"font-weight: 400\">Texto Alternativo Autom\u00e1tico<\/span><\/a><span style=\"font-weight: 400\"> (AAT, na sigla em ingl\u00eas). O AAT <\/span><span style=\"font-weight: 400\">\u2014<\/span><span style=\"font-weight: 400\"> que foi reconhecido em 2018 com o pr\u00eamio <\/span><a href=\"https:\/\/www.afb.org\/press-room\/press-release-archive\/announcing-2018-helen-keller-achievement-award-winners\"><span style=\"font-weight: 400\">Helen Keller Achievement<\/span><\/a><span style=\"font-weight: 400\"> da American Foundation for the Blind <\/span><span style=\"font-weight: 400\">\u2014<\/span><span style=\"font-weight: 400\"> utiliza reconhecimento de objetos para gerar descri\u00e7\u00f5es de fotos sob demanda, para que pessoas cegas ou com defici\u00eancia visual possam aproveitar mais plenamente seu Feed de Not\u00edcias. Temos melhorado desde ent\u00e3o e estamos ansiosos para revelar a pr\u00f3xima gera\u00e7\u00e3o de AAT.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A nova vers\u00e3o do AAT representa v\u00e1rios avan\u00e7os tecnol\u00f3gicos que aprimoram a experi\u00eancia em fotos de nossos usu\u00e1rios. Em primeiro lugar, expandimos em mais de 10 vezes o n\u00famero de objetos que o AAT pode detectar e identificar de forma confi\u00e1vel em uma foto, o que significa menos fotos sem uma descri\u00e7\u00e3o. As descri\u00e7\u00f5es tamb\u00e9m s\u00e3o mais detalhadas, com a capacidade de identificar atividades, pontos de refer\u00eancia, tipos de animais e assim por diante \u2014 por exemplo: &#8220;Pode ser uma selfie de 2 pessoas, ao ar livre, na Torre de Pisa\u201d.<\/span><\/p>\n<p>&nbsp;<\/p>\n<div id='gallery-1' class='gallery galleryid-22265 gallery-columns-2 gallery-size-thumbnail'><figure class='gallery-item'>\n\t\t\t<div class='gallery-icon portrait'>\n\t\t\t\t<a href='https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/fb_aat2_a003_pt_br\/'><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" width=\"227\" height=\"400\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?fit=227%2C400&#038;resize=227%2C400\" class=\"attachment-thumbnail size-thumbnail\" alt=\"\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=2120 2120w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=227 227w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=170 170w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=581 581w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=871 871w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=1162 1162w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=613 613w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=1225 1225w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=340 340w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_a003_pt_BR.png?w=1920 1920w\" sizes=\"auto, (max-width: 227px) 100vw, 227px\" \/><\/a>\n\t\t\t<\/div><\/figure><figure class='gallery-item'>\n\t\t\t<div class='gallery-icon portrait'>\n\t\t\t\t<a href='https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/fb_aat2_b003_pt_br\/'><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" width=\"227\" height=\"400\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?fit=227%2C400&#038;resize=227%2C400\" class=\"attachment-thumbnail size-thumbnail\" alt=\"\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=2120 2120w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=227 227w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=170 170w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=581 581w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=871 871w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=1162 1162w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=613 613w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=1225 1225w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=340 340w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_b003_pt_BR.png?w=1920 1920w\" sizes=\"auto, (max-width: 227px) 100vw, 227px\" \/><\/a>\n\t\t\t<\/div><\/figure>\n\t\t<\/div>\n\n<p><span style=\"font-weight: 400\">E alcan\u00e7amos o primeiro lugar no setor ao possibilitar a inclus\u00e3o de informa\u00e7\u00f5es sobre a localiza\u00e7\u00e3o posicional e o tamanho relativo dos elementos em uma foto. Portanto, em vez de descrever o conte\u00fado de uma foto como &#8220;Pode ser uma imagem de 5 pessoas&#8221;, podemos especificar que h\u00e1 duas pessoas no centro da foto e outras tr\u00eas espalhadas nas bordas, o que implicaria que as duas no centro s\u00e3o o foco. Ou em vez de simplesmente descrever uma bela paisagem com &#8220;Pode ser uma casa e uma montanha&#8221;, podemos destacar que a montanha \u00e9 o objeto principal em uma cena, com base em qu\u00e3o grande ela parece comparada \u00e0 casa em sua base.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Juntos, esses avan\u00e7os ajudam os usu\u00e1rios com defici\u00eancia visual a entender melhor o que h\u00e1 nas fotos publicadas por familiares e amigos \u2014 e em suas pr\u00f3prias fotos \u2014 fornecendo mais (e mais detalhadas) informa\u00e7\u00f5es.<\/span><\/p>\n<p><b>Onde come\u00e7amos<\/b><\/p>\n<p><span style=\"font-weight: 400\">O conceito de \u201ctexto alternativo\u201d remonta aos prim\u00f3rdios da Internet, quando conex\u00f5es dial-up lentas tinham uma alternativa de texto para download de imagens que exigiam muita largura de banda. Naturalmente, o texto alternativo tamb\u00e9m ajudou as pessoas com defici\u00eancia visual a navegar na internet, uma vez que pode ser usado por um software leitor de tela para gerar descri\u00e7\u00f5es de imagens faladas. Infelizmente, as velocidades mais r\u00e1pidas de Internet tornaram o texto alternativo uma prioridade menor para muitos usu\u00e1rios. E como essas descri\u00e7\u00f5es precisavam ser adicionadas manualmente por quem carregou uma imagem, muitas fotos come\u00e7aram a n\u00e3o apresentar nenhum texto alternativo \u2014 sem recurso para as pessoas que contavam com ele.<\/span><\/p>\n<p><span style=\"font-weight: 400\">H\u00e1 cerca de cinco anos, aproveitamos a expertise em vis\u00e3o computacional do Facebook para ajudar a resolver esse problema. A primeira vers\u00e3o do AAT foi desenvolvida usando dados rotulados por humanos, com os quais treinamos uma rede neural convolucional profunda usando milh\u00f5es de exemplos de forma supervisionada. Nosso modelo AAT conclu\u00eddo poderia reconhecer 100 conceitos comuns, como &#8220;\u00e1rvore&#8221;, &#8220;montanha&#8221; e &#8220;ao ar livre&#8221;. E como os usu\u00e1rios do Facebook costumam compartilhar fotos de amigos e familiares, nossas descri\u00e7\u00f5es de AAT usavam modelos de reconhecimento facial que identificavam pessoas (contanto que essas pessoas dessem consentimento explicitamente). Para os usu\u00e1rios com defici\u00eancia visual, este foi um grande avan\u00e7o.<\/span><\/p>\n<p><b>Enxergando mais do mundo<\/b><\/p>\n<p><span style=\"font-weight: 400\">Mas sab\u00edamos que o AAT poderia fazer mais, e o pr\u00f3ximo passo l\u00f3gico era expandir o n\u00famero de objetos reconhec\u00edveis e refinar como os descrevemos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para alcan\u00e7ar isso, abandonamos o aprendizado totalmente supervisionado com dados rotulados por humanos. Embora esse m\u00e9todo forne\u00e7a precis\u00e3o, o tempo e o esfor\u00e7o envolvidos na rotulagem de dados s\u00e3o extremamente altos \u2014 e por que nosso modelo AAT original reconhecia apenas 100 objetos de forma confi\u00e1vel. Reconhecendo que essa abordagem n\u00e3o seria escal\u00e1vel, precis\u00e1vamos de um novo caminho a seguir.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para a vers\u00e3o mais atualizada do AAT, maximizamos um <\/span><a href=\"https:\/\/engineering.fb.com\/2018\/05\/02\/ml-applications\/advancing-state-of-the-art-image-recognition-with-deep-learning-on-hashtags\/\"><span style=\"font-weight: 400\">modelo treinado em dados parcialmente supervisionados<\/span><\/a><span style=\"font-weight: 400\"> na forma de bilh\u00f5es de imagens p\u00fablicas do Instagram e suas hashtags. Para fazer nossos modelos funcionarem melhor para todos, n\u00f3s os ajustamos para que os dados se tornassem amostras a partir de imagens em todas as geografias, e usando tradu\u00e7\u00f5es de hashtags em muitos idiomas. Tamb\u00e9m avaliamos nossos conceitos sobre g\u00eanero, tom de pele e idade. Os modelos resultantes s\u00e3o mais precisos, al\u00e9m de cultural e demograficamente inclusivos \u2014 por exemplo, eles podem identificar casamentos em todo o mundo com base (em parte) em trajes tradicionais, em vez de rotular apenas fotos com vestidos de noiva brancos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">I<\/span><span style=\"font-weight: 400\">sso tamb\u00e9m nos deu a capacidade de reaproveitar mais prontamente os modelos de aprendizado de m\u00e1quina como o ponto de partida para o treinamento em novas tarefas &#8211; um processo conhecido como <\/span><a href=\"https:\/\/machinelearningmastery.com\/transfer-learning-for-deep-learning\/#:~:text=Transfer%20learning%20is%20a%20machine%20learning%20method%20where,point%20for%20a%20model%20on%20a%20second%20task.\"><span style=\"font-weight: 400\">aprendizado por transfer\u00eancia<\/span><\/a><span style=\"font-weight: 400\">. Isso nos permitiu criar modelos que identificaram conceitos como monumentos nacionais, tipos de comida (como arroz frito e batatas fritas) e selfies. Todo esse processo n\u00e3o teria sido poss\u00edvel no passado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para obter informa\u00e7\u00f5es mais ricas como posi\u00e7\u00e3o e contagens, tamb\u00e9m treinamos um detector de objetos de dois est\u00e1gios, o Faster R-CNN, usando <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/-detectron2-a-pytorch-based-modular-object-detection-library-\/\"><span style=\"font-weight: 400\">Detectron2<\/span><\/a><span style=\"font-weight: 400\">, uma plataforma de c\u00f3digo aberto para detec\u00e7\u00e3o e segmenta\u00e7\u00e3o de objetos desenvolvida pelo Facebook AI Research. Treinamos os modelos para prever localiza\u00e7\u00f5es e r\u00f3tulos sem\u00e2nticos dos objetos em uma imagem. T\u00e9cnicas de treinamento com m\u00faltiplos r\u00f3tulos\/conjuntos de dados m\u00faltiplos ajudaram a tornar nosso modelo mais confi\u00e1vel com o espa\u00e7o de r\u00f3tulo maior.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A vers\u00e3o melhorada do AAT reconhece de forma confi\u00e1vel mais de 1.200 conceitos \u2014 10 vezes mais que a vers\u00e3o original que lan\u00e7amos em 2016. Conforme consultamos os usu\u00e1rios de leitores de tela sobre o AAT e como melhor aprimor\u00e1-lo, eles deixaram claro que a precis\u00e3o \u00e9 primordial. Para isso, inclu\u00edmos apenas conceitos em que poder\u00edamos garantir modelos bem treinados que atendessem a um certo alto patamar de precis\u00e3o. Embora haja uma margem de erro, e por isso come\u00e7amos todas as descri\u00e7\u00f5es com &#8220;Pode ser&#8221;, elevamos a r\u00e9gua e omitimos intencionalmente conceitos que n\u00e3o pod\u00edamos identificar de forma confi\u00e1vel.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Queremos dar aos nossos usu\u00e1rios cegos e com defici\u00eancia visual o m\u00e1ximo de informa\u00e7\u00f5es poss\u00edvel sobre o conte\u00fado de uma foto \u2014 mas informa\u00e7\u00f5es corretas.<\/span><\/p>\n<p><b>Entregando detalhes<\/b><\/p>\n<p><span style=\"font-weight: 400\">Tendo aumentado o n\u00famero de objetos reconhecidos, mantendo um alto n\u00edvel de precis\u00e3o, voltamos nossa aten\u00e7\u00e3o para descobrir a melhor forma de descrever o que encontramos em uma foto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Perguntamos aos usu\u00e1rios que dependem de leitores de tela quantas informa\u00e7\u00f5es eles queriam ouvir e quando eles queriam ouvi-las. Eles queriam mais informa\u00e7\u00f5es quando uma imagem era de amigos ou familiares, e menos quando n\u00e3o era. Projetamos o novo AAT para fornecer uma descri\u00e7\u00e3o sucinta para todas as fotos por padr\u00e3o, mas oferecer uma maneira f\u00e1cil de solicitar mais detalhes em fotos de interesse espec\u00edfico.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-22304 size-thumbnail\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=227&#038;resize=227%2C400\" alt=\"\" width=\"227\" height=\"400\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=2120 2120w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=227 227w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=170 170w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=581 581w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=871 871w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=1162 1162w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=613 613w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=1225 1225w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=340 340w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/FB_AAT2_c003_pt_BR.png?w=1920 1920w\" sizes=\"auto, (max-width: 227px) 100vw, 227px\" \/><\/a><span style=\"font-weight: 400\">Quando os usu\u00e1rios selecionam essa \u00faltima op\u00e7\u00e3o, \u00e9 apresentado um painel que fornece uma descri\u00e7\u00e3o mais abrangente do conte\u00fado de uma foto, incluindo uma contagem dos elementos na foto, alguns dos quais podem n\u00e3o ter sido mencionados na descri\u00e7\u00e3o padr\u00e3o. Descri\u00e7\u00f5es detalhadas tamb\u00e9m incluem informa\u00e7\u00f5es posicionais simples \u2014 superior\/no meio\/inferior ou esquerda\/centro\/direita \u2014 e uma compara\u00e7\u00e3o da proemin\u00eancia relativa dos objetos, descrita como &#8220;prim\u00e1rios&#8221;, &#8220;secund\u00e1rios&#8221; ou &#8220;minorit\u00e1rio&#8221;. Essas palavras foram especificamente escolhidas para minimizar a ambiguidade. Feedbacks sobre a ferramenta durante o desenvolvimento mostraram que usar uma palavra como &#8220;grande&#8221; para descrever um objeto pode ser confuso porque n\u00e3o est\u00e1 claro se a refer\u00eancia \u00e9 ao seu tamanho real ou em rela\u00e7\u00e3o a outros objetos em uma imagem. At\u00e9 um chihuahua parece grande se for fotografado de perto!\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">O AAT usa frases simples para a descri\u00e7\u00e3o padr\u00e3o, em vez de uma frase longa e fluida. N\u00e3o \u00e9 po\u00e9tico, mas \u00e9 altamente funcional. Nossos usu\u00e1rios podem obter a descri\u00e7\u00e3o de maneira \u00e1gil \u2014 e isso nos permite traduzir f\u00e1cil e rapidamente nossas descri\u00e7\u00f5es de texto alternativo em 45 idiomas diferentes, incluindo em portugu\u00eas, garantindo que o AAT seja \u00fatil para pessoas em todo o mundo.<\/span><\/p>\n<p><b>O Facebook \u00e9 para todo mundo<\/b><\/p>\n<p><span style=\"font-weight: 400\">Todos os dias, nossos usu\u00e1rios compartilham bilh\u00f5es de fotos. A onipresen\u00e7a de c\u00e2meras acess\u00edveis em telefones celulares, conex\u00f5es sem fio r\u00e1pidas e m\u00eddias sociais como Instagram e Facebook tornaram mais f\u00e1cil capturar e compartilhar fotografias, sendo uma das formas mais populares para se comunicar \u2014 inclusive para pessoas cegas e com defici\u00eancia visual. Embora desejemos que todos que publiquem uma foto incluam uma descri\u00e7\u00e3o em texto alternativo, reconhecemos que isso geralmente n\u00e3o acontece. Constru\u00edmos o AAT para preencher essa lacuna, e o impacto que isso tem sobre aqueles que precisam \u00e9 incomensur\u00e1vel. A IA promete avan\u00e7os extraordin\u00e1rios e estamos entusiasmados com a oportunidade de levar esses avan\u00e7os \u00e0s comunidades que, muitas vezes, s\u00e3o mal atendidas.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Quando as pessoas navegam por seu Feed de Not\u00edcias no Facebook, elas encontram diversos tipos de conte\u00fado \u2014 artigos, coment\u00e1rios de amigos, convites para eventos e, claro, fotos. A maioria das pessoas consegue ver instantaneamente o que est\u00e1 nessas imagens, seja o registro de seu novo neto, um barco em um rio ou a imagem granulada de uma banda no palco. Mas muitos usu\u00e1rios com defici\u00eancia visual tamb\u00e9m podem experienciar essas imagens, desde que sejam marcadas devidamente com texto alternativo (ou &#8220;texto alt.&#8221;). Um leitor de tela pode descrever o conte\u00fado dessas imagens usando uma voz sint\u00e9tica e permitir que as pessoas com defici\u00eancia visual entendam as imagens em seu Feed do Facebook. Infelizmente, muitas fotos s\u00e3o postadas sem texto alternativo, ent\u00e3o, em 2016, introduzimos uma nova tecnologia chamada Texto Alternativo Autom\u00e1tico (AAT, na sigla em ingl\u00eas). O AAT \u2014 que foi reconhecido em 2018 com o pr\u00eamio Helen Keller Achievement da American Foundation for the Blind \u2014 utiliza reconhecimento de objetos para gerar descri\u00e7\u00f5es de fotos sob demanda, para que pessoas cegas ou com defici\u00eancia visual possam aproveitar mais plenamente seu Feed de Not\u00edcias. Temos melhorado desde ent\u00e3o e estamos ansiosos para revelar a pr\u00f3xima gera\u00e7\u00e3o de AAT. A nova vers\u00e3o do AAT representa v\u00e1rios avan\u00e7os tecnol\u00f3gicos que aprimoram a experi\u00eancia em fotos de nossos usu\u00e1rios. Em primeiro lugar, expandimos em mais de 10 vezes o n\u00famero de objetos que o AAT pode detectar e identificar de forma confi\u00e1vel em uma foto, o que significa menos fotos sem uma descri\u00e7\u00e3o. As descri\u00e7\u00f5es tamb\u00e9m s\u00e3o mais detalhadas, com a capacidade de identificar atividades, pontos de refer\u00eancia, tipos de animais e assim por diante \u2014 por exemplo: &#8220;Pode ser uma selfie de 2 pessoas, ao ar livre, na Torre de Pisa\u201d. &nbsp; E alcan\u00e7amos o primeiro lugar no setor ao possibilitar a inclus\u00e3o de informa\u00e7\u00f5es sobre a localiza\u00e7\u00e3o posicional e o tamanho relativo dos elementos em uma foto. Portanto, em vez de descrever o conte\u00fado de uma foto como &#8220;Pode ser uma imagem de 5 pessoas&#8221;, podemos especificar que h\u00e1 duas pessoas no centro da foto e outras tr\u00eas espalhadas nas bordas, o que implicaria que as duas no centro s\u00e3o o foco. Ou em vez de simplesmente descrever uma bela paisagem com &#8220;Pode ser uma casa e uma montanha&#8221;, podemos destacar que a montanha \u00e9 o objeto principal em uma cena, com base em qu\u00e3o grande ela parece comparada \u00e0 casa em sua base. Juntos, esses avan\u00e7os ajudam os usu\u00e1rios com defici\u00eancia visual a entender melhor o que h\u00e1 nas fotos publicadas por familiares e amigos \u2014 e em suas pr\u00f3prias fotos \u2014 fornecendo mais (e mais detalhadas) informa\u00e7\u00f5es. Onde come\u00e7amos O conceito de \u201ctexto alternativo\u201d remonta aos prim\u00f3rdios da Internet, quando conex\u00f5es dial-up lentas tinham uma alternativa de texto para download de imagens que exigiam muita largura de banda. Naturalmente, o texto alternativo tamb\u00e9m ajudou as pessoas com defici\u00eancia visual a navegar na internet, uma vez que pode ser usado por um software leitor de tela para gerar descri\u00e7\u00f5es de imagens faladas. Infelizmente, as velocidades mais r\u00e1pidas de Internet tornaram o texto alternativo uma prioridade menor para muitos usu\u00e1rios. E como essas descri\u00e7\u00f5es precisavam ser adicionadas manualmente por quem carregou uma imagem, muitas fotos come\u00e7aram a n\u00e3o apresentar nenhum texto alternativo \u2014 sem recurso para as pessoas que contavam com ele. H\u00e1 cerca de cinco anos, aproveitamos a expertise em vis\u00e3o computacional do Facebook para ajudar a resolver esse problema. A primeira vers\u00e3o do AAT foi desenvolvida usando dados rotulados por humanos, com os quais treinamos uma rede neural convolucional profunda usando milh\u00f5es de exemplos de forma supervisionada. Nosso modelo AAT conclu\u00eddo poderia reconhecer 100 conceitos comuns, como &#8220;\u00e1rvore&#8221;, &#8220;montanha&#8221; e &#8220;ao ar livre&#8221;. E como os usu\u00e1rios do Facebook costumam compartilhar fotos de amigos e familiares, nossas descri\u00e7\u00f5es de AAT usavam modelos de reconhecimento facial que identificavam pessoas (contanto que essas pessoas dessem consentimento explicitamente). Para os usu\u00e1rios com defici\u00eancia visual, este foi um grande avan\u00e7o. Enxergando mais do mundo Mas sab\u00edamos que o AAT poderia fazer mais, e o pr\u00f3ximo passo l\u00f3gico era expandir o n\u00famero de objetos reconhec\u00edveis e refinar como os descrevemos. Para alcan\u00e7ar isso, abandonamos o aprendizado totalmente supervisionado com dados rotulados por humanos. Embora esse m\u00e9todo forne\u00e7a precis\u00e3o, o tempo e o esfor\u00e7o envolvidos na rotulagem de dados s\u00e3o extremamente altos \u2014 e por que nosso modelo AAT original reconhecia apenas 100 objetos de forma confi\u00e1vel. Reconhecendo que essa abordagem n\u00e3o seria escal\u00e1vel, precis\u00e1vamos de um novo caminho a seguir. Para a vers\u00e3o mais atualizada do AAT, maximizamos um modelo treinado em dados parcialmente supervisionados na forma de bilh\u00f5es de imagens p\u00fablicas do Instagram e suas hashtags. Para fazer nossos modelos funcionarem melhor para todos, n\u00f3s os ajustamos para que os dados se tornassem amostras a partir de imagens em todas as geografias, e usando tradu\u00e7\u00f5es de hashtags em muitos idiomas. Tamb\u00e9m avaliamos nossos conceitos sobre g\u00eanero, tom de pele e idade. Os modelos resultantes s\u00e3o mais precisos, al\u00e9m de cultural e demograficamente inclusivos \u2014 por exemplo, eles podem identificar casamentos em todo o mundo com base (em parte) em trajes tradicionais, em vez de rotular apenas fotos com vestidos de noiva brancos. Isso tamb\u00e9m nos deu a capacidade de reaproveitar mais prontamente os modelos de aprendizado de m\u00e1quina como o ponto de partida para o treinamento em novas tarefas &#8211; um processo conhecido como aprendizado por transfer\u00eancia. Isso nos permitiu criar modelos que identificaram conceitos como monumentos nacionais, tipos de comida (como arroz frito e batatas fritas) e selfies. Todo esse processo n\u00e3o teria sido poss\u00edvel no passado. Para obter informa\u00e7\u00f5es mais ricas como posi\u00e7\u00e3o e contagens, tamb\u00e9m treinamos um detector de objetos de dois est\u00e1gios, o Faster R-CNN, usando Detectron2, uma plataforma de c\u00f3digo aberto para detec\u00e7\u00e3o e segmenta\u00e7\u00e3o de objetos desenvolvida pelo Facebook AI Research. Treinamos os modelos para prever localiza\u00e7\u00f5es e r\u00f3tulos sem\u00e2nticos dos objetos em uma imagem. T\u00e9cnicas de treinamento com m\u00faltiplos r\u00f3tulos\/conjuntos de dados m\u00faltiplos ajudaram a tornar nosso modelo mais confi\u00e1vel com o espa\u00e7o de r\u00f3tulo maior. A vers\u00e3o melhorada do AAT reconhece de forma confi\u00e1vel mais de 1.200 conceitos \u2014 10 vezes mais que a vers\u00e3o original que lan\u00e7amos em 2016. Conforme consultamos os usu\u00e1rios de leitores de tela sobre o AAT e como melhor aprimor\u00e1-lo, eles deixaram claro que a precis\u00e3o \u00e9 primordial. Para isso, inclu\u00edmos apenas conceitos em que poder\u00edamos garantir modelos bem treinados que atendessem a um certo alto patamar de precis\u00e3o. Embora haja uma margem de erro, e por isso come\u00e7amos todas as descri\u00e7\u00f5es com &#8220;Pode ser&#8221;, elevamos a r\u00e9gua e omitimos intencionalmente conceitos que n\u00e3o pod\u00edamos identificar de forma confi\u00e1vel. Queremos dar aos nossos usu\u00e1rios cegos e com defici\u00eancia visual o m\u00e1ximo de informa\u00e7\u00f5es poss\u00edvel sobre o conte\u00fado de uma foto \u2014 mas informa\u00e7\u00f5es corretas. Entregando detalhes Tendo aumentado o n\u00famero de objetos reconhecidos, mantendo um alto n\u00edvel de precis\u00e3o, voltamos nossa aten\u00e7\u00e3o para descobrir a melhor forma de descrever o que encontramos em uma foto. Perguntamos aos usu\u00e1rios que dependem de leitores de tela quantas informa\u00e7\u00f5es eles queriam ouvir e quando eles queriam ouvi-las. Eles queriam mais informa\u00e7\u00f5es quando uma imagem era de amigos ou familiares, e menos quando n\u00e3o era. Projetamos o novo AAT para fornecer uma descri\u00e7\u00e3o sucinta para todas as fotos por padr\u00e3o, mas oferecer uma maneira f\u00e1cil de solicitar mais detalhes em fotos de interesse espec\u00edfico. Quando os usu\u00e1rios selecionam essa \u00faltima op\u00e7\u00e3o, \u00e9 apresentado um painel que fornece uma descri\u00e7\u00e3o mais abrangente do conte\u00fado de uma foto, incluindo uma contagem dos elementos na foto, alguns dos quais podem n\u00e3o ter sido mencionados na descri\u00e7\u00e3o padr\u00e3o. Descri\u00e7\u00f5es detalhadas tamb\u00e9m incluem informa\u00e7\u00f5es posicionais simples \u2014 superior\/no meio\/inferior ou esquerda\/centro\/direita \u2014 e uma compara\u00e7\u00e3o da proemin\u00eancia relativa dos objetos, descrita como &#8220;prim\u00e1rios&#8221;, &#8220;secund\u00e1rios&#8221; ou &#8220;minorit\u00e1rio&#8221;. Essas palavras foram especificamente escolhidas para minimizar a ambiguidade. Feedbacks sobre a ferramenta durante o desenvolvimento mostraram que usar uma palavra como &#8220;grande&#8221; para descrever um objeto pode ser confuso porque n\u00e3o est\u00e1 claro se a refer\u00eancia \u00e9 ao seu tamanho real ou em rela\u00e7\u00e3o a outros objetos em uma imagem. At\u00e9 um chihuahua parece grande se for fotografado de perto!\u00a0 O AAT usa frases simples para a descri\u00e7\u00e3o padr\u00e3o, em vez de uma frase longa e fluida. N\u00e3o \u00e9 po\u00e9tico, mas \u00e9 altamente funcional. Nossos usu\u00e1rios podem obter a descri\u00e7\u00e3o de maneira \u00e1gil \u2014 e isso nos permite traduzir f\u00e1cil e rapidamente nossas descri\u00e7\u00f5es de texto alternativo em 45 idiomas diferentes, incluindo em portugu\u00eas, garantindo que o AAT seja \u00fatil para pessoas em todo o mundo. O Facebook \u00e9 para todo mundo Todos os dias, nossos usu\u00e1rios compartilham bilh\u00f5es de fotos. A onipresen\u00e7a de c\u00e2meras acess\u00edveis em telefones celulares, conex\u00f5es sem fio r\u00e1pidas e m\u00eddias sociais como Instagram e Facebook tornaram mais f\u00e1cil capturar e compartilhar fotografias, sendo uma das formas mais populares para se comunicar \u2014 inclusive para pessoas cegas e com defici\u00eancia visual. Embora desejemos que todos que publiquem uma foto incluam uma descri\u00e7\u00e3o em texto alternativo, reconhecemos que isso geralmente n\u00e3o acontece. Constru\u00edmos o AAT para preencher essa lacuna, e o impacto que isso tem sobre aqueles que precisam \u00e9 incomensur\u00e1vel. A IA promete avan\u00e7os extraordin\u00e1rios e estamos entusiasmados com a oportunidade de levar esses avan\u00e7os \u00e0s comunidades que, muitas vezes, s\u00e3o mal atendidas.","protected":false},"author":81109636,"featured_media":22301,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542115,396542111,396542117,1,396542170],"tags":[396542134,396541945],"class_list":["post-22265","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-facebook","category-comunidades","category-instagram","category-recent-news","category-tecnologia-e-inovacao","tag-acessibilidade","tag-inteligencia-artificial"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Quando as pessoas navegam por seu Feed de Not\u00edcias no Facebook, elas encontram diversos tipos de conte\u00fado \u2014 artigos, coment\u00e1rios de amigos, convites para eventos e, claro, fotos. A maioria das pessoas consegue ver instantaneamente o que est\u00e1 nessas imagens, seja o registro de seu novo neto, um barco em um rio ou a imagem granulada de uma banda no palco. Mas muitos usu\u00e1rios com defici\u00eancia visual tamb\u00e9m podem experienciar essas imagens, desde que sejam marcadas devidamente com texto alternativo (ou &#8220;texto alt.&#8221;). Um leitor de tela pode descrever o conte\u00fado dessas imagens usando uma voz sint\u00e9tica e permitir que as pessoas com defici\u00eancia visual entendam as imagens em seu Feed do Facebook. Infelizmente, muitas fotos s\u00e3o postadas sem texto alternativo, ent\u00e3o, em 2016, introduzimos uma nova tecnologia chamada Texto Alternativo Autom\u00e1tico (AAT, na sigla em ingl\u00eas). O AAT \u2014 que foi reconhecido em 2018 com o pr\u00eamio Helen Keller Achievement da American Foundation for the Blind \u2014 utiliza reconhecimento de objetos para gerar descri\u00e7\u00f5es de fotos sob demanda, para que pessoas cegas ou com defici\u00eancia visual possam aproveitar mais plenamente seu Feed de Not\u00edcias. Temos melhorado desde ent\u00e3o e estamos ansiosos para revelar a pr\u00f3xima gera\u00e7\u00e3o de AAT. A nova vers\u00e3o do AAT representa v\u00e1rios avan\u00e7os tecnol\u00f3gicos que aprimoram a experi\u00eancia em fotos de nossos usu\u00e1rios. Em primeiro lugar, expandimos em mais de 10 vezes o n\u00famero de objetos que o AAT pode detectar e identificar de forma confi\u00e1vel em uma foto, o que significa menos fotos sem uma descri\u00e7\u00e3o. As descri\u00e7\u00f5es tamb\u00e9m s\u00e3o mais detalhadas, com a capacidade de identificar atividades, pontos de refer\u00eancia, tipos de animais e assim por diante \u2014 por exemplo: &#8220;Pode ser uma selfie de 2 pessoas, ao ar livre, na Torre de Pisa\u201d. &nbsp; E alcan\u00e7amos o primeiro lugar no setor ao possibilitar a inclus\u00e3o de informa\u00e7\u00f5es sobre a localiza\u00e7\u00e3o posicional e o tamanho relativo dos elementos em uma foto. Portanto, em vez de descrever o conte\u00fado de uma foto como &#8220;Pode ser uma imagem de 5 pessoas&#8221;, podemos especificar que h\u00e1 duas pessoas no centro da foto e outras tr\u00eas espalhadas nas bordas, o que implicaria que as duas no centro s\u00e3o o foco. Ou em vez de simplesmente descrever uma bela paisagem com &#8220;Pode ser uma casa e uma montanha&#8221;, podemos destacar que a montanha \u00e9 o objeto principal em uma cena, com base em qu\u00e3o grande ela parece comparada \u00e0 casa em sua base. Juntos, esses avan\u00e7os ajudam os usu\u00e1rios com defici\u00eancia visual a entender melhor o que h\u00e1 nas fotos publicadas por familiares e amigos \u2014 e em suas pr\u00f3prias fotos \u2014 fornecendo mais (e mais detalhadas) informa\u00e7\u00f5es. Onde come\u00e7amos O conceito de \u201ctexto alternativo\u201d remonta aos prim\u00f3rdios da Internet, quando conex\u00f5es dial-up lentas tinham uma alternativa de texto para download de imagens que exigiam muita largura de banda. Naturalmente, o texto alternativo tamb\u00e9m ajudou as pessoas com defici\u00eancia visual a navegar na internet, uma vez que pode ser usado por um software leitor de tela para gerar descri\u00e7\u00f5es de imagens faladas. Infelizmente, as velocidades mais r\u00e1pidas de Internet tornaram o texto alternativo uma prioridade menor para muitos usu\u00e1rios. E como essas descri\u00e7\u00f5es precisavam ser adicionadas manualmente por quem carregou uma imagem, muitas fotos come\u00e7aram a n\u00e3o apresentar nenhum texto alternativo \u2014 sem recurso para as pessoas que contavam com ele. H\u00e1 cerca de cinco anos, aproveitamos a expertise em vis\u00e3o computacional do Facebook para ajudar a resolver esse problema. A primeira vers\u00e3o do AAT foi desenvolvida usando dados rotulados por humanos, com os quais treinamos uma rede neural convolucional profunda usando milh\u00f5es de exemplos de forma supervisionada. Nosso modelo AAT conclu\u00eddo poderia reconhecer 100 conceitos comuns, como &#8220;\u00e1rvore&#8221;, &#8220;montanha&#8221; e &#8220;ao ar livre&#8221;. E como os usu\u00e1rios do Facebook costumam compartilhar fotos de amigos e familiares, nossas descri\u00e7\u00f5es de AAT usavam modelos de reconhecimento facial que identificavam pessoas (contanto que essas pessoas dessem consentimento explicitamente). Para os usu\u00e1rios com defici\u00eancia visual, este foi um grande avan\u00e7o. Enxergando mais do mundo Mas sab\u00edamos que o AAT poderia fazer mais, e o pr\u00f3ximo passo l\u00f3gico era expandir o n\u00famero de objetos reconhec\u00edveis e refinar como os descrevemos. Para alcan\u00e7ar isso, abandonamos o aprendizado totalmente supervisionado com dados rotulados por humanos. Embora esse m\u00e9todo forne\u00e7a precis\u00e3o, o tempo e o esfor\u00e7o envolvidos na rotulagem de dados s\u00e3o extremamente altos \u2014 e por que nosso modelo AAT original reconhecia apenas 100 objetos de forma confi\u00e1vel. Reconhecendo que essa abordagem n\u00e3o seria escal\u00e1vel, precis\u00e1vamos de um novo caminho a seguir. Para a vers\u00e3o mais atualizada do AAT, maximizamos um modelo treinado em dados parcialmente supervisionados na forma de bilh\u00f5es de imagens p\u00fablicas do Instagram e suas hashtags. Para fazer nossos modelos funcionarem melhor para todos, n\u00f3s os ajustamos para que os dados se tornassem amostras a partir de imagens em todas as geografias, e usando tradu\u00e7\u00f5es de hashtags em muitos idiomas. Tamb\u00e9m avaliamos nossos conceitos sobre g\u00eanero, tom de pele e idade. Os modelos resultantes s\u00e3o mais precisos, al\u00e9m de cultural e demograficamente inclusivos \u2014 por exemplo, eles podem identificar casamentos em todo o mundo com base (em parte) em trajes tradicionais, em vez de rotular apenas fotos com vestidos de noiva brancos. Isso tamb\u00e9m nos deu a capacidade de reaproveitar mais prontamente os modelos de aprendizado de m\u00e1quina como o ponto de partida para o treinamento em novas tarefas &#8211; um processo conhecido como aprendizado por transfer\u00eancia. Isso nos permitiu criar modelos que identificaram conceitos como monumentos nacionais, tipos de comida (como arroz frito e batatas fritas) e selfies. Todo esse processo n\u00e3o teria sido poss\u00edvel no passado. Para obter informa\u00e7\u00f5es mais ricas como posi\u00e7\u00e3o e contagens, tamb\u00e9m treinamos um detector de objetos de dois est\u00e1gios, o Faster R-CNN, usando Detectron2, uma plataforma de c\u00f3digo aberto para detec\u00e7\u00e3o e segmenta\u00e7\u00e3o de objetos desenvolvida pelo Facebook AI Research. Treinamos os modelos para prever localiza\u00e7\u00f5es e r\u00f3tulos sem\u00e2nticos dos objetos em uma imagem. T\u00e9cnicas de treinamento com m\u00faltiplos r\u00f3tulos\/conjuntos de dados m\u00faltiplos ajudaram a tornar nosso modelo mais confi\u00e1vel com o espa\u00e7o de r\u00f3tulo maior. A vers\u00e3o melhorada do AAT reconhece de forma confi\u00e1vel mais de 1.200 conceitos \u2014 10 vezes mais que a vers\u00e3o original que lan\u00e7amos em 2016. Conforme consultamos os usu\u00e1rios de leitores de tela sobre o AAT e como melhor aprimor\u00e1-lo, eles deixaram claro que a precis\u00e3o \u00e9 primordial. Para isso, inclu\u00edmos apenas conceitos em que poder\u00edamos garantir modelos bem treinados que atendessem a um certo alto patamar de precis\u00e3o. Embora haja uma margem de erro, e por isso come\u00e7amos todas as descri\u00e7\u00f5es com &#8220;Pode ser&#8221;, elevamos a r\u00e9gua e omitimos intencionalmente conceitos que n\u00e3o pod\u00edamos identificar de forma confi\u00e1vel. Queremos dar aos nossos usu\u00e1rios cegos e com defici\u00eancia visual o m\u00e1ximo de informa\u00e7\u00f5es poss\u00edvel sobre o conte\u00fado de uma foto \u2014 mas informa\u00e7\u00f5es corretas. Entregando detalhes Tendo aumentado o n\u00famero de objetos reconhecidos, mantendo um alto n\u00edvel de precis\u00e3o, voltamos nossa aten\u00e7\u00e3o para descobrir a melhor forma de descrever o que encontramos em uma foto. Perguntamos aos usu\u00e1rios que dependem de leitores de tela quantas informa\u00e7\u00f5es eles queriam ouvir e quando eles queriam ouvi-las. Eles queriam mais informa\u00e7\u00f5es quando uma imagem era de amigos ou familiares, e menos quando n\u00e3o era. Projetamos o novo AAT para fornecer uma descri\u00e7\u00e3o sucinta para todas as fotos por padr\u00e3o, mas oferecer uma maneira f\u00e1cil de solicitar mais detalhes em fotos de interesse espec\u00edfico. Quando os usu\u00e1rios selecionam essa \u00faltima op\u00e7\u00e3o, \u00e9 apresentado um painel que fornece uma descri\u00e7\u00e3o mais abrangente do conte\u00fado de uma foto, incluindo uma contagem dos elementos na foto, alguns dos quais podem n\u00e3o ter sido mencionados na descri\u00e7\u00e3o padr\u00e3o. Descri\u00e7\u00f5es detalhadas tamb\u00e9m incluem informa\u00e7\u00f5es posicionais simples \u2014 superior\/no meio\/inferior ou esquerda\/centro\/direita \u2014 e uma compara\u00e7\u00e3o da proemin\u00eancia relativa dos objetos, descrita como &#8220;prim\u00e1rios&#8221;, &#8220;secund\u00e1rios&#8221; ou &#8220;minorit\u00e1rio&#8221;. Essas palavras foram especificamente escolhidas para minimizar a ambiguidade. Feedbacks sobre a ferramenta durante o desenvolvimento mostraram que usar uma palavra como &#8220;grande&#8221; para descrever um objeto pode ser confuso porque n\u00e3o est\u00e1 claro se a refer\u00eancia \u00e9 ao seu tamanho real ou em rela\u00e7\u00e3o a outros objetos em uma imagem. At\u00e9 um chihuahua parece grande se for fotografado de perto!\u00a0 O AAT usa frases simples para a descri\u00e7\u00e3o padr\u00e3o, em vez de uma frase longa e fluida. N\u00e3o \u00e9 po\u00e9tico, mas \u00e9 altamente funcional. Nossos usu\u00e1rios podem obter a descri\u00e7\u00e3o de maneira \u00e1gil \u2014 e isso nos permite traduzir f\u00e1cil e rapidamente nossas descri\u00e7\u00f5es de texto alternativo em 45 idiomas diferentes, incluindo em portugu\u00eas, garantindo que o AAT seja \u00fatil para pessoas em todo o mundo. O Facebook \u00e9 para todo mundo Todos os dias, nossos usu\u00e1rios compartilham bilh\u00f5es de fotos. A onipresen\u00e7a de c\u00e2meras acess\u00edveis em telefones celulares, conex\u00f5es sem fio r\u00e1pidas e m\u00eddias sociais como Instagram e Facebook tornaram mais f\u00e1cil capturar e compartilhar fotografias, sendo uma das formas mais populares para se comunicar \u2014 inclusive para pessoas cegas e com defici\u00eancia visual. Embora desejemos que todos que publiquem uma foto incluam uma descri\u00e7\u00e3o em texto alternativo, reconhecemos que isso geralmente n\u00e3o acontece. Constru\u00edmos o AAT para preencher essa lacuna, e o impacto que isso tem sobre aqueles que precisam \u00e9 incomensur\u00e1vel. A IA promete avan\u00e7os extraordin\u00e1rios e estamos entusiasmados com a oportunidade de levar esses avan\u00e7os \u00e0s comunidades que, muitas vezes, s\u00e3o mal atendidas.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2021-01-20T14:09:58+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-07-01T20:14:28+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"facebookbr\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\"},\"author\":\"Facebook company\",\"headline\":\"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual\",\"datePublished\":\"2021-01-20T14:09:58+00:00\",\"dateModified\":\"2021-07-01T20:14:28+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\"},\"wordCount\":1723,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864\",\"keywords\":[\"Acessibilidade\",\"intelig\u00eancia artificial\"],\"articleSection\":[\"Facebook\",\"Fortalecendo Comunidades\",\"Instagram\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\",\"name\":\"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864\",\"datePublished\":\"2021-01-20T14:09:58+00:00\",\"dateModified\":\"2021-07-01T20:14:28+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864\",\"width\":1536,\"height\":864},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/","og_locale":"pt_BR","og_type":"article","og_title":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta","og_description":"Quando as pessoas navegam por seu Feed de Not\u00edcias no Facebook, elas encontram diversos tipos de conte\u00fado \u2014 artigos, coment\u00e1rios de amigos, convites para eventos e, claro, fotos. A maioria das pessoas consegue ver instantaneamente o que est\u00e1 nessas imagens, seja o registro de seu novo neto, um barco em um rio ou a imagem granulada de uma banda no palco. Mas muitos usu\u00e1rios com defici\u00eancia visual tamb\u00e9m podem experienciar essas imagens, desde que sejam marcadas devidamente com texto alternativo (ou &#8220;texto alt.&#8221;). Um leitor de tela pode descrever o conte\u00fado dessas imagens usando uma voz sint\u00e9tica e permitir que as pessoas com defici\u00eancia visual entendam as imagens em seu Feed do Facebook. Infelizmente, muitas fotos s\u00e3o postadas sem texto alternativo, ent\u00e3o, em 2016, introduzimos uma nova tecnologia chamada Texto Alternativo Autom\u00e1tico (AAT, na sigla em ingl\u00eas). O AAT \u2014 que foi reconhecido em 2018 com o pr\u00eamio Helen Keller Achievement da American Foundation for the Blind \u2014 utiliza reconhecimento de objetos para gerar descri\u00e7\u00f5es de fotos sob demanda, para que pessoas cegas ou com defici\u00eancia visual possam aproveitar mais plenamente seu Feed de Not\u00edcias. Temos melhorado desde ent\u00e3o e estamos ansiosos para revelar a pr\u00f3xima gera\u00e7\u00e3o de AAT. A nova vers\u00e3o do AAT representa v\u00e1rios avan\u00e7os tecnol\u00f3gicos que aprimoram a experi\u00eancia em fotos de nossos usu\u00e1rios. Em primeiro lugar, expandimos em mais de 10 vezes o n\u00famero de objetos que o AAT pode detectar e identificar de forma confi\u00e1vel em uma foto, o que significa menos fotos sem uma descri\u00e7\u00e3o. As descri\u00e7\u00f5es tamb\u00e9m s\u00e3o mais detalhadas, com a capacidade de identificar atividades, pontos de refer\u00eancia, tipos de animais e assim por diante \u2014 por exemplo: &#8220;Pode ser uma selfie de 2 pessoas, ao ar livre, na Torre de Pisa\u201d. &nbsp; E alcan\u00e7amos o primeiro lugar no setor ao possibilitar a inclus\u00e3o de informa\u00e7\u00f5es sobre a localiza\u00e7\u00e3o posicional e o tamanho relativo dos elementos em uma foto. Portanto, em vez de descrever o conte\u00fado de uma foto como &#8220;Pode ser uma imagem de 5 pessoas&#8221;, podemos especificar que h\u00e1 duas pessoas no centro da foto e outras tr\u00eas espalhadas nas bordas, o que implicaria que as duas no centro s\u00e3o o foco. Ou em vez de simplesmente descrever uma bela paisagem com &#8220;Pode ser uma casa e uma montanha&#8221;, podemos destacar que a montanha \u00e9 o objeto principal em uma cena, com base em qu\u00e3o grande ela parece comparada \u00e0 casa em sua base. Juntos, esses avan\u00e7os ajudam os usu\u00e1rios com defici\u00eancia visual a entender melhor o que h\u00e1 nas fotos publicadas por familiares e amigos \u2014 e em suas pr\u00f3prias fotos \u2014 fornecendo mais (e mais detalhadas) informa\u00e7\u00f5es. Onde come\u00e7amos O conceito de \u201ctexto alternativo\u201d remonta aos prim\u00f3rdios da Internet, quando conex\u00f5es dial-up lentas tinham uma alternativa de texto para download de imagens que exigiam muita largura de banda. Naturalmente, o texto alternativo tamb\u00e9m ajudou as pessoas com defici\u00eancia visual a navegar na internet, uma vez que pode ser usado por um software leitor de tela para gerar descri\u00e7\u00f5es de imagens faladas. Infelizmente, as velocidades mais r\u00e1pidas de Internet tornaram o texto alternativo uma prioridade menor para muitos usu\u00e1rios. E como essas descri\u00e7\u00f5es precisavam ser adicionadas manualmente por quem carregou uma imagem, muitas fotos come\u00e7aram a n\u00e3o apresentar nenhum texto alternativo \u2014 sem recurso para as pessoas que contavam com ele. H\u00e1 cerca de cinco anos, aproveitamos a expertise em vis\u00e3o computacional do Facebook para ajudar a resolver esse problema. A primeira vers\u00e3o do AAT foi desenvolvida usando dados rotulados por humanos, com os quais treinamos uma rede neural convolucional profunda usando milh\u00f5es de exemplos de forma supervisionada. Nosso modelo AAT conclu\u00eddo poderia reconhecer 100 conceitos comuns, como &#8220;\u00e1rvore&#8221;, &#8220;montanha&#8221; e &#8220;ao ar livre&#8221;. E como os usu\u00e1rios do Facebook costumam compartilhar fotos de amigos e familiares, nossas descri\u00e7\u00f5es de AAT usavam modelos de reconhecimento facial que identificavam pessoas (contanto que essas pessoas dessem consentimento explicitamente). Para os usu\u00e1rios com defici\u00eancia visual, este foi um grande avan\u00e7o. Enxergando mais do mundo Mas sab\u00edamos que o AAT poderia fazer mais, e o pr\u00f3ximo passo l\u00f3gico era expandir o n\u00famero de objetos reconhec\u00edveis e refinar como os descrevemos. Para alcan\u00e7ar isso, abandonamos o aprendizado totalmente supervisionado com dados rotulados por humanos. Embora esse m\u00e9todo forne\u00e7a precis\u00e3o, o tempo e o esfor\u00e7o envolvidos na rotulagem de dados s\u00e3o extremamente altos \u2014 e por que nosso modelo AAT original reconhecia apenas 100 objetos de forma confi\u00e1vel. Reconhecendo que essa abordagem n\u00e3o seria escal\u00e1vel, precis\u00e1vamos de um novo caminho a seguir. Para a vers\u00e3o mais atualizada do AAT, maximizamos um modelo treinado em dados parcialmente supervisionados na forma de bilh\u00f5es de imagens p\u00fablicas do Instagram e suas hashtags. Para fazer nossos modelos funcionarem melhor para todos, n\u00f3s os ajustamos para que os dados se tornassem amostras a partir de imagens em todas as geografias, e usando tradu\u00e7\u00f5es de hashtags em muitos idiomas. Tamb\u00e9m avaliamos nossos conceitos sobre g\u00eanero, tom de pele e idade. Os modelos resultantes s\u00e3o mais precisos, al\u00e9m de cultural e demograficamente inclusivos \u2014 por exemplo, eles podem identificar casamentos em todo o mundo com base (em parte) em trajes tradicionais, em vez de rotular apenas fotos com vestidos de noiva brancos. Isso tamb\u00e9m nos deu a capacidade de reaproveitar mais prontamente os modelos de aprendizado de m\u00e1quina como o ponto de partida para o treinamento em novas tarefas &#8211; um processo conhecido como aprendizado por transfer\u00eancia. Isso nos permitiu criar modelos que identificaram conceitos como monumentos nacionais, tipos de comida (como arroz frito e batatas fritas) e selfies. Todo esse processo n\u00e3o teria sido poss\u00edvel no passado. Para obter informa\u00e7\u00f5es mais ricas como posi\u00e7\u00e3o e contagens, tamb\u00e9m treinamos um detector de objetos de dois est\u00e1gios, o Faster R-CNN, usando Detectron2, uma plataforma de c\u00f3digo aberto para detec\u00e7\u00e3o e segmenta\u00e7\u00e3o de objetos desenvolvida pelo Facebook AI Research. Treinamos os modelos para prever localiza\u00e7\u00f5es e r\u00f3tulos sem\u00e2nticos dos objetos em uma imagem. T\u00e9cnicas de treinamento com m\u00faltiplos r\u00f3tulos\/conjuntos de dados m\u00faltiplos ajudaram a tornar nosso modelo mais confi\u00e1vel com o espa\u00e7o de r\u00f3tulo maior. A vers\u00e3o melhorada do AAT reconhece de forma confi\u00e1vel mais de 1.200 conceitos \u2014 10 vezes mais que a vers\u00e3o original que lan\u00e7amos em 2016. Conforme consultamos os usu\u00e1rios de leitores de tela sobre o AAT e como melhor aprimor\u00e1-lo, eles deixaram claro que a precis\u00e3o \u00e9 primordial. Para isso, inclu\u00edmos apenas conceitos em que poder\u00edamos garantir modelos bem treinados que atendessem a um certo alto patamar de precis\u00e3o. Embora haja uma margem de erro, e por isso come\u00e7amos todas as descri\u00e7\u00f5es com &#8220;Pode ser&#8221;, elevamos a r\u00e9gua e omitimos intencionalmente conceitos que n\u00e3o pod\u00edamos identificar de forma confi\u00e1vel. Queremos dar aos nossos usu\u00e1rios cegos e com defici\u00eancia visual o m\u00e1ximo de informa\u00e7\u00f5es poss\u00edvel sobre o conte\u00fado de uma foto \u2014 mas informa\u00e7\u00f5es corretas. Entregando detalhes Tendo aumentado o n\u00famero de objetos reconhecidos, mantendo um alto n\u00edvel de precis\u00e3o, voltamos nossa aten\u00e7\u00e3o para descobrir a melhor forma de descrever o que encontramos em uma foto. Perguntamos aos usu\u00e1rios que dependem de leitores de tela quantas informa\u00e7\u00f5es eles queriam ouvir e quando eles queriam ouvi-las. Eles queriam mais informa\u00e7\u00f5es quando uma imagem era de amigos ou familiares, e menos quando n\u00e3o era. Projetamos o novo AAT para fornecer uma descri\u00e7\u00e3o sucinta para todas as fotos por padr\u00e3o, mas oferecer uma maneira f\u00e1cil de solicitar mais detalhes em fotos de interesse espec\u00edfico. Quando os usu\u00e1rios selecionam essa \u00faltima op\u00e7\u00e3o, \u00e9 apresentado um painel que fornece uma descri\u00e7\u00e3o mais abrangente do conte\u00fado de uma foto, incluindo uma contagem dos elementos na foto, alguns dos quais podem n\u00e3o ter sido mencionados na descri\u00e7\u00e3o padr\u00e3o. Descri\u00e7\u00f5es detalhadas tamb\u00e9m incluem informa\u00e7\u00f5es posicionais simples \u2014 superior\/no meio\/inferior ou esquerda\/centro\/direita \u2014 e uma compara\u00e7\u00e3o da proemin\u00eancia relativa dos objetos, descrita como &#8220;prim\u00e1rios&#8221;, &#8220;secund\u00e1rios&#8221; ou &#8220;minorit\u00e1rio&#8221;. Essas palavras foram especificamente escolhidas para minimizar a ambiguidade. Feedbacks sobre a ferramenta durante o desenvolvimento mostraram que usar uma palavra como &#8220;grande&#8221; para descrever um objeto pode ser confuso porque n\u00e3o est\u00e1 claro se a refer\u00eancia \u00e9 ao seu tamanho real ou em rela\u00e7\u00e3o a outros objetos em uma imagem. At\u00e9 um chihuahua parece grande se for fotografado de perto!\u00a0 O AAT usa frases simples para a descri\u00e7\u00e3o padr\u00e3o, em vez de uma frase longa e fluida. N\u00e3o \u00e9 po\u00e9tico, mas \u00e9 altamente funcional. Nossos usu\u00e1rios podem obter a descri\u00e7\u00e3o de maneira \u00e1gil \u2014 e isso nos permite traduzir f\u00e1cil e rapidamente nossas descri\u00e7\u00f5es de texto alternativo em 45 idiomas diferentes, incluindo em portugu\u00eas, garantindo que o AAT seja \u00fatil para pessoas em todo o mundo. O Facebook \u00e9 para todo mundo Todos os dias, nossos usu\u00e1rios compartilham bilh\u00f5es de fotos. A onipresen\u00e7a de c\u00e2meras acess\u00edveis em telefones celulares, conex\u00f5es sem fio r\u00e1pidas e m\u00eddias sociais como Instagram e Facebook tornaram mais f\u00e1cil capturar e compartilhar fotografias, sendo uma das formas mais populares para se comunicar \u2014 inclusive para pessoas cegas e com defici\u00eancia visual. Embora desejemos que todos que publiquem uma foto incluam uma descri\u00e7\u00e3o em texto alternativo, reconhecemos que isso geralmente n\u00e3o acontece. Constru\u00edmos o AAT para preencher essa lacuna, e o impacto que isso tem sobre aqueles que precisam \u00e9 incomensur\u00e1vel. A IA promete avan\u00e7os extraordin\u00e1rios e estamos entusiasmados com a oportunidade de levar esses avan\u00e7os \u00e0s comunidades que, muitas vezes, s\u00e3o mal atendidas.","og_url":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/","og_site_name":"Sobre a Meta","article_published_time":"2021-01-20T14:09:58+00:00","article_modified_time":"2021-07-01T20:14:28+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?resize=1024,576","type":"image\/png"}],"author":"facebookbr","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/"},"author":"Facebook company","headline":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual","datePublished":"2021-01-20T14:09:58+00:00","dateModified":"2021-07-01T20:14:28+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/"},"wordCount":1723,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864","keywords":["Acessibilidade","intelig\u00eancia artificial"],"articleSection":["Facebook","Fortalecendo Comunidades","Instagram","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/","url":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/","name":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864","datePublished":"2021-01-20T14:09:58+00:00","dateModified":"2021-07-01T20:14:28+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864","width":1536,"height":864},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2021\/01\/como-o-facebook-esta-usando-ia-para-melhorar-as-descricoes-de-fotos-para-pessoas-cegas-ou-com-deficiencia-visual\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Como o Facebook est\u00e1 usando IA para melhorar as descri\u00e7\u00f5es de fotos para pessoas cegas ou com defici\u00eancia visual"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/01\/Working-File_IG_Reader_pt_BR2.png?fit=1536%2C864","jetpack-related-posts":[{"id":26823,"url":"https:\/\/about.fb.com\/br\/news\/2025\/11\/nossos-novos-modelos-sam-facilitam-a-deteccao-de-objetos-e-a-criacao-de-reconstrucoes-3d\/","url_meta":{"origin":22265,"position":0},"title":"Nossos Novos Modelos SAM Facilitam a Detec\u00e7\u00e3o de Objetos e a Cria\u00e7\u00e3o de Reconstru\u00e7\u00f5es 3D","author":"Meta","date":"19\/11\/2025","format":false,"excerpt":"Hoje, estamos animados em anunciar o SAM 3 e o SAM 3D, as mais novas adi\u00e7\u00f5es \u00e0 nossa Segment Anything Collection. O SAM 3 permite a detec\u00e7\u00e3o e o rastreamento de objetos em imagens e v\u00eddeos usando prompts de texto, e o SAM 3D possibilita a reconstru\u00e7\u00e3o 3D de objetos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/11\/SAM3_Header-1-1.gif?fit=960%2C540&resize=700%2C400 2x"},"classes":[]},{"id":26696,"url":"https:\/\/about.fb.com\/br\/news\/2025\/10\/desempenho-potencializado-por-ia-para-o-agora-e-o-futuro\/","url_meta":{"origin":22265,"position":1},"title":"Desempenho potencializado por IA para o agora e o futuro","author":"Meta","date":"02\/10\/2025","format":false,"excerpt":"Para os profissionais de marketing, cada ponto de desempenho incremental pode significar a diferen\u00e7a entre empatar e bater recordes. Por isso, a Meta continua investindo em solu\u00e7\u00f5es l\u00edderes com IA, incluindo o Advantage+ e a infraestrutura que o sustenta, para ajudar empresas, anunciantes e ag\u00eancias a expandirem rapidamente. Estamos escrevendo\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26634,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/meta-connect-2025-a-evolucao-dos-oculos-inteligentes-o-avanco-do-metaverso-e-muito-mais\/","url_meta":{"origin":22265,"position":2},"title":"Meta Connect 2025: A Evolu\u00e7\u00e3o dos \u00d3culos Inteligentes, o Avan\u00e7o do Metaverso e Muito Mais","author":"Meta","date":"17\/09\/2025","format":false,"excerpt":"Mark Zuckerberg e Diplo sa\u00edram correndo do palco do Connect \u2013 literalmente \u2013 para dar in\u00edcio \u00e0 after party, e n\u00f3s estamos aqui para recapitular todas as novidades que voc\u00ea pode ter perdido. Mas antes, vamos falar sobre outra dupla din\u00e2mica que est\u00e1 conquistando o mundo: \u00f3culos e intelig\u00eancia artificial.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1400%2C800 4x"},"classes":[]},{"id":27074,"url":"https:\/\/about.fb.com\/br\/news\/2026\/04\/apresentamos-o-muse-spark-o-primeiro-modelo-do-msl-desenvolvido-para-priorizar-as-pessoas\/","url_meta":{"origin":22265,"position":3},"title":"Apresentamos o Muse Spark: O Primeiro Modelo do MSL, Desenvolvido para Priorizar as Pessoas","author":"Meta","date":"08\/04\/2026","format":false,"excerpt":"Hoje anunciamos o Muse Spark, o primeiro de uma nova s\u00e9rie de grandes modelos de linguagem criados pelo Meta Superintelligence Labs. Estamos a caminho da superintelig\u00eancia pessoal: um assistente capaz de ajudar qualquer pessoa, em qualquer lugar, com o que mais importa para ela. Um Novo Modelo: Muse Spark Nos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26881,"url":"https:\/\/about.fb.com\/br\/news\/2025\/12\/nosso-novo-modelo-sam-audio-revoluciona-a-edicao-de-audio\/","url_meta":{"origin":22265,"position":4},"title":"Nosso Novo Modelo SAM Audio Revoluciona a Edi\u00e7\u00e3o de \u00c1udio","author":"Meta","date":"16\/12\/2025","format":false,"excerpt":"Destaques: O SAM Audio \u00e9 o primeiro modelo de IA unificado capaz de segmentar sons de misturas de \u00e1udio complexas usando prompts de texto, visuais e de intervalo de tempo. Essa tecnologia tem potencial para transformar a edi\u00e7\u00e3o de \u00e1udio e v\u00eddeo, impulsionando inova\u00e7\u00e3o em \u00e1reas como m\u00fasica, podcast, televis\u00e3o,\u2026","rel":"","context":"In &quot;Feed - Temas&quot;","block_context":{"text":"Feed - Temas","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26476,"url":"https:\/\/about.fb.com\/br\/news\/2025\/06\/cannes-lions-2025-a-nova-era-da-ia-generativa-para-anunciantes-e-agencias-com-foco-em-personalizacao-em-escala\/","url_meta":{"origin":22265,"position":5},"title":"Cannes Lions 2025: A nova era da IA generativa para anunciantes e ag\u00eancias com foco em personaliza\u00e7\u00e3o em escala","author":"Meta","date":"17\/06\/2025","format":false,"excerpt":"Nesta semana, durante o Festival Internacional de Criatividade Cannes Lions, estamos apresentando a nova era das solu\u00e7\u00f5es de IA generativa para anunciantes e ag\u00eancias, com o objetivo de melhorar o desempenho das campanhas publicit\u00e1rias e impulsionar o crescimento dos neg\u00f3cios. \u00c0 medida que a IA continua evoluindo, ela abre novos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/22265","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/81109636"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=22265"}],"version-history":[{"count":6,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/22265\/revisions"}],"predecessor-version":[{"id":22307,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/22265\/revisions\/22307"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/22301"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=22265"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=22265"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=22265"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}