{"id":26149,"date":"2025-02-07T10:37:03","date_gmt":"2025-02-07T13:37:03","guid":{"rendered":"https:\/\/about.fb.com\/br\/?p=26149"},"modified":"2025-02-07T10:38:18","modified_gmt":"2025-02-07T13:38:18","slug":"26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana","status":"publish","type":"post","link":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","title":{"rendered":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na <\/span><a href=\"https:\/\/ai.meta.com\/blog\/ai-predicts-effective-drug-combinations-to-fight-complex-diseases-faster\/\"><span style=\"font-weight: 400\">medicina<\/span><\/a><span style=\"font-weight: 400\">, <\/span><a href=\"https:\/\/ai.meta.com\/blog\/georgia-tech-opendac-carbon-emissions-direct-air-capture\/\"><span style=\"font-weight: 400\">ci\u00eancia clim\u00e1tica<\/span><\/a><span style=\"font-weight: 400\"> e <\/span><a href=\"https:\/\/research.facebook.com\/blog\/2023\/4\/every-tree-counts-large-scale-mapping-of-canopy-height-at-the-resolution-of-individual-trees\/\"><span style=\"font-weight: 400\">conserva\u00e7\u00e3o<\/span><\/a><span style=\"font-weight: 400\">, e mantivemos nosso <\/span><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/11\/uma-decada-de-avancos-na-evolucao-da-ia-por-meio-de-pesquisa-aberta\/\"><span style=\"font-weight: 400\">compromisso com a ci\u00eancia aberta e reproduz\u00edvel<\/span><\/a><span style=\"font-weight: 400\">. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar a <\/span><a href=\"https:\/\/ai.meta.com\/blog\/yann-lecun-advances-in-ai-research\/\"><span style=\"font-weight: 400\">intelig\u00eancia avan\u00e7ada de m\u00e1quina<\/span><\/a><span style=\"font-weight: 400\"> (AMI, na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Hoje, em colabora\u00e7\u00e3o com o <\/span><a href=\"https:\/\/www.bcbl.eu\/en\"><span style=\"font-weight: 400\">Basque Center on Cognition, Brain and Language<\/span><\/a><span style=\"font-weight: 400\">, um importante centro de pesquisa interdisciplinar de San Sebastian, na Espanha, estamos animados em compartilhar duas descobertas que mostram como a IA pode ajudar a avan\u00e7ar nossa compreens\u00e3o da intelig\u00eancia humana, nos levando mais perto da AMI. Com base em nosso trabalho anterior para decodificar a percep\u00e7\u00e3o de <\/span><a href=\"https:\/\/ai.meta.com\/blog\/brain-ai-image-decoding-meg-magnetoencephalography\/\"><span style=\"font-weight: 400\">imagens<\/span><\/a><span style=\"font-weight: 400\"> e <\/span><a href=\"https:\/\/ai.meta.com\/blog\/ai-speech-brain-activity\/\"><span style=\"font-weight: 400\">fala<\/span><\/a><span style=\"font-weight: 400\"> da atividade cerebral, estamos compartilhando pesquisas que decodificam com sucesso a produ\u00e7\u00e3o de frases a partir de grava\u00e7\u00f5es cerebrais n\u00e3o invasivas, decodificando com precis\u00e3o at\u00e9 80% dos caracteres e, portanto, frequentemente reconstruindo frases completas apenas a partir de sinais cerebrais. Em um segundo estudo, estamos detalhando como a IA tamb\u00e9m pode ajudar a entender esses sinais cerebrais e esclarecendo como o c\u00e9rebro transforma efetivamente os pensamentos em uma sequ\u00eancia de palavras.<\/span><\/p>\n<p><span style=\"font-weight: 400\">O avan\u00e7o dessa importante pesquisa n\u00e3o seria poss\u00edvel sem a colabora\u00e7\u00e3o pr\u00f3xima que promovemos na comunidade de neuroci\u00eancia. Hoje, a Meta est\u00e1 anunciando uma doa\u00e7\u00e3o de US$ 2,2 milh\u00f5es para a <\/span><a href=\"https:\/\/www.fo-rothschild.fr\/\"><span style=\"font-weight: 400\">Rothschild Hospital Foundation<\/span><\/a><span style=\"font-weight: 400\"> em apoio a esse trabalho que segue em estreita colabora\u00e7\u00e3o com algumas das principais institui\u00e7\u00f5es de pesquisa na Europa, incluindo <\/span><a href=\"https:\/\/joliot.cea.fr\/drf\/joliot\/en\/research\/neurospin\"><span style=\"font-weight: 400\">NeuroSpin (CEA)<\/span><\/a><span style=\"font-weight: 400\">, <\/span><a href=\"https:\/\/www.inria.fr\/en\"><span style=\"font-weight: 400\">INRIA<\/span><\/a>, <a href=\"https:\/\/www.ens.psl.eu\/\"><span style=\"font-weight: 400\">ENS PSL<\/span><\/a> e <a href=\"https:\/\/www.cnrs.fr\/\">CNRS<\/a><span style=\"font-weight: 400\">. Essas parcerias continuar\u00e3o sendo importantes para n\u00f3s enquanto trabalhamos juntos para explorar como essas descobertas podem fazer a diferen\u00e7a no mundo real e, finalmente, melhorar a vida das pessoas.<\/span><\/p>\n<p><b>Usando IA para decodificar a linguagem de grava\u00e7\u00f5es n\u00e3o invasivas do c\u00e9rebro<\/b><\/p>\n<p><span style=\"font-weight: 400\">Todos os anos, <\/span><a href=\"https:\/\/thejns.org\/view\/journals\/j-neurosurg\/130\/4\/article-p1080.xml\"><span style=\"font-weight: 400\">milh\u00f5es de pessoas<\/span><\/a><span style=\"font-weight: 400\"> sofrem de <\/span><a href=\"https:\/\/my.clevelandclinic.org\/health\/symptoms\/17839-brain-lesions\"><span style=\"font-weight: 400\">les\u00f5es cerebrais<\/span><\/a><span style=\"font-weight: 400\"> que podem impedi-las de se comunicar. As abordagens atuais mostram que a comunica\u00e7\u00e3o pode ser restaurada com uma <\/span><a href=\"https:\/\/worldpulse.radensa.ru\/wp-content\/uploads\/2024\/09\/patrick-krueger_et_al-2024-nature_reviews_bioengineering.pdf\"><span style=\"font-weight: 400\">neuropr\u00f3tese<\/span><\/a><span style=\"font-weight: 400\"> alimentando sinais de comando para um decodificador de IA. No entanto, t\u00e9cnicas invasivas de grava\u00e7\u00e3o cerebral, como <a href=\"https:\/\/pubmed.ncbi.nlm.nih.gov\/31865060\/\">eletroencefalografia estereot\u00e1xica <\/a>e <a href=\"https:\/\/en.wikipedia.org\/wiki\/Electrocorticography\">eletrocorticografia<\/a>, exigem interven\u00e7\u00f5es neurocir\u00fargicas e s\u00e3o dif\u00edceis de escalar. At\u00e9 agora, o uso de abordagens n\u00e3o invasivas t\u00eam sido tipicamente limitado pela complexidade do ru\u00eddo dos sinais que elas registram.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para nosso <a href=\"https:\/\/ai.meta.com\/research\/publications\/brain-to-text-decoding-a-non-invasive-approach-via-typing\/\">primeiro estudo<\/a>, usamos <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/Magnetoencephalography\"><span style=\"font-weight: 400\">MEG<\/span><\/a><span style=\"font-weight: 400\"> e <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/Electroencephalography\"><span style=\"font-weight: 400\">EEG<\/span><\/a><span style=\"font-weight: 400\"> \u2013\u2013 dispositivos n\u00e3o invasivos que medem os campos magn\u00e9ticos e el\u00e9tricos provocados pela atividade neuronal \u2013\u2013 para registrar, no <\/span><a href=\"https:\/\/www.bcbl.eu\/en\"><span style=\"font-weight: 400\">BCBL<\/span><\/a><span style=\"font-weight: 400\">, 35 volunt\u00e1rios saud\u00e1veis \u200b\u200benquanto eles digitam frases. Em seguida, treinamos um novo modelo de IA para reconstruir a frase apenas a partir dos sinais cerebrais. Em novas frases, nosso modelo de IA decodifica at\u00e9 80% dos caracteres digitados pelos participantes registrados com MEG, pelo menos duas vezes melhor do que o que pode ser obtido com o sistema cl\u00e1ssico de EEG.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-26149-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Brain-AI-Final.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Brain-AI-Final.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/Meta-Brain-AI-Final.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Esta pesquisa pode criar um novo caminho para interfaces c\u00e9rebro-computador n\u00e3o invasivas para ajudar a restaurar a comunica\u00e7\u00e3o daqueles que perderam a capacidade de falar, mas v\u00e1rios desafios importantes permanecem antes que esta abordagem possa ser aplicada em ambientes cl\u00ednicos. O primeiro \u00e9 relacionado ao desempenho: o desempenho de decodifica\u00e7\u00e3o ainda \u00e9 imperfeito. O segundo \u00e9 mais pr\u00e1tico &#8211; o MEG requer que os sujeitos estejam em uma sala blindada magneticamente e permane\u00e7am im\u00f3veis. Finalmente, embora esta pesquisa tenha sido feita em volunt\u00e1rios saud\u00e1veis, trabalhos futuros precisar\u00e3o ser feitos para explorar como ela pode beneficiar pessoas que sofrem de les\u00f5es cerebrais.<\/span><\/p>\n<h2><b>Usando IA para entender como o c\u00e9rebro forma a linguagem<\/b><\/h2>\n<p><span style=\"font-weight: 400\">Tamb\u00e9m estamos compartilhando um avan\u00e7o para entender os <a href=\"https:\/\/ai.meta.com\/research\/publications\/from-thought-to-action-how-a-hierarchy-of-neural-dynamics-supports-language-production\/\">mecanismos neurais<\/a> que coordenam a produ\u00e7\u00e3o da linguagem no c\u00e9rebro humano. Estudar o c\u00e9rebro durante a fala sempre se mostrou extremamente desafiador para a neuroci\u00eancia, em parte por causa de um problema t\u00e9cnico simples: mover a boca e a l\u00edngua corrompe fortemente os sinais de neuroimagem.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-26149-2\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/ola.mp4?_=2\" \/><a href=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/ola.mp4\">https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/ola.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Para explorar como o c\u00e9rebro transforma pensamentos em sequ\u00eancias complexas de a\u00e7\u00f5es motoras, usamos IA para ajudar a interpretar os sinais MEG enquanto os participantes digitavam. Ao tirar 1.000 instant\u00e2neos do c\u00e9rebro a cada segundo, podemos identificar o momento preciso em que os pensamentos s\u00e3o transformados em palavras, s\u00edlabas e at\u00e9 mesmo letras individuais. Nosso estudo mostra que o c\u00e9rebro gera uma sequ\u00eancia de representa\u00e7\u00f5es que come\u00e7am no n\u00edvel mais abstrato de representa\u00e7\u00f5es \u2014 o significado de uma frase \u2014 e as transformam progressivamente em uma mir\u00edade de a\u00e7\u00f5es, como o movimento real dos dedos no teclado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00c9 importante ressaltar que o estudo tamb\u00e9m revela como o c\u00e9rebro representa de forma coerente e simult\u00e2nea palavras e a\u00e7\u00f5es sucessivas. Nossos resultados mostram que o c\u00e9rebro usa um &#8220;c\u00f3digo neural din\u00e2mico&#8221; \u2013 um mecanismo neural especial que encadeia representa\u00e7\u00f5es sucessivas, mantendo cada uma delas por longos per\u00edodos de tempo.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-26153\" src=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?resize=960%2C781\" alt=\"\" width=\"960\" height=\"781\" srcset=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=1920 1920w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=492 492w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=300 300w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=768 768w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=1024 1024w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=1536 1536w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=1328 1328w, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475996233_592496190218099_4845081339485757305_n.jpg?w=738 738w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Decifrar o c\u00f3digo neural da linguagem continua sendo um dos <\/span><a href=\"https:\/\/ai.meta.com\/blog\/studying-the-brain-to-build-ai-that-processes-language-as-people-do\/\"><span style=\"font-weight: 400\">maiores desafios da IA \u200b\u200be da neuroci\u00eancia<\/span><\/a><span style=\"font-weight: 400\">. A capacidade de linguagem, que \u00e9 espec\u00edfica dos humanos, dotou nossa esp\u00e9cie com uma habilidade de raciocinar, aprender e acumular conhecimento como nenhum outro animal no planeta. Entender sua arquitetura neural e seus princ\u00edpios computacionais \u00e9, portanto, um caminho importante para o desenvolvimento da <\/span><a href=\"https:\/\/ai.meta.com\/blog\/yann-lecun-advances-in-ai-research\/\"><span style=\"font-weight: 400\">AMI<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><b>Possibilitando avan\u00e7os na sa\u00fade com enfoque de IA aberta<\/b><\/h2>\n<p><span style=\"font-weight: 400\">Na Meta, estamos em uma posi\u00e7\u00e3o \u00fanica para ajudar a resolver alguns dos maiores desafios do mundo usando IA. Nosso compromisso com o enfoque aberto para IA permitiu que a comunidade de IA se baseasse em nossos modelos para alcan\u00e7ar seus pr\u00f3prios avan\u00e7os. No m\u00eas passado, compartilhamos como a <\/span><a href=\"https:\/\/ai.meta.com\/blog\/brightheart-transforms-fetal-heart-screenings-dinov2\/\"><span style=\"font-weight: 400\">BrightHeart<\/span><\/a><span style=\"font-weight: 400\">, uma empresa sediada na Fran\u00e7a, est\u00e1 usando o DINOv2 como parte de seu software de IA para ajudar os m\u00e9dicos a identificar ou descartar sinais sugestivos de defeitos card\u00edacos cong\u00eanitos em ultrassons card\u00edacos fetais. No ano passado, a BrightHeart obteve a libera\u00e7\u00e3o <\/span><a href=\"https:\/\/www.businesswire.com\/news\/home\/20241115006631\/en\/BrightHeart-Secures-FDA-Clearance-for-First-AI-Software-Revolutionizing-Prenatal-Fetal-Heart-Ultrasound-Evaluations\"><span style=\"font-weight: 400\">510(k) do FDA<\/span><\/a><span style=\"font-weight: 400\"> para seu software, que atribui em parte \u00e0s contribui\u00e7\u00f5es com enfoque aberto da Meta. Tamb\u00e9m compartilhamos como a <\/span><a href=\"https:\/\/ai.meta.com\/blog\/virgo-dino-endoscopy-video\/\"><span style=\"font-weight: 400\">Virgo<\/span><\/a><span style=\"font-weight: 400\">, uma empresa sediada nos Estados Unidos, est\u00e1 usando o <a href=\"https:\/\/ai.meta.com\/blog\/dino-v2-computer-vision-self-supervised-learning\/\">DINOv2<\/a> para analisar v\u00eddeos de endoscopia, alcan\u00e7ando desempenho de \u00faltima gera\u00e7\u00e3o em uma ampla gama de benchmarks de IA para o setor, como classifica\u00e7\u00e3o de marcos anat\u00f4micos, pontua\u00e7\u00e3o de gravidade da doen\u00e7a para colite ulcerativa e segmenta\u00e7\u00e3o de p\u00f3lipos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ao olharmos para os pr\u00f3ximos dez anos, \u00e9 animador pensar em como os avan\u00e7os que compartilhamos hoje podem beneficiar o bem maior. Estamos ansiosos para continuar as conversas importantes que estamos tendo com a comunidade \u00e0 medida que avan\u00e7amos \u2014 juntos \u2014 para enfrentar alguns dos maiores desafios da sociedade.<\/span><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/brain-to-text-decoding-a-non-invasive-approach-via-typing\/\"><strong>Leia o artigo: Do C\u00e9rebro ao Texto<\/strong><\/a><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/from-thought-to-action-how-a-hierarchy-of-neural-dynamics-supports-language-production\/\"><strong>Leia o artigo: Do Pensamento \u00e0 A\u00e7\u00e3o<\/strong><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, em colabora\u00e7\u00e3o com o Basque Center on Cognition, Brain and Language, um importante centro de pesquisa interdisciplinar de San Sebastian, na Espanha, estamos animados em compartilhar duas descobertas que mostram como a IA pode ajudar a avan\u00e7ar nossa compreens\u00e3o da intelig\u00eancia humana, nos levando mais perto da AMI. Com base em nosso trabalho anterior para decodificar a percep\u00e7\u00e3o de imagens e fala da atividade cerebral, estamos compartilhando pesquisas que decodificam com sucesso a produ\u00e7\u00e3o de frases a partir de grava\u00e7\u00f5es cerebrais n\u00e3o invasivas, decodificando com precis\u00e3o at\u00e9 80% dos caracteres e, portanto, frequentemente reconstruindo frases completas apenas a partir de sinais cerebrais. Em um segundo estudo, estamos detalhando como a IA tamb\u00e9m pode ajudar a entender esses sinais cerebrais e esclarecendo como o c\u00e9rebro transforma efetivamente os pensamentos em uma sequ\u00eancia de palavras. O avan\u00e7o dessa importante pesquisa n\u00e3o seria poss\u00edvel sem a colabora\u00e7\u00e3o pr\u00f3xima que promovemos na comunidade de neuroci\u00eancia. Hoje, a Meta est\u00e1 anunciando uma doa\u00e7\u00e3o de US$ 2,2 milh\u00f5es para a Rothschild Hospital Foundation em apoio a esse trabalho que segue em estreita colabora\u00e7\u00e3o com algumas das principais institui\u00e7\u00f5es de pesquisa na Europa, incluindo NeuroSpin (CEA), INRIA, ENS PSL e CNRS. Essas parcerias continuar\u00e3o sendo importantes para n\u00f3s enquanto trabalhamos juntos para explorar como essas descobertas podem fazer a diferen\u00e7a no mundo real e, finalmente, melhorar a vida das pessoas. Usando IA para decodificar a linguagem de grava\u00e7\u00f5es n\u00e3o invasivas do c\u00e9rebro Todos os anos, milh\u00f5es de pessoas sofrem de les\u00f5es cerebrais que podem impedi-las de se comunicar. As abordagens atuais mostram que a comunica\u00e7\u00e3o pode ser restaurada com uma neuropr\u00f3tese alimentando sinais de comando para um decodificador de IA. No entanto, t\u00e9cnicas invasivas de grava\u00e7\u00e3o cerebral, como eletroencefalografia estereot\u00e1xica e eletrocorticografia, exigem interven\u00e7\u00f5es neurocir\u00fargicas e s\u00e3o dif\u00edceis de escalar. At\u00e9 agora, o uso de abordagens n\u00e3o invasivas t\u00eam sido tipicamente limitado pela complexidade do ru\u00eddo dos sinais que elas registram. Para nosso primeiro estudo, usamos MEG e EEG \u2013\u2013 dispositivos n\u00e3o invasivos que medem os campos magn\u00e9ticos e el\u00e9tricos provocados pela atividade neuronal \u2013\u2013 para registrar, no BCBL, 35 volunt\u00e1rios saud\u00e1veis \u200b\u200benquanto eles digitam frases. Em seguida, treinamos um novo modelo de IA para reconstruir a frase apenas a partir dos sinais cerebrais. Em novas frases, nosso modelo de IA decodifica at\u00e9 80% dos caracteres digitados pelos participantes registrados com MEG, pelo menos duas vezes melhor do que o que pode ser obtido com o sistema cl\u00e1ssico de EEG. Esta pesquisa pode criar um novo caminho para interfaces c\u00e9rebro-computador n\u00e3o invasivas para ajudar a restaurar a comunica\u00e7\u00e3o daqueles que perderam a capacidade de falar, mas v\u00e1rios desafios importantes permanecem antes que esta abordagem possa ser aplicada em ambientes cl\u00ednicos. O primeiro \u00e9 relacionado ao desempenho: o desempenho de decodifica\u00e7\u00e3o ainda \u00e9 imperfeito. O segundo \u00e9 mais pr\u00e1tico &#8211; o MEG requer que os sujeitos estejam em uma sala blindada magneticamente e permane\u00e7am im\u00f3veis. Finalmente, embora esta pesquisa tenha sido feita em volunt\u00e1rios saud\u00e1veis, trabalhos futuros precisar\u00e3o ser feitos para explorar como ela pode beneficiar pessoas que sofrem de les\u00f5es cerebrais. Usando IA para entender como o c\u00e9rebro forma a linguagem Tamb\u00e9m estamos compartilhando um avan\u00e7o para entender os mecanismos neurais que coordenam a produ\u00e7\u00e3o da linguagem no c\u00e9rebro humano. Estudar o c\u00e9rebro durante a fala sempre se mostrou extremamente desafiador para a neuroci\u00eancia, em parte por causa de um problema t\u00e9cnico simples: mover a boca e a l\u00edngua corrompe fortemente os sinais de neuroimagem. Para explorar como o c\u00e9rebro transforma pensamentos em sequ\u00eancias complexas de a\u00e7\u00f5es motoras, usamos IA para ajudar a interpretar os sinais MEG enquanto os participantes digitavam. Ao tirar 1.000 instant\u00e2neos do c\u00e9rebro a cada segundo, podemos identificar o momento preciso em que os pensamentos s\u00e3o transformados em palavras, s\u00edlabas e at\u00e9 mesmo letras individuais. Nosso estudo mostra que o c\u00e9rebro gera uma sequ\u00eancia de representa\u00e7\u00f5es que come\u00e7am no n\u00edvel mais abstrato de representa\u00e7\u00f5es \u2014 o significado de uma frase \u2014 e as transformam progressivamente em uma mir\u00edade de a\u00e7\u00f5es, como o movimento real dos dedos no teclado. \u00c9 importante ressaltar que o estudo tamb\u00e9m revela como o c\u00e9rebro representa de forma coerente e simult\u00e2nea palavras e a\u00e7\u00f5es sucessivas. Nossos resultados mostram que o c\u00e9rebro usa um &#8220;c\u00f3digo neural din\u00e2mico&#8221; \u2013 um mecanismo neural especial que encadeia representa\u00e7\u00f5es sucessivas, mantendo cada uma delas por longos per\u00edodos de tempo. Decifrar o c\u00f3digo neural da linguagem continua sendo um dos maiores desafios da IA \u200b\u200be da neuroci\u00eancia. A capacidade de linguagem, que \u00e9 espec\u00edfica dos humanos, dotou nossa esp\u00e9cie com uma habilidade de raciocinar, aprender e acumular conhecimento como nenhum outro animal no planeta. Entender sua arquitetura neural e seus princ\u00edpios computacionais \u00e9, portanto, um caminho importante para o desenvolvimento da AMI. Possibilitando avan\u00e7os na sa\u00fade com enfoque de IA aberta Na Meta, estamos em uma posi\u00e7\u00e3o \u00fanica para ajudar a resolver alguns dos maiores desafios do mundo usando IA. Nosso compromisso com o enfoque aberto para IA permitiu que a comunidade de IA se baseasse em nossos modelos para alcan\u00e7ar seus pr\u00f3prios avan\u00e7os. No m\u00eas passado, compartilhamos como a BrightHeart, uma empresa sediada na Fran\u00e7a, est\u00e1 usando o DINOv2 como parte de seu software de IA para ajudar os m\u00e9dicos a identificar ou descartar sinais sugestivos de defeitos card\u00edacos cong\u00eanitos em ultrassons card\u00edacos fetais. No ano passado, a BrightHeart obteve a libera\u00e7\u00e3o 510(k) do FDA para seu software, que atribui em parte \u00e0s contribui\u00e7\u00f5es com enfoque aberto da Meta. Tamb\u00e9m compartilhamos como a Virgo, uma empresa sediada nos Estados Unidos, est\u00e1 usando o DINOv2 para analisar v\u00eddeos de endoscopia, alcan\u00e7ando desempenho de \u00faltima gera\u00e7\u00e3o em uma ampla gama de benchmarks de IA para o setor, como classifica\u00e7\u00e3o de marcos anat\u00f4micos, pontua\u00e7\u00e3o de gravidade da doen\u00e7a para colite ulcerativa e segmenta\u00e7\u00e3o de p\u00f3lipos. Ao olharmos para os pr\u00f3ximos dez anos, \u00e9 animador pensar em como os avan\u00e7os que compartilhamos hoje podem beneficiar o bem maior. Estamos ansiosos para continuar as conversas importantes que estamos tendo com a comunidade \u00e0 medida que avan\u00e7amos \u2014 juntos \u2014 para enfrentar alguns dos maiores desafios da sociedade. Leia o artigo: Do C\u00e9rebro ao Texto Leia o artigo: Do Pensamento \u00e0 A\u00e7\u00e3o","protected":false},"author":164097234,"featured_media":26150,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[396542114,1,396542170],"tags":[],"class_list":["post-26149","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-recent-news","category-tecnologia-e-inovacao"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta\" \/>\n<meta property=\"og:description\" content=\"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, em colabora\u00e7\u00e3o com o Basque Center on Cognition, Brain and Language, um importante centro de pesquisa interdisciplinar de San Sebastian, na Espanha, estamos animados em compartilhar duas descobertas que mostram como a IA pode ajudar a avan\u00e7ar nossa compreens\u00e3o da intelig\u00eancia humana, nos levando mais perto da AMI. Com base em nosso trabalho anterior para decodificar a percep\u00e7\u00e3o de imagens e fala da atividade cerebral, estamos compartilhando pesquisas que decodificam com sucesso a produ\u00e7\u00e3o de frases a partir de grava\u00e7\u00f5es cerebrais n\u00e3o invasivas, decodificando com precis\u00e3o at\u00e9 80% dos caracteres e, portanto, frequentemente reconstruindo frases completas apenas a partir de sinais cerebrais. Em um segundo estudo, estamos detalhando como a IA tamb\u00e9m pode ajudar a entender esses sinais cerebrais e esclarecendo como o c\u00e9rebro transforma efetivamente os pensamentos em uma sequ\u00eancia de palavras. O avan\u00e7o dessa importante pesquisa n\u00e3o seria poss\u00edvel sem a colabora\u00e7\u00e3o pr\u00f3xima que promovemos na comunidade de neuroci\u00eancia. Hoje, a Meta est\u00e1 anunciando uma doa\u00e7\u00e3o de US$ 2,2 milh\u00f5es para a Rothschild Hospital Foundation em apoio a esse trabalho que segue em estreita colabora\u00e7\u00e3o com algumas das principais institui\u00e7\u00f5es de pesquisa na Europa, incluindo NeuroSpin (CEA), INRIA, ENS PSL e CNRS. Essas parcerias continuar\u00e3o sendo importantes para n\u00f3s enquanto trabalhamos juntos para explorar como essas descobertas podem fazer a diferen\u00e7a no mundo real e, finalmente, melhorar a vida das pessoas. Usando IA para decodificar a linguagem de grava\u00e7\u00f5es n\u00e3o invasivas do c\u00e9rebro Todos os anos, milh\u00f5es de pessoas sofrem de les\u00f5es cerebrais que podem impedi-las de se comunicar. As abordagens atuais mostram que a comunica\u00e7\u00e3o pode ser restaurada com uma neuropr\u00f3tese alimentando sinais de comando para um decodificador de IA. No entanto, t\u00e9cnicas invasivas de grava\u00e7\u00e3o cerebral, como eletroencefalografia estereot\u00e1xica e eletrocorticografia, exigem interven\u00e7\u00f5es neurocir\u00fargicas e s\u00e3o dif\u00edceis de escalar. At\u00e9 agora, o uso de abordagens n\u00e3o invasivas t\u00eam sido tipicamente limitado pela complexidade do ru\u00eddo dos sinais que elas registram. Para nosso primeiro estudo, usamos MEG e EEG \u2013\u2013 dispositivos n\u00e3o invasivos que medem os campos magn\u00e9ticos e el\u00e9tricos provocados pela atividade neuronal \u2013\u2013 para registrar, no BCBL, 35 volunt\u00e1rios saud\u00e1veis \u200b\u200benquanto eles digitam frases. Em seguida, treinamos um novo modelo de IA para reconstruir a frase apenas a partir dos sinais cerebrais. Em novas frases, nosso modelo de IA decodifica at\u00e9 80% dos caracteres digitados pelos participantes registrados com MEG, pelo menos duas vezes melhor do que o que pode ser obtido com o sistema cl\u00e1ssico de EEG. Esta pesquisa pode criar um novo caminho para interfaces c\u00e9rebro-computador n\u00e3o invasivas para ajudar a restaurar a comunica\u00e7\u00e3o daqueles que perderam a capacidade de falar, mas v\u00e1rios desafios importantes permanecem antes que esta abordagem possa ser aplicada em ambientes cl\u00ednicos. O primeiro \u00e9 relacionado ao desempenho: o desempenho de decodifica\u00e7\u00e3o ainda \u00e9 imperfeito. O segundo \u00e9 mais pr\u00e1tico &#8211; o MEG requer que os sujeitos estejam em uma sala blindada magneticamente e permane\u00e7am im\u00f3veis. Finalmente, embora esta pesquisa tenha sido feita em volunt\u00e1rios saud\u00e1veis, trabalhos futuros precisar\u00e3o ser feitos para explorar como ela pode beneficiar pessoas que sofrem de les\u00f5es cerebrais. Usando IA para entender como o c\u00e9rebro forma a linguagem Tamb\u00e9m estamos compartilhando um avan\u00e7o para entender os mecanismos neurais que coordenam a produ\u00e7\u00e3o da linguagem no c\u00e9rebro humano. Estudar o c\u00e9rebro durante a fala sempre se mostrou extremamente desafiador para a neuroci\u00eancia, em parte por causa de um problema t\u00e9cnico simples: mover a boca e a l\u00edngua corrompe fortemente os sinais de neuroimagem. Para explorar como o c\u00e9rebro transforma pensamentos em sequ\u00eancias complexas de a\u00e7\u00f5es motoras, usamos IA para ajudar a interpretar os sinais MEG enquanto os participantes digitavam. Ao tirar 1.000 instant\u00e2neos do c\u00e9rebro a cada segundo, podemos identificar o momento preciso em que os pensamentos s\u00e3o transformados em palavras, s\u00edlabas e at\u00e9 mesmo letras individuais. Nosso estudo mostra que o c\u00e9rebro gera uma sequ\u00eancia de representa\u00e7\u00f5es que come\u00e7am no n\u00edvel mais abstrato de representa\u00e7\u00f5es \u2014 o significado de uma frase \u2014 e as transformam progressivamente em uma mir\u00edade de a\u00e7\u00f5es, como o movimento real dos dedos no teclado. \u00c9 importante ressaltar que o estudo tamb\u00e9m revela como o c\u00e9rebro representa de forma coerente e simult\u00e2nea palavras e a\u00e7\u00f5es sucessivas. Nossos resultados mostram que o c\u00e9rebro usa um &#8220;c\u00f3digo neural din\u00e2mico&#8221; \u2013 um mecanismo neural especial que encadeia representa\u00e7\u00f5es sucessivas, mantendo cada uma delas por longos per\u00edodos de tempo. Decifrar o c\u00f3digo neural da linguagem continua sendo um dos maiores desafios da IA \u200b\u200be da neuroci\u00eancia. A capacidade de linguagem, que \u00e9 espec\u00edfica dos humanos, dotou nossa esp\u00e9cie com uma habilidade de raciocinar, aprender e acumular conhecimento como nenhum outro animal no planeta. Entender sua arquitetura neural e seus princ\u00edpios computacionais \u00e9, portanto, um caminho importante para o desenvolvimento da AMI. Possibilitando avan\u00e7os na sa\u00fade com enfoque de IA aberta Na Meta, estamos em uma posi\u00e7\u00e3o \u00fanica para ajudar a resolver alguns dos maiores desafios do mundo usando IA. Nosso compromisso com o enfoque aberto para IA permitiu que a comunidade de IA se baseasse em nossos modelos para alcan\u00e7ar seus pr\u00f3prios avan\u00e7os. No m\u00eas passado, compartilhamos como a BrightHeart, uma empresa sediada na Fran\u00e7a, est\u00e1 usando o DINOv2 como parte de seu software de IA para ajudar os m\u00e9dicos a identificar ou descartar sinais sugestivos de defeitos card\u00edacos cong\u00eanitos em ultrassons card\u00edacos fetais. No ano passado, a BrightHeart obteve a libera\u00e7\u00e3o 510(k) do FDA para seu software, que atribui em parte \u00e0s contribui\u00e7\u00f5es com enfoque aberto da Meta. Tamb\u00e9m compartilhamos como a Virgo, uma empresa sediada nos Estados Unidos, est\u00e1 usando o DINOv2 para analisar v\u00eddeos de endoscopia, alcan\u00e7ando desempenho de \u00faltima gera\u00e7\u00e3o em uma ampla gama de benchmarks de IA para o setor, como classifica\u00e7\u00e3o de marcos anat\u00f4micos, pontua\u00e7\u00e3o de gravidade da doen\u00e7a para colite ulcerativa e segmenta\u00e7\u00e3o de p\u00f3lipos. Ao olharmos para os pr\u00f3ximos dez anos, \u00e9 animador pensar em como os avan\u00e7os que compartilhamos hoje podem beneficiar o bem maior. Estamos ansiosos para continuar as conversas importantes que estamos tendo com a comunidade \u00e0 medida que avan\u00e7amos \u2014 juntos \u2014 para enfrentar alguns dos maiores desafios da sociedade. Leia o artigo: Do C\u00e9rebro ao Texto Leia o artigo: Do Pensamento \u00e0 A\u00e7\u00e3o\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\" \/>\n<meta property=\"og:site_name\" content=\"Sobre a Meta\" \/>\n<meta property=\"article:published_time\" content=\"2025-02-07T13:37:03+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-02-07T13:38:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"vivilusor\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\"},\"author\":\"Facebook company\",\"headline\":\"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana\",\"datePublished\":\"2025-02-07T13:37:03+00:00\",\"dateModified\":\"2025-02-07T13:38:18+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\"},\"wordCount\":1260,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080\",\"articleSection\":[\"Meta\",\"Recent News\",\"Tecnologia e Inova\u00e7\u00e3o\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\",\"url\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\",\"name\":\"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080\",\"datePublished\":\"2025-02-07T13:37:03+00:00\",\"dateModified\":\"2025-02-07T13:38:18+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/\"]}],\"author\":\"Sobre a Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/br\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Sobre a Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/br\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","og_locale":"pt_BR","og_type":"article","og_title":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta","og_description":"Na \u00faltima d\u00e9cada, o laborat\u00f3rio Fundamental Artificial Intelligence Research da Meta, em Paris, tem estado na vanguarda do avan\u00e7o da pesquisa cient\u00edfica. Lideramos avan\u00e7os na medicina, ci\u00eancia clim\u00e1tica e conserva\u00e7\u00e3o, e mantivemos nosso compromisso com a ci\u00eancia aberta e reproduz\u00edvel. Ao olharmos para a pr\u00f3xima d\u00e9cada, nosso foco \u00e9 alcan\u00e7ar a intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI, na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, em colabora\u00e7\u00e3o com o Basque Center on Cognition, Brain and Language, um importante centro de pesquisa interdisciplinar de San Sebastian, na Espanha, estamos animados em compartilhar duas descobertas que mostram como a IA pode ajudar a avan\u00e7ar nossa compreens\u00e3o da intelig\u00eancia humana, nos levando mais perto da AMI. Com base em nosso trabalho anterior para decodificar a percep\u00e7\u00e3o de imagens e fala da atividade cerebral, estamos compartilhando pesquisas que decodificam com sucesso a produ\u00e7\u00e3o de frases a partir de grava\u00e7\u00f5es cerebrais n\u00e3o invasivas, decodificando com precis\u00e3o at\u00e9 80% dos caracteres e, portanto, frequentemente reconstruindo frases completas apenas a partir de sinais cerebrais. Em um segundo estudo, estamos detalhando como a IA tamb\u00e9m pode ajudar a entender esses sinais cerebrais e esclarecendo como o c\u00e9rebro transforma efetivamente os pensamentos em uma sequ\u00eancia de palavras. O avan\u00e7o dessa importante pesquisa n\u00e3o seria poss\u00edvel sem a colabora\u00e7\u00e3o pr\u00f3xima que promovemos na comunidade de neuroci\u00eancia. Hoje, a Meta est\u00e1 anunciando uma doa\u00e7\u00e3o de US$ 2,2 milh\u00f5es para a Rothschild Hospital Foundation em apoio a esse trabalho que segue em estreita colabora\u00e7\u00e3o com algumas das principais institui\u00e7\u00f5es de pesquisa na Europa, incluindo NeuroSpin (CEA), INRIA, ENS PSL e CNRS. Essas parcerias continuar\u00e3o sendo importantes para n\u00f3s enquanto trabalhamos juntos para explorar como essas descobertas podem fazer a diferen\u00e7a no mundo real e, finalmente, melhorar a vida das pessoas. Usando IA para decodificar a linguagem de grava\u00e7\u00f5es n\u00e3o invasivas do c\u00e9rebro Todos os anos, milh\u00f5es de pessoas sofrem de les\u00f5es cerebrais que podem impedi-las de se comunicar. As abordagens atuais mostram que a comunica\u00e7\u00e3o pode ser restaurada com uma neuropr\u00f3tese alimentando sinais de comando para um decodificador de IA. No entanto, t\u00e9cnicas invasivas de grava\u00e7\u00e3o cerebral, como eletroencefalografia estereot\u00e1xica e eletrocorticografia, exigem interven\u00e7\u00f5es neurocir\u00fargicas e s\u00e3o dif\u00edceis de escalar. At\u00e9 agora, o uso de abordagens n\u00e3o invasivas t\u00eam sido tipicamente limitado pela complexidade do ru\u00eddo dos sinais que elas registram. Para nosso primeiro estudo, usamos MEG e EEG \u2013\u2013 dispositivos n\u00e3o invasivos que medem os campos magn\u00e9ticos e el\u00e9tricos provocados pela atividade neuronal \u2013\u2013 para registrar, no BCBL, 35 volunt\u00e1rios saud\u00e1veis \u200b\u200benquanto eles digitam frases. Em seguida, treinamos um novo modelo de IA para reconstruir a frase apenas a partir dos sinais cerebrais. Em novas frases, nosso modelo de IA decodifica at\u00e9 80% dos caracteres digitados pelos participantes registrados com MEG, pelo menos duas vezes melhor do que o que pode ser obtido com o sistema cl\u00e1ssico de EEG. Esta pesquisa pode criar um novo caminho para interfaces c\u00e9rebro-computador n\u00e3o invasivas para ajudar a restaurar a comunica\u00e7\u00e3o daqueles que perderam a capacidade de falar, mas v\u00e1rios desafios importantes permanecem antes que esta abordagem possa ser aplicada em ambientes cl\u00ednicos. O primeiro \u00e9 relacionado ao desempenho: o desempenho de decodifica\u00e7\u00e3o ainda \u00e9 imperfeito. O segundo \u00e9 mais pr\u00e1tico &#8211; o MEG requer que os sujeitos estejam em uma sala blindada magneticamente e permane\u00e7am im\u00f3veis. Finalmente, embora esta pesquisa tenha sido feita em volunt\u00e1rios saud\u00e1veis, trabalhos futuros precisar\u00e3o ser feitos para explorar como ela pode beneficiar pessoas que sofrem de les\u00f5es cerebrais. Usando IA para entender como o c\u00e9rebro forma a linguagem Tamb\u00e9m estamos compartilhando um avan\u00e7o para entender os mecanismos neurais que coordenam a produ\u00e7\u00e3o da linguagem no c\u00e9rebro humano. Estudar o c\u00e9rebro durante a fala sempre se mostrou extremamente desafiador para a neuroci\u00eancia, em parte por causa de um problema t\u00e9cnico simples: mover a boca e a l\u00edngua corrompe fortemente os sinais de neuroimagem. Para explorar como o c\u00e9rebro transforma pensamentos em sequ\u00eancias complexas de a\u00e7\u00f5es motoras, usamos IA para ajudar a interpretar os sinais MEG enquanto os participantes digitavam. Ao tirar 1.000 instant\u00e2neos do c\u00e9rebro a cada segundo, podemos identificar o momento preciso em que os pensamentos s\u00e3o transformados em palavras, s\u00edlabas e at\u00e9 mesmo letras individuais. Nosso estudo mostra que o c\u00e9rebro gera uma sequ\u00eancia de representa\u00e7\u00f5es que come\u00e7am no n\u00edvel mais abstrato de representa\u00e7\u00f5es \u2014 o significado de uma frase \u2014 e as transformam progressivamente em uma mir\u00edade de a\u00e7\u00f5es, como o movimento real dos dedos no teclado. \u00c9 importante ressaltar que o estudo tamb\u00e9m revela como o c\u00e9rebro representa de forma coerente e simult\u00e2nea palavras e a\u00e7\u00f5es sucessivas. Nossos resultados mostram que o c\u00e9rebro usa um &#8220;c\u00f3digo neural din\u00e2mico&#8221; \u2013 um mecanismo neural especial que encadeia representa\u00e7\u00f5es sucessivas, mantendo cada uma delas por longos per\u00edodos de tempo. Decifrar o c\u00f3digo neural da linguagem continua sendo um dos maiores desafios da IA \u200b\u200be da neuroci\u00eancia. A capacidade de linguagem, que \u00e9 espec\u00edfica dos humanos, dotou nossa esp\u00e9cie com uma habilidade de raciocinar, aprender e acumular conhecimento como nenhum outro animal no planeta. Entender sua arquitetura neural e seus princ\u00edpios computacionais \u00e9, portanto, um caminho importante para o desenvolvimento da AMI. Possibilitando avan\u00e7os na sa\u00fade com enfoque de IA aberta Na Meta, estamos em uma posi\u00e7\u00e3o \u00fanica para ajudar a resolver alguns dos maiores desafios do mundo usando IA. Nosso compromisso com o enfoque aberto para IA permitiu que a comunidade de IA se baseasse em nossos modelos para alcan\u00e7ar seus pr\u00f3prios avan\u00e7os. No m\u00eas passado, compartilhamos como a BrightHeart, uma empresa sediada na Fran\u00e7a, est\u00e1 usando o DINOv2 como parte de seu software de IA para ajudar os m\u00e9dicos a identificar ou descartar sinais sugestivos de defeitos card\u00edacos cong\u00eanitos em ultrassons card\u00edacos fetais. No ano passado, a BrightHeart obteve a libera\u00e7\u00e3o 510(k) do FDA para seu software, que atribui em parte \u00e0s contribui\u00e7\u00f5es com enfoque aberto da Meta. Tamb\u00e9m compartilhamos como a Virgo, uma empresa sediada nos Estados Unidos, est\u00e1 usando o DINOv2 para analisar v\u00eddeos de endoscopia, alcan\u00e7ando desempenho de \u00faltima gera\u00e7\u00e3o em uma ampla gama de benchmarks de IA para o setor, como classifica\u00e7\u00e3o de marcos anat\u00f4micos, pontua\u00e7\u00e3o de gravidade da doen\u00e7a para colite ulcerativa e segmenta\u00e7\u00e3o de p\u00f3lipos. Ao olharmos para os pr\u00f3ximos dez anos, \u00e9 animador pensar em como os avan\u00e7os que compartilhamos hoje podem beneficiar o bem maior. Estamos ansiosos para continuar as conversas importantes que estamos tendo com a comunidade \u00e0 medida que avan\u00e7amos \u2014 juntos \u2014 para enfrentar alguns dos maiores desafios da sociedade. Leia o artigo: Do C\u00e9rebro ao Texto Leia o artigo: Do Pensamento \u00e0 A\u00e7\u00e3o","og_url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","og_site_name":"Sobre a Meta","article_published_time":"2025-02-07T13:37:03+00:00","article_modified_time":"2025-02-07T13:38:18+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"vivilusor","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/"},"author":"Facebook company","headline":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana","datePublished":"2025-02-07T13:37:03+00:00","dateModified":"2025-02-07T13:38:18+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/"},"wordCount":1260,"publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080","articleSection":["Meta","Recent News","Tecnologia e Inova\u00e7\u00e3o"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/","name":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana | Sobre a Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080","datePublished":"2025-02-07T13:37:03+00:00","dateModified":"2025-02-07T13:38:18+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/"]}],"author":"Sobre a Meta"},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#primaryimage","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/br\/news\/2025\/02\/26149-usando-ia-para-decodificar-a-linguagem-do-cerebro-e-avancar-nossa-compreensao-da-comunicacao-humana\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/br\/"},{"@type":"ListItem","position":2,"name":"Usando IA para decodificar a linguagem do c\u00e9rebro e avan\u00e7ar nossa compreens\u00e3o da comunica\u00e7\u00e3o humana"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/br\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Sobre a Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/br\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/br\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/475953576_2885433131755414_7907212147273826314_n.jpg?fit=1920%2C1080","jetpack-related-posts":[{"id":27074,"url":"https:\/\/about.fb.com\/br\/news\/2026\/04\/apresentamos-o-muse-spark-o-primeiro-modelo-do-msl-desenvolvido-para-priorizar-as-pessoas\/","url_meta":{"origin":26149,"position":0},"title":"Apresentamos o Muse Spark: O Primeiro Modelo do MSL, Desenvolvido para Priorizar as Pessoas","author":"Meta","date":"08\/04\/2026","format":false,"excerpt":"Hoje anunciamos o Muse Spark, o primeiro de uma nova s\u00e9rie de grandes modelos de linguagem criados pelo Meta Superintelligence Labs. Estamos a caminho da superintelig\u00eancia pessoal: um assistente capaz de ajudar qualquer pessoa, em qualquer lugar, com o que mais importa para ela. Um Novo Modelo: Muse Spark Nos\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/04\/Introducing-Muse-Spark_Header.gif?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26552,"url":"https:\/\/about.fb.com\/br\/news\/2025\/07\/superinteligencia-pessoal-para-todos\/","url_meta":{"origin":26149,"position":1},"title":"Superintelig\u00eancia pessoal para todos","author":"Meta","date":"30\/07\/2025","format":false,"excerpt":"Hoje, o fundador e CEO da Meta, Mark Zuckerberg, compartilhou sua vis\u00e3o de levar superintelig\u00eancia pessoal a todos. Acreditamos em colocar esse poder nas m\u00e3os das pessoas para direcion\u00e1-lo ao que elas valorizam em suas pr\u00f3prias vidas. Leia aqui a carta original na \u00edntegra e confira abaixo a tradu\u00e7\u00e3o para\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/07\/Logo-Meta-1.jpg?fit=633%2C356&resize=525%2C300 1.5x"},"classes":[]},{"id":26628,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/apresentando-o-meta-ray-ban-display-uma-categoria-revolucionaria-de-oculos-inteligentes\/","url_meta":{"origin":26149,"position":2},"title":"Apresentando o Meta Ray-Ban Display: uma categoria revolucion\u00e1ria de \u00f3culos inteligentes","author":"Meta","date":"17\/09\/2025","format":false,"excerpt":"Hoje, no Connect, Mark Zuckerberg apresentou a pr\u00f3xima evolu\u00e7\u00e3o\u00a0 dos \u00f3culos inteligentes: os novos Meta Ray-Ban Display e a Meta Neural Band. Os \u00f3culos Meta Ray-Ban Display foram criados para proporcionar uma nova maneira de checar atualiza\u00e7\u00f5es e se manter presente. Com um r\u00e1pido olhar para a tela integrada nas\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Ray-Band-Display-Meta-Neural-Band.png?fit=4096%2C2160&resize=1400%2C800 4x"},"classes":[]},{"id":26157,"url":"https:\/\/about.fb.com\/br\/news\/2025\/02\/avancando-na-inteligencia-de-maquina-por-meio-de-pesquisas-centradas-no-ser-humano\/","url_meta":{"origin":26149,"position":3},"title":"Avan\u00e7ando na intelig\u00eancia de m\u00e1quina por meio de pesquisas centradas no ser humano","author":"Meta","date":"07\/02\/2025","format":false,"excerpt":"A equipe do Fundamental AI Research (FAIR) da Meta est\u00e1 focada em alcan\u00e7ar intelig\u00eancia avan\u00e7ada de m\u00e1quina (AMI na sigla em ingl\u00eas) e us\u00e1-la para impulsionar produtos e inova\u00e7\u00e3o para o benef\u00edcio de todos. Hoje, estamos animados em compartilhar algumas de nossas pesquisas e modelos mais recentes que apoiam nossa\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/02\/476277621_1657111108571585_1619174158963619715_n.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":27026,"url":"https:\/\/about.fb.com\/br\/news\/2026\/03\/reforcando-seu-suporte-e-sua-seguranca-nos-aplicativos-da-meta-com-ia\/","url_meta":{"origin":26149,"position":4},"title":"Refor\u00e7ando seu suporte e sua seguran\u00e7a nos aplicativos da Meta com IA","author":"Meta","date":"19\/03\/2026","format":false,"excerpt":"Hoje, estamos lan\u00e7ando novas ferramentas de IA para suporte e fiscaliza\u00e7\u00e3o de conte\u00fado em nossos aplicativos para que eles funcionem melhor para voc\u00ea. \u00c0 medida que a tecnologia avan\u00e7a, estamos aplicando IA de mais maneiras para que voc\u00ea tenha ajuda confi\u00e1vel e pr\u00e1tica quando precisar, e para que possamos identificar\u2026","rel":"","context":"In &quot;Recent News&quot;","block_context":{"text":"Recent News","link":"https:\/\/about.fb.com\/br\/news\/category\/recent-news\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2026\/03\/Boosting-Your-Support-and-Safety-on-Metas-Apps-With-AI_Header.jpg?fit=1920%2C1080&resize=1400%2C800 4x"},"classes":[]},{"id":26634,"url":"https:\/\/about.fb.com\/br\/news\/2025\/09\/meta-connect-2025-a-evolucao-dos-oculos-inteligentes-o-avanco-do-metaverso-e-muito-mais\/","url_meta":{"origin":26149,"position":5},"title":"Meta Connect 2025: A Evolu\u00e7\u00e3o dos \u00d3culos Inteligentes, o Avan\u00e7o do Metaverso e Muito Mais","author":"Meta","date":"17\/09\/2025","format":false,"excerpt":"Mark Zuckerberg e Diplo sa\u00edram correndo do palco do Connect \u2013 literalmente \u2013 para dar in\u00edcio \u00e0 after party, e n\u00f3s estamos aqui para recapitular todas as novidades que voc\u00ea pode ter perdido. Mas antes, vamos falar sobre outra dupla din\u00e2mica que est\u00e1 conquistando o mundo: \u00f3culos e intelig\u00eancia artificial.\u2026","rel":"","context":"In &quot;Meta&quot;","block_context":{"text":"Meta","link":"https:\/\/about.fb.com\/br\/news\/category\/temas-home\/meta\/"},"img":{"alt_text":"","src":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=350%2C200 1x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=525%2C300 1.5x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=700%2C400 2x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1050%2C600 3x, https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2025\/09\/Meta-Connect-2025-Dark-background-1x1-1.png?fit=4500%2C4500&resize=1400%2C800 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26149","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/users\/164097234"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/comments?post=26149"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26149\/revisions"}],"predecessor-version":[{"id":26155,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/posts\/26149\/revisions\/26155"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media\/26150"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/media?parent=26149"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/categories?post=26149"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/br\/wp-json\/wp\/v2\/tags?post=26149"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}