{"id":22614,"date":"2024-02-20T16:27:04","date_gmt":"2024-02-20T16:27:04","guid":{"rendered":"https:\/\/about.fb.com\/es\/?p=22614"},"modified":"2024-02-20T18:52:03","modified_gmt":"2024-02-20T18:52:03","slug":"v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami","status":"publish","type":"post","link":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/","title":{"rendered":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI)"},"content":{"rendered":"<p><strong>Puntos de inter\u00e9s:<\/strong><\/p>\n<ul>\n<li>Hoy, anunciamos el modelo <em>Video Joint Embedding Predictive Architecture<\/em> (V-JEPA), un paso fundamental en el <a href=\"https:\/\/openreview.net\/pdf?id=BZ5a1r-kVsf\">avance de machine intelligence<\/a> con una comprensi\u00f3n m\u00e1s fundamentada del mundo.<\/li>\n<li>Este ejemplo inicial de modelo del mundo f\u00edsico destaca en la detecci\u00f3n y comprensi\u00f3n de interacciones muy detalladas entre objetos.<\/li>\n<li>Manteniendo nuestra visi\u00f3n en favor de la ciencia abierta responsable, publicamos este modelo bajo una licencia Creative Commons no comercial para que los investigadores puedan seguir explor\u00e1ndolo.<\/li>\n<\/ul>\n<p>Como humanos, gran parte de lo que aprendemos sobre el mundo que nos rodea, sobre todo en las primeras etapas de la vida, lo obtenemos mediante la observaci\u00f3n. Por ejemplo, la tercera ley del movimiento de Newton: Incluso un beb\u00e9 (o un gato) puede intuir, tras golpear varios objetos de una mesa y observar los resultados, que lo que sube debe bajar. No necesita horas de instrucci\u00f3n ni leer miles de libros para llegar a ese resultado. Tu modelo interno del mundo -una comprensi\u00f3n contextual basada en un modelo mental del mundo- predice esas consecuencias por ti, y es muy eficaz.<\/p>\n<p>\u201cV-JEPA es un paso hacia una comprensi\u00f3n m\u00e1s fundamentada del mundo para que las m\u00e1quinas puedan lograr un razonamiento y una planificaci\u00f3n m\u00e1s generalizados\u201d, afirma el vicepresidente y director cient\u00edfico de IA en Meta, Yann LeCun, que propuso las <em>Joint Embedding Predictive Architectures<\/em> (JEPA) originales en 2022. \u201cNuestro objetivo es construir un <em>machine intelligence<\/em> avanzado que pueda aprender de forma m\u00e1s similar a como lo hacen los humanos, formando modelos internos del mundo que les rodea para aprender, adaptarse y elaborar planes de manera eficiente a la hora de completar tareas complejas.\u201d<\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-22614-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/02\/V-JEPA_Video_Captions_v06.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/02\/V-JEPA_Video_Captions_v06.mp4\">https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/02\/V-JEPA_Video_Captions_v06.mp4<\/a><\/video><\/div>\n<p>V-JEPA es un modelo no generativo que aprende prediciendo partes perdidas o enmascaradas de un v\u00eddeo en un espacio de representaci\u00f3n abstracto. Esto es similar a c\u00f3mo nuestra <a href=\"https:\/\/ai.meta.com\/blog\/yann-lecun-ai-model-i-jepa\/\">Image Joint Embedding Predictive Architecture (I-JEPA)<\/a> compara representaciones abstractas de im\u00e1genes (en lugar de comparar los p\u00edxeles en s\u00ed). A diferencia de los enfoques generativos que intentan rellenar todos los p\u00edxeles que faltan, V-JEPA tiene la flexibilidad de descartar informaci\u00f3n impredecible, lo que se traduce en una mejora de la eficacia de la formaci\u00f3n y el muestreo por un factor de entre 1,5x y 6x.<\/p>\n<p>Dado que adopta un enfoque de aprendizaje autosupervisado, V-JEPA se preentrena completamente utilizando datos sin etiquetar. Las etiquetas s\u00f3lo se utilizan para adaptar el modelo a una tarea concreta despu\u00e9s del preentrenamiento. Este tipo de arquitectura resulta m\u00e1s eficaz que los modelos anteriores, tanto en lo que se refiere al n\u00famero de ejemplos etiquetados necesarios como a la cantidad total de esfuerzo dedicado al aprendizaje incluso de los datos no etiquetados. Con V-JEPA, hemos observado un aumento de la eficiencia en ambos frentes.<\/p>\n<p>Con V-JEPA, enmascaramos una gran parte del v\u00eddeo para que al modelo s\u00f3lo se le muestre una peque\u00f1a parte del contexto. A continuaci\u00f3n, pedimos al predictor que rellene los espacios en blanco de lo que falta, no en t\u00e9rminos de p\u00edxeles reales, sino como una descripci\u00f3n m\u00e1s abstracta en este espacio de representaci\u00f3n.<\/p>\n<p><strong>Metodolog\u00eda de enmascaramiento<\/strong><\/p>\n<p>V-JEPA no se entren\u00f3 para comprender un tipo concreto de acci\u00f3n. En su lugar, utiliz\u00f3 un entrenamiento auto supervisado en diferentes v\u00eddeos y aprendi\u00f3 una serie de cosas sobre c\u00f3mo funciona el mundo. El equipo tambi\u00e9n tuvo muy en cuenta la estrategia de enmascaramiento: si no se bloquean grandes zonas del v\u00eddeo y se toman muestras aleatorias de fragmentos aqu\u00ed y all\u00e1, la tarea resulta demasiado f\u00e1cil y el modelo no aprende nada especialmente complicado sobre el mundo.<\/p>\n<p>Tambi\u00e9n es importante se\u00f1alar que, en la mayor\u00eda de los v\u00eddeos, las cosas evolucionan con cierta lentitud a lo largo del tiempo. Si se enmascara una parte del v\u00eddeo pero s\u00f3lo en un instante concreto en el tiempo y el modelo puede ver lo que vino inmediatamente antes y\/o inmediatamente despu\u00e9s, tambi\u00e9n se facilitan demasiado las cosas y es casi seguro que el modelo no aprender\u00e1 nada interesante. Por eso, el equipo utiliz\u00f3 un enfoque en el que enmascaraba partes del v\u00eddeo tanto en el espacio como en el tiempo, lo que obliga al modelo a aprender y desarrollar una comprensi\u00f3n de la escena.<\/p>\n<p><strong>Predicciones eficientes<\/strong><\/p>\n<p>Hacer estas predicciones en el espacio de representaci\u00f3n abstracta es importante porque permite al modelo centrarse en la informaci\u00f3n conceptual de m\u00e1s nivel que contiene el v\u00eddeo sin preocuparse por el tipo de detalles que suelen carecer de importancia para las tareas posteriores. Al fin y al cabo, si un v\u00eddeo muestra un \u00e1rbol, lo m\u00e1s probable es que no te preocupen los movimientos minuciosos de cada hoja.<\/p>\n<p>Una de las razones por las que estamos entusiasmados con esta evoluci\u00f3n es que V-JEPA es el primer modelo para v\u00eddeo que es bueno en \u201cevaluaciones congeladas\u201d, esto significa que hacemos todo nuestro preentrenamiento auto supervisado en el codificador y el predictor, y luego no volvemos a tocar esas partes del modelo. Cuando queremos adaptarlas para aprender una nueva habilidad, simplemente entrenamos una peque\u00f1a capa especializada ligera o una peque\u00f1a red adicional, que es muy eficiente y r\u00e1pida.<\/p>\n<p>Los trabajos anteriores ten\u00edan que hacer un reajuste completo, es decir, que despu\u00e9s de pre entrenar tu modelo, cuando quieres que sea realmente bueno en el reconocimiento detallado mientras est\u00e1s adapt\u00e1ndolo para asumir esa tarea, tienes que actualizar los par\u00e1metros o los pesos en todo tu modelo. Y entonces ese modelo se especializa en hacer esa \u00fanica tarea y ya no servir\u00e1 para nada m\u00e1s. Si quieres ense\u00f1ar al modelo una tarea diferente, tienes que utilizar datos diferentes, y tienes que especializar todo el modelo para esta otra tarea. Con V-JEPA, como hemos demostrado en este trabajo, podemos pre entrenar el modelo una vez sin datos etiquetados, corregirlo y, a continuaci\u00f3n, reutilizar esas mismas partes del modelo para varias tareas diferentes, como la clasificaci\u00f3n de acciones, el reconocimiento de interacciones detalladas entre objetos y la localizaci\u00f3n de actividades.<\/p>\n<h4><strong>V\u00edas para futuras investigaciones&#8230;<\/strong><\/h4>\n<p>Aunque la \u00abV\u00bb de V-JEPA significa \u201cv\u00eddeo\u201d, por ahora s\u00f3lo tiene en cuenta el contenido puramente visual de los v\u00eddeos. Un enfoque m\u00e1s multimodal es un paso obvio, por lo que estamos evaluando la posibilidad de incorporar audio junto con los visuales.<\/p>\n<p>Como prueba de concepto, el modelo V-JEPA actual destaca en las interacciones detalladas de objetos y en la distinci\u00f3n de interacciones detalladas entre objetos que se producen a lo largo del tiempo. Por ejemplo, si el modelo tiene que ser capaz de distinguir entre alguien que suelta un bol\u00edgrafo, alguien que lo coge y alguien que finge que lo suelta, V-JEPA es bastante bueno en comparaci\u00f3n con los m\u00e9todos anteriores que realizaban esta tarea de reconocimiento de acciones de alto grado. Sin embargo, estas cosas funcionan en escalas de tiempo relativamente cortas. Si le ense\u00f1as a V-JEPA un clip de v\u00eddeo de unos pocos segundos, quiz\u00e1 hasta 10 segundos, lo har\u00e1 genial. As\u00ed que otro paso importante para nosotros es pensar en la planificaci\u00f3n y en la capacidad del modelo para hacer predicciones en un periodo m\u00e1s largo.<\/p>\n<h4><strong>&#8230;y el camino hacia el AMI<\/strong><\/h4>\n<p>Hasta ahora, nuestro trabajo con V-JEPA se ha centrado principalmente en la percepci\u00f3n, es decir, en la comprensi\u00f3n de los contenidos de varias secuencias de v\u00eddeo para obtener cierto contexto sobre el mundo que nos rodea. El predictor de esta <em>Joint Embedding Predictive Architecture<\/em> sirve como modelo del mundo f\u00edsico: no es necesario ver todo lo que ocurre en el fotograma para que, aun as\u00ed, puedas decirnos conceptualmente lo que est\u00e1 ocurriendo all\u00ed. Como siguiente paso, queremos mostrar c\u00f3mo podemos utilizar este tipo de predictor o modelo del mundo para la planificaci\u00f3n o la toma de decisiones secuenciales.<\/p>\n<p>Sabemos que es posible entrenar modelos JEPA con datos de v\u00eddeo sin necesidad de una supervisi\u00f3n estricta y que pueden ver v\u00eddeos como lo har\u00eda un beb\u00e9, observando el mundo pasivamente, aprendiendo un mont\u00f3n de cosas interesantes sobre c\u00f3mo entender el contexto de esos v\u00eddeos de tal manera que, con una peque\u00f1a cantidad de datos etiquetados, se puede adquirir r\u00e1pidamente una nueva tarea y la capacidad de reconocer diferentes acciones.<\/p>\n<p>V-JEPA es un modelo de investigaci\u00f3n y estamos explorando varias aplicaciones futuras. Por ejemplo, esperamos que el contexto que proporciona V-JEPA pueda ser \u00fatil para nuestro trabajo de <em>embodied IA,<\/em> as\u00ed como para nuestro trabajo de creaci\u00f3n de un asistente de IA contextual para las futuras gafas de realidad aumentada. Creemos firmemente en el valor de la ciencia abierta y responsable, y por eso publicamos el modelo V-JEPA bajo licencia CC BY-NC para que otros investigadores puedan ampliar este trabajo.<\/p>\n<p>Puedes ampliar la informaci\u00f3n <a href=\"https:\/\/ai.meta.com\/blog\/v-jepa-yann-lecun-ai-model-video-joint-embedding-predictive-architecture\/\">aqu\u00ed<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"V-JEPA es un modelo no generativo que aprende prediciendo partes perdidas o enmascaradas de un v\u00eddeo en un espacio de representaci\u00f3n abstracto","protected":false},"author":81919965,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243901452,243901451],"tags":[],"class_list":["post-22614","post","type-post","status-publish","format-standard","hentry","category-impacto-social-y-economico","category-tecnologia-e-innovacion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"og:description\" content=\"V-JEPA es un modelo no generativo que aprende prediciendo partes perdidas o enmascaradas de un v\u00eddeo en un espacio de representaci\u00f3n abstracto\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\" \/>\n<meta property=\"og:site_name\" content=\"Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-20T16:27:04+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-02-20T18:52:03+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"text100madrid\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\"},\"author\":\"Facebook company\",\"headline\":\"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI)\",\"datePublished\":\"2024-02-20T16:27:04+00:00\",\"dateModified\":\"2024-02-20T18:52:03+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\"},\"wordCount\":1554,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"articleSection\":[\"Impacto social y econ\u00f3mico\",\"Tecnolog\u00eda e Innovaci\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\",\"url\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\",\"name\":\"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/#website\"},\"datePublished\":\"2024-02-20T16:27:04+00:00\",\"dateModified\":\"2024-02-20T18:52:03+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/\"]}],\"author\":\"Informaci\u00f3n sobre Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/es\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Informaci\u00f3n sobre Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/es\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/es\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/","og_locale":"es_ES","og_type":"article","og_title":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta","og_description":"V-JEPA es un modelo no generativo que aprende prediciendo partes perdidas o enmascaradas de un v\u00eddeo en un espacio de representaci\u00f3n abstracto","og_url":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/","og_site_name":"Informaci\u00f3n sobre Meta","article_published_time":"2024-02-20T16:27:04+00:00","article_modified_time":"2024-02-20T18:52:03+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"text100madrid","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/"},"author":"Facebook company","headline":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI)","datePublished":"2024-02-20T16:27:04+00:00","dateModified":"2024-02-20T18:52:03+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/"},"wordCount":1554,"publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"articleSection":["Impacto social y econ\u00f3mico","Tecnolog\u00eda e Innovaci\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/","url":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/","name":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI) | Informaci\u00f3n sobre Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/#website"},"datePublished":"2024-02-20T16:27:04+00:00","dateModified":"2024-02-20T18:52:03+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/"]}],"author":"Informaci\u00f3n sobre Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/es\/news\/2024\/02\/v-jepa-el-siguiente-paso-hacia-la-vision-de-yann-lecun-de-la-machine-intelligence-avanzada-ami\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/es\/"},{"@type":"ListItem","position":2,"name":"V-JEPA: El siguiente paso hacia la visi\u00f3n de Yann LeCun de un machine intelligence avanzado (AMI)"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/es\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Informaci\u00f3n sobre Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/es\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/es\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22614","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/users\/81919965"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/comments?post=22614"}],"version-history":[{"count":6,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22614\/revisions"}],"predecessor-version":[{"id":22623,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22614\/revisions\/22623"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/media?parent=22614"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/categories?post=22614"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/tags?post=22614"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}