{"id":26326,"date":"2026-04-08T10:12:47","date_gmt":"2026-04-08T16:12:47","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=26326"},"modified":"2026-04-08T10:21:57","modified_gmt":"2026-04-08T16:21:57","slug":"escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/","title":{"rendered":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada"},"content":{"rendered":"<p><span style=\"font-weight: 400\">A medida que desarrollamos una IA m\u00e1s potente y personalizada, la fiabilidad, la seguridad y las protecciones para los usuarios son m\u00e1s importantes que nunca.<\/span><\/p>\n<p><span style=\"font-weight: 400\">La seguridad de los modelos avanzados exige un enfoque igualmente sofisticado, uno capaz de crecer a la par de la tecnolog\u00eda. Hoy presentamos una visi\u00f3n detallada de nuestro trabajo, incluyendo: <a href=\"https:\/\/ai.meta.com\/static-resource\/Meta_Advanced-AI-Scaling-Framework-v2\">Nuestro Marco actualizado de Escalabilidad de IA Avanzada<\/a>, Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n para Muse Spark, y Nuevos avances en el razonamiento de seguridad integrado en la base de nuestros modelos. Esto asegura que nuestras protecciones evolucionen al mismo ritmo que las capacidades de nuestra IA.<\/span><\/p>\n<p><b>Marco de Escalabilidad de IA Avanzada<\/b><\/p>\n<p><span style=\"font-weight: 400\">Hoy avanzamos a partir de nuestro Marco de IA de Vanguardia original y publicamos una versi\u00f3n considerablemente m\u00e1s rigurosa y actualizada: el Marco de Escalabilidad de IA Avanzada. Esta actualizaci\u00f3n ampl\u00eda los tipos de riesgos que evaluamos, fortalece la forma en que tomamos decisiones de implementaci\u00f3n e introduce nuevos Informes de Seguridad y Preparaci\u00f3n. En particular, este Marco describe c\u00f3mo identificamos y evaluamos los riesgos m\u00e1s graves y emergentes, incluidos los qu\u00edmicos y biol\u00f3gicos, los de ciberseguridad, y una nueva secci\u00f3n para evaluar riesgos relacionados con la p\u00e9rdida de control. A medida que los modelos se vuelven m\u00e1s avanzados, estamos analizando c\u00f3mo se desempe\u00f1an cuando se les otorga mayor autonom\u00eda y si los controles sobre ese comportamiento funcionan seg\u00fan lo previsto. Estos est\u00e1ndares se aplican a todas nuestras implementaciones de modelos avanzados, ya sean abiertos, de acceso controlado por API o modelos cerrados.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En la pr\u00e1ctica, esto tambi\u00e9n significa mapear los riesgos potenciales, evaluar los modelos antes y despu\u00e9s de aplicar las medidas de protecci\u00f3n para confirmar que funcionan en el mundo real, e implementar modelos \u00fanicamente cuando cumplen con los est\u00e1ndares establecidos por nuestro Marco. Para las personas que usan Meta AI en nuestras aplicaciones, esto significa que los modelos que impulsan su experiencia han sido evaluados en un amplio espectro de riesgos antes de que los pongamos a su disposici\u00f3n.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Si bien nuestro Marco actualizado fortalece los est\u00e1ndares y las medidas de protecci\u00f3n para nuestros modelos m\u00e1s capaces, nuestros nuevos Informes de Seguridad y Preparaci\u00f3n demuestran c\u00f3mo los estamos cumpliendo. Estos informes detallan nuestras evaluaciones de riesgos, los resultados de las pruebas, la l\u00f3gica detr\u00e1s de nuestras decisiones de implementaci\u00f3n y cualquier limitaci\u00f3n que a\u00fan estamos trabajando para abordar. Esto significa que compartiremos nuestros hallazgos,\u00a0 c\u00f3mo probamos nuestros modelos, en qu\u00e9 aspectos nuestras evaluaciones se quedaron cortas y c\u00f3mo cerramos esas brechas.<\/span><\/p>\n<p><b>Informe de Seguridad y Preparaci\u00f3n<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para Muse Spark, realizamos evaluaciones de seguridad exhaustivas antes de su implementaci\u00f3n. Debido a sus capacidades avanzadas de razonamiento, evaluamos el modelo antes y despu\u00e9s de aplicar las protecciones, probando no solo los riesgos m\u00e1s graves como la ciberseguridad y las amenazas qu\u00edmicas y biol\u00f3gicas, sino tambi\u00e9n en relaci\u00f3n con nuestras pol\u00edticas de seguridad vigentes desde hace mucho tiempo, dise\u00f1adas para prevenir da\u00f1os y usos indebidos como la violencia, las violaciones a la seguridad infantil y las conductas delictivas, adem\u00e1s de nuestras pol\u00edticas para garantizar el equilibrio ideol\u00f3gico.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestro enfoque de evaluaci\u00f3n tiene m\u00faltiples capas por dise\u00f1o, y comienza antes de que un modelo sea implementado. Sometemos nuestros sistemas a miles de escenarios de prueba dise\u00f1ados para identificar vulnerabilidades. Monitoreamos de cerca la tasa de \u00e9xito de estos intentos de ataque y trabajamos constantemente para reducirla al nivel m\u00e1s bajo posible. Dado que ninguna evaluaci\u00f3n es exhaustiva, tambi\u00e9n monitoreamos el tr\u00e1fico en tiempo real con sistemas automatizados dise\u00f1ados para detectar problemas inesperados y poder abordarlos r\u00e1pidamente. Los resultados demuestran protecciones s\u00f3lidas en todas las categor\u00edas de riesgo que medimos. Nuestras evaluaciones tambi\u00e9n demostraron que Muse Spark est\u00e1 a la vanguardia en evitar sesgos ideol\u00f3gicos en las respuestas del modelo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestras evaluaciones tambi\u00e9n se centraron en la posibilidad de que el modelo actuara de manera aut\u00f3noma y dif\u00edcil de controlar. Los resultados confirman que el modelo carece del nivel de capacidad aut\u00f3noma necesario para generar tales riesgos. <\/span><span style=\"font-weight: 400\">Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n detalla las evaluaciones espec\u00edficas detr\u00e1s de este hallazgo, adem\u00e1s de todos nuestros resultados de evaluaci\u00f3n: qu\u00e9 probamos, qu\u00e9 encontramos, y pronto compartiremos m\u00e1s informaci\u00f3n.<\/span><\/p>\n<p><b>Seguridad que evoluciona junto al modelo<\/b><\/p>\n<p><span style=\"font-weight: 400\">Estas protecciones est\u00e1n integradas en cada etapa, desde el filtrado de los datos con los que aprende el modelo, pasando por el entrenamiento enfocado en seguridad, hasta las barreras de protecci\u00f3n que operan a nivel de producto. Y dado que nuestras protecciones necesitan evolucionar a medida que mejora la sofisticaci\u00f3n de nuestros modelos, este trabajo nunca estar\u00e1 terminado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En particular, supera a nuestros modelos de la generaci\u00f3n anterior, y precisamente esta capacidad superior hace posible un enfoque fundamentalmente nuevo para gobernar el modelo. Los enfoques anteriores se basaban en ense\u00f1ar a los modelos a manejar escenarios espec\u00edficos uno por uno; por ejemplo, entrenarlos para negarse a responder o para redirigir a una fuente confiable. Ese enfoque funcionaba, pero era dif\u00edcil de escalar. Como Muse Spark puede razonar, hemos evolucionado nuestro enfoque: hemos traducido nuestras directrices de confianza y seguridad en \u00e1reas como seguridad de contenido y conversacional, calidad de respuesta y manejo de diferentes puntos de vista en principios claros y verificables. Tambi\u00e9n entrenamos al modelo sobre por qu\u00e9 algo es seguro, no solo en las reglas, sino tambi\u00e9n en las razones detr\u00e1s de ellas. Esto implica que el modelo tiene una mayor capacidad para responder a situaciones imprevistas, a diferencia de los sistemas basados en reglas que no podr\u00edan anticiparlas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Este trabajo no reemplaza la supervisi\u00f3n humana, la eleva. Dise\u00f1amos los principios que rigen el comportamiento del modelo, los validamos rigurosamente con escenarios reales e implementamos barreras de protecci\u00f3n adicionales para capturar cualquier elemento que el modelo pueda pasar por alto. El resultado son protecciones que se aplican de manera m\u00e1s amplia y consistente, y que mejoran a medida que mejora el razonamiento del modelo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Mostrando nuestro trabajo<\/span><\/p>\n<p><span style=\"font-weight: 400\">A medida que realizamos avances significativos en Meta AI e implementamos nuestros modelos m\u00e1s capaces, los Informes de Seguridad y Preparaci\u00f3n mostrar\u00e1n c\u00f3mo estamos evaluando y gestionando los riesgos en cada paso. Continuaremos invirtiendo en protecci\u00f3n, pruebas e investigaci\u00f3n. De esta manera, las personas podr\u00e1n confiar en una experiencia de IA con protecciones integradas dise\u00f1adas para su seguridad.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"A medida que desarrollamos una IA m\u00e1s potente y personalizada, la fiabilidad, la seguridad y las protecciones para los usuarios son m\u00e1s importantes que nunca. La seguridad de los modelos avanzados exige un enfoque igualmente sofisticado, uno capaz de crecer a la par de la tecnolog\u00eda. Hoy presentamos una visi\u00f3n detallada de nuestro trabajo, incluyendo: Nuestro Marco actualizado de Escalabilidad de IA Avanzada, Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n para Muse Spark, y Nuevos avances en el razonamiento de seguridad integrado en la base de nuestros modelos. Esto asegura que nuestras protecciones evolucionen al mismo ritmo que las capacidades de nuestra IA. Marco de Escalabilidad de IA Avanzada Hoy avanzamos a partir de nuestro Marco de IA de Vanguardia original y publicamos una versi\u00f3n considerablemente m\u00e1s rigurosa y actualizada: el Marco de Escalabilidad de IA Avanzada. Esta actualizaci\u00f3n ampl\u00eda los tipos de riesgos que evaluamos, fortalece la forma en que tomamos decisiones de implementaci\u00f3n e introduce nuevos Informes de Seguridad y Preparaci\u00f3n. En particular, este Marco describe c\u00f3mo identificamos y evaluamos los riesgos m\u00e1s graves y emergentes, incluidos los qu\u00edmicos y biol\u00f3gicos, los de ciberseguridad, y una nueva secci\u00f3n para evaluar riesgos relacionados con la p\u00e9rdida de control. A medida que los modelos se vuelven m\u00e1s avanzados, estamos analizando c\u00f3mo se desempe\u00f1an cuando se les otorga mayor autonom\u00eda y si los controles sobre ese comportamiento funcionan seg\u00fan lo previsto. Estos est\u00e1ndares se aplican a todas nuestras implementaciones de modelos avanzados, ya sean abiertos, de acceso controlado por API o modelos cerrados. En la pr\u00e1ctica, esto tambi\u00e9n significa mapear los riesgos potenciales, evaluar los modelos antes y despu\u00e9s de aplicar las medidas de protecci\u00f3n para confirmar que funcionan en el mundo real, e implementar modelos \u00fanicamente cuando cumplen con los est\u00e1ndares establecidos por nuestro Marco. Para las personas que usan Meta AI en nuestras aplicaciones, esto significa que los modelos que impulsan su experiencia han sido evaluados en un amplio espectro de riesgos antes de que los pongamos a su disposici\u00f3n. Si bien nuestro Marco actualizado fortalece los est\u00e1ndares y las medidas de protecci\u00f3n para nuestros modelos m\u00e1s capaces, nuestros nuevos Informes de Seguridad y Preparaci\u00f3n demuestran c\u00f3mo los estamos cumpliendo. Estos informes detallan nuestras evaluaciones de riesgos, los resultados de las pruebas, la l\u00f3gica detr\u00e1s de nuestras decisiones de implementaci\u00f3n y cualquier limitaci\u00f3n que a\u00fan estamos trabajando para abordar. Esto significa que compartiremos nuestros hallazgos,\u00a0 c\u00f3mo probamos nuestros modelos, en qu\u00e9 aspectos nuestras evaluaciones se quedaron cortas y c\u00f3mo cerramos esas brechas. Informe de Seguridad y Preparaci\u00f3n Para Muse Spark, realizamos evaluaciones de seguridad exhaustivas antes de su implementaci\u00f3n. Debido a sus capacidades avanzadas de razonamiento, evaluamos el modelo antes y despu\u00e9s de aplicar las protecciones, probando no solo los riesgos m\u00e1s graves como la ciberseguridad y las amenazas qu\u00edmicas y biol\u00f3gicas, sino tambi\u00e9n en relaci\u00f3n con nuestras pol\u00edticas de seguridad vigentes desde hace mucho tiempo, dise\u00f1adas para prevenir da\u00f1os y usos indebidos como la violencia, las violaciones a la seguridad infantil y las conductas delictivas, adem\u00e1s de nuestras pol\u00edticas para garantizar el equilibrio ideol\u00f3gico. Nuestro enfoque de evaluaci\u00f3n tiene m\u00faltiples capas por dise\u00f1o, y comienza antes de que un modelo sea implementado. Sometemos nuestros sistemas a miles de escenarios de prueba dise\u00f1ados para identificar vulnerabilidades. Monitoreamos de cerca la tasa de \u00e9xito de estos intentos de ataque y trabajamos constantemente para reducirla al nivel m\u00e1s bajo posible. Dado que ninguna evaluaci\u00f3n es exhaustiva, tambi\u00e9n monitoreamos el tr\u00e1fico en tiempo real con sistemas automatizados dise\u00f1ados para detectar problemas inesperados y poder abordarlos r\u00e1pidamente. Los resultados demuestran protecciones s\u00f3lidas en todas las categor\u00edas de riesgo que medimos. Nuestras evaluaciones tambi\u00e9n demostraron que Muse Spark est\u00e1 a la vanguardia en evitar sesgos ideol\u00f3gicos en las respuestas del modelo. Nuestras evaluaciones tambi\u00e9n se centraron en la posibilidad de que el modelo actuara de manera aut\u00f3noma y dif\u00edcil de controlar. Los resultados confirman que el modelo carece del nivel de capacidad aut\u00f3noma necesario para generar tales riesgos. Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n detalla las evaluaciones espec\u00edficas detr\u00e1s de este hallazgo, adem\u00e1s de todos nuestros resultados de evaluaci\u00f3n: qu\u00e9 probamos, qu\u00e9 encontramos, y pronto compartiremos m\u00e1s informaci\u00f3n. Seguridad que evoluciona junto al modelo Estas protecciones est\u00e1n integradas en cada etapa, desde el filtrado de los datos con los que aprende el modelo, pasando por el entrenamiento enfocado en seguridad, hasta las barreras de protecci\u00f3n que operan a nivel de producto. Y dado que nuestras protecciones necesitan evolucionar a medida que mejora la sofisticaci\u00f3n de nuestros modelos, este trabajo nunca estar\u00e1 terminado. En particular, supera a nuestros modelos de la generaci\u00f3n anterior, y precisamente esta capacidad superior hace posible un enfoque fundamentalmente nuevo para gobernar el modelo. Los enfoques anteriores se basaban en ense\u00f1ar a los modelos a manejar escenarios espec\u00edficos uno por uno; por ejemplo, entrenarlos para negarse a responder o para redirigir a una fuente confiable. Ese enfoque funcionaba, pero era dif\u00edcil de escalar. Como Muse Spark puede razonar, hemos evolucionado nuestro enfoque: hemos traducido nuestras directrices de confianza y seguridad en \u00e1reas como seguridad de contenido y conversacional, calidad de respuesta y manejo de diferentes puntos de vista en principios claros y verificables. Tambi\u00e9n entrenamos al modelo sobre por qu\u00e9 algo es seguro, no solo en las reglas, sino tambi\u00e9n en las razones detr\u00e1s de ellas. Esto implica que el modelo tiene una mayor capacidad para responder a situaciones imprevistas, a diferencia de los sistemas basados en reglas que no podr\u00edan anticiparlas. Este trabajo no reemplaza la supervisi\u00f3n humana, la eleva. Dise\u00f1amos los principios que rigen el comportamiento del modelo, los validamos rigurosamente con escenarios reales e implementamos barreras de protecci\u00f3n adicionales para capturar cualquier elemento que el modelo pueda pasar por alto. El resultado son protecciones que se aplican de manera m\u00e1s amplia y consistente, y que mejoran a medida que mejora el razonamiento del modelo. Mostrando nuestro trabajo A medida que realizamos avances significativos en Meta AI e implementamos nuestros modelos m\u00e1s capaces, los Informes de Seguridad y Preparaci\u00f3n mostrar\u00e1n c\u00f3mo estamos evaluando y gestionando los riesgos en cada paso. Continuaremos invirtiendo en protecci\u00f3n, pruebas e investigaci\u00f3n. De esta manera, las personas podr\u00e1n confiar en una experiencia de IA con protecciones integradas dise\u00f1adas para su seguridad.","protected":false},"author":155592861,"featured_media":26327,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948263,243948269],"tags":[],"class_list":["post-26326","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia","category-meta-ai"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"A medida que desarrollamos una IA m\u00e1s potente y personalizada, la fiabilidad, la seguridad y las protecciones para los usuarios son m\u00e1s importantes que nunca. La seguridad de los modelos avanzados exige un enfoque igualmente sofisticado, uno capaz de crecer a la par de la tecnolog\u00eda. Hoy presentamos una visi\u00f3n detallada de nuestro trabajo, incluyendo: Nuestro Marco actualizado de Escalabilidad de IA Avanzada, Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n para Muse Spark, y Nuevos avances en el razonamiento de seguridad integrado en la base de nuestros modelos. Esto asegura que nuestras protecciones evolucionen al mismo ritmo que las capacidades de nuestra IA. Marco de Escalabilidad de IA Avanzada Hoy avanzamos a partir de nuestro Marco de IA de Vanguardia original y publicamos una versi\u00f3n considerablemente m\u00e1s rigurosa y actualizada: el Marco de Escalabilidad de IA Avanzada. Esta actualizaci\u00f3n ampl\u00eda los tipos de riesgos que evaluamos, fortalece la forma en que tomamos decisiones de implementaci\u00f3n e introduce nuevos Informes de Seguridad y Preparaci\u00f3n. En particular, este Marco describe c\u00f3mo identificamos y evaluamos los riesgos m\u00e1s graves y emergentes, incluidos los qu\u00edmicos y biol\u00f3gicos, los de ciberseguridad, y una nueva secci\u00f3n para evaluar riesgos relacionados con la p\u00e9rdida de control. A medida que los modelos se vuelven m\u00e1s avanzados, estamos analizando c\u00f3mo se desempe\u00f1an cuando se les otorga mayor autonom\u00eda y si los controles sobre ese comportamiento funcionan seg\u00fan lo previsto. Estos est\u00e1ndares se aplican a todas nuestras implementaciones de modelos avanzados, ya sean abiertos, de acceso controlado por API o modelos cerrados. En la pr\u00e1ctica, esto tambi\u00e9n significa mapear los riesgos potenciales, evaluar los modelos antes y despu\u00e9s de aplicar las medidas de protecci\u00f3n para confirmar que funcionan en el mundo real, e implementar modelos \u00fanicamente cuando cumplen con los est\u00e1ndares establecidos por nuestro Marco. Para las personas que usan Meta AI en nuestras aplicaciones, esto significa que los modelos que impulsan su experiencia han sido evaluados en un amplio espectro de riesgos antes de que los pongamos a su disposici\u00f3n. Si bien nuestro Marco actualizado fortalece los est\u00e1ndares y las medidas de protecci\u00f3n para nuestros modelos m\u00e1s capaces, nuestros nuevos Informes de Seguridad y Preparaci\u00f3n demuestran c\u00f3mo los estamos cumpliendo. Estos informes detallan nuestras evaluaciones de riesgos, los resultados de las pruebas, la l\u00f3gica detr\u00e1s de nuestras decisiones de implementaci\u00f3n y cualquier limitaci\u00f3n que a\u00fan estamos trabajando para abordar. Esto significa que compartiremos nuestros hallazgos,\u00a0 c\u00f3mo probamos nuestros modelos, en qu\u00e9 aspectos nuestras evaluaciones se quedaron cortas y c\u00f3mo cerramos esas brechas. Informe de Seguridad y Preparaci\u00f3n Para Muse Spark, realizamos evaluaciones de seguridad exhaustivas antes de su implementaci\u00f3n. Debido a sus capacidades avanzadas de razonamiento, evaluamos el modelo antes y despu\u00e9s de aplicar las protecciones, probando no solo los riesgos m\u00e1s graves como la ciberseguridad y las amenazas qu\u00edmicas y biol\u00f3gicas, sino tambi\u00e9n en relaci\u00f3n con nuestras pol\u00edticas de seguridad vigentes desde hace mucho tiempo, dise\u00f1adas para prevenir da\u00f1os y usos indebidos como la violencia, las violaciones a la seguridad infantil y las conductas delictivas, adem\u00e1s de nuestras pol\u00edticas para garantizar el equilibrio ideol\u00f3gico. Nuestro enfoque de evaluaci\u00f3n tiene m\u00faltiples capas por dise\u00f1o, y comienza antes de que un modelo sea implementado. Sometemos nuestros sistemas a miles de escenarios de prueba dise\u00f1ados para identificar vulnerabilidades. Monitoreamos de cerca la tasa de \u00e9xito de estos intentos de ataque y trabajamos constantemente para reducirla al nivel m\u00e1s bajo posible. Dado que ninguna evaluaci\u00f3n es exhaustiva, tambi\u00e9n monitoreamos el tr\u00e1fico en tiempo real con sistemas automatizados dise\u00f1ados para detectar problemas inesperados y poder abordarlos r\u00e1pidamente. Los resultados demuestran protecciones s\u00f3lidas en todas las categor\u00edas de riesgo que medimos. Nuestras evaluaciones tambi\u00e9n demostraron que Muse Spark est\u00e1 a la vanguardia en evitar sesgos ideol\u00f3gicos en las respuestas del modelo. Nuestras evaluaciones tambi\u00e9n se centraron en la posibilidad de que el modelo actuara de manera aut\u00f3noma y dif\u00edcil de controlar. Los resultados confirman que el modelo carece del nivel de capacidad aut\u00f3noma necesario para generar tales riesgos. Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n detalla las evaluaciones espec\u00edficas detr\u00e1s de este hallazgo, adem\u00e1s de todos nuestros resultados de evaluaci\u00f3n: qu\u00e9 probamos, qu\u00e9 encontramos, y pronto compartiremos m\u00e1s informaci\u00f3n. Seguridad que evoluciona junto al modelo Estas protecciones est\u00e1n integradas en cada etapa, desde el filtrado de los datos con los que aprende el modelo, pasando por el entrenamiento enfocado en seguridad, hasta las barreras de protecci\u00f3n que operan a nivel de producto. Y dado que nuestras protecciones necesitan evolucionar a medida que mejora la sofisticaci\u00f3n de nuestros modelos, este trabajo nunca estar\u00e1 terminado. En particular, supera a nuestros modelos de la generaci\u00f3n anterior, y precisamente esta capacidad superior hace posible un enfoque fundamentalmente nuevo para gobernar el modelo. Los enfoques anteriores se basaban en ense\u00f1ar a los modelos a manejar escenarios espec\u00edficos uno por uno; por ejemplo, entrenarlos para negarse a responder o para redirigir a una fuente confiable. Ese enfoque funcionaba, pero era dif\u00edcil de escalar. Como Muse Spark puede razonar, hemos evolucionado nuestro enfoque: hemos traducido nuestras directrices de confianza y seguridad en \u00e1reas como seguridad de contenido y conversacional, calidad de respuesta y manejo de diferentes puntos de vista en principios claros y verificables. Tambi\u00e9n entrenamos al modelo sobre por qu\u00e9 algo es seguro, no solo en las reglas, sino tambi\u00e9n en las razones detr\u00e1s de ellas. Esto implica que el modelo tiene una mayor capacidad para responder a situaciones imprevistas, a diferencia de los sistemas basados en reglas que no podr\u00edan anticiparlas. Este trabajo no reemplaza la supervisi\u00f3n humana, la eleva. Dise\u00f1amos los principios que rigen el comportamiento del modelo, los validamos rigurosamente con escenarios reales e implementamos barreras de protecci\u00f3n adicionales para capturar cualquier elemento que el modelo pueda pasar por alto. El resultado son protecciones que se aplican de manera m\u00e1s amplia y consistente, y que mejoran a medida que mejora el razonamiento del modelo. Mostrando nuestro trabajo A medida que realizamos avances significativos en Meta AI e implementamos nuestros modelos m\u00e1s capaces, los Informes de Seguridad y Preparaci\u00f3n mostrar\u00e1n c\u00f3mo estamos evaluando y gestionando los riesgos en cada paso. Continuaremos invirtiendo en protecci\u00f3n, pruebas e investigaci\u00f3n. De esta manera, las personas podr\u00e1n confiar en una experiencia de IA con protecciones integradas dise\u00f1adas para su seguridad.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2026-04-08T16:12:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-04-08T16:21:57+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\"},\"author\":\"Facebook company\",\"headline\":\"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada\",\"datePublished\":\"2026-04-08T16:12:47+00:00\",\"dateModified\":\"2026-04-08T16:21:57+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\"},\"wordCount\":1146,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080\",\"articleSection\":[\"IA\",\"Meta AI\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\",\"name\":\"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080\",\"datePublished\":\"2026-04-08T16:12:47+00:00\",\"dateModified\":\"2026-04-08T16:21:57+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/","og_locale":"es_ES","og_type":"article","og_title":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta","og_description":"A medida que desarrollamos una IA m\u00e1s potente y personalizada, la fiabilidad, la seguridad y las protecciones para los usuarios son m\u00e1s importantes que nunca. La seguridad de los modelos avanzados exige un enfoque igualmente sofisticado, uno capaz de crecer a la par de la tecnolog\u00eda. Hoy presentamos una visi\u00f3n detallada de nuestro trabajo, incluyendo: Nuestro Marco actualizado de Escalabilidad de IA Avanzada, Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n para Muse Spark, y Nuevos avances en el razonamiento de seguridad integrado en la base de nuestros modelos. Esto asegura que nuestras protecciones evolucionen al mismo ritmo que las capacidades de nuestra IA. Marco de Escalabilidad de IA Avanzada Hoy avanzamos a partir de nuestro Marco de IA de Vanguardia original y publicamos una versi\u00f3n considerablemente m\u00e1s rigurosa y actualizada: el Marco de Escalabilidad de IA Avanzada. Esta actualizaci\u00f3n ampl\u00eda los tipos de riesgos que evaluamos, fortalece la forma en que tomamos decisiones de implementaci\u00f3n e introduce nuevos Informes de Seguridad y Preparaci\u00f3n. En particular, este Marco describe c\u00f3mo identificamos y evaluamos los riesgos m\u00e1s graves y emergentes, incluidos los qu\u00edmicos y biol\u00f3gicos, los de ciberseguridad, y una nueva secci\u00f3n para evaluar riesgos relacionados con la p\u00e9rdida de control. A medida que los modelos se vuelven m\u00e1s avanzados, estamos analizando c\u00f3mo se desempe\u00f1an cuando se les otorga mayor autonom\u00eda y si los controles sobre ese comportamiento funcionan seg\u00fan lo previsto. Estos est\u00e1ndares se aplican a todas nuestras implementaciones de modelos avanzados, ya sean abiertos, de acceso controlado por API o modelos cerrados. En la pr\u00e1ctica, esto tambi\u00e9n significa mapear los riesgos potenciales, evaluar los modelos antes y despu\u00e9s de aplicar las medidas de protecci\u00f3n para confirmar que funcionan en el mundo real, e implementar modelos \u00fanicamente cuando cumplen con los est\u00e1ndares establecidos por nuestro Marco. Para las personas que usan Meta AI en nuestras aplicaciones, esto significa que los modelos que impulsan su experiencia han sido evaluados en un amplio espectro de riesgos antes de que los pongamos a su disposici\u00f3n. Si bien nuestro Marco actualizado fortalece los est\u00e1ndares y las medidas de protecci\u00f3n para nuestros modelos m\u00e1s capaces, nuestros nuevos Informes de Seguridad y Preparaci\u00f3n demuestran c\u00f3mo los estamos cumpliendo. Estos informes detallan nuestras evaluaciones de riesgos, los resultados de las pruebas, la l\u00f3gica detr\u00e1s de nuestras decisiones de implementaci\u00f3n y cualquier limitaci\u00f3n que a\u00fan estamos trabajando para abordar. Esto significa que compartiremos nuestros hallazgos,\u00a0 c\u00f3mo probamos nuestros modelos, en qu\u00e9 aspectos nuestras evaluaciones se quedaron cortas y c\u00f3mo cerramos esas brechas. Informe de Seguridad y Preparaci\u00f3n Para Muse Spark, realizamos evaluaciones de seguridad exhaustivas antes de su implementaci\u00f3n. Debido a sus capacidades avanzadas de razonamiento, evaluamos el modelo antes y despu\u00e9s de aplicar las protecciones, probando no solo los riesgos m\u00e1s graves como la ciberseguridad y las amenazas qu\u00edmicas y biol\u00f3gicas, sino tambi\u00e9n en relaci\u00f3n con nuestras pol\u00edticas de seguridad vigentes desde hace mucho tiempo, dise\u00f1adas para prevenir da\u00f1os y usos indebidos como la violencia, las violaciones a la seguridad infantil y las conductas delictivas, adem\u00e1s de nuestras pol\u00edticas para garantizar el equilibrio ideol\u00f3gico. Nuestro enfoque de evaluaci\u00f3n tiene m\u00faltiples capas por dise\u00f1o, y comienza antes de que un modelo sea implementado. Sometemos nuestros sistemas a miles de escenarios de prueba dise\u00f1ados para identificar vulnerabilidades. Monitoreamos de cerca la tasa de \u00e9xito de estos intentos de ataque y trabajamos constantemente para reducirla al nivel m\u00e1s bajo posible. Dado que ninguna evaluaci\u00f3n es exhaustiva, tambi\u00e9n monitoreamos el tr\u00e1fico en tiempo real con sistemas automatizados dise\u00f1ados para detectar problemas inesperados y poder abordarlos r\u00e1pidamente. Los resultados demuestran protecciones s\u00f3lidas en todas las categor\u00edas de riesgo que medimos. Nuestras evaluaciones tambi\u00e9n demostraron que Muse Spark est\u00e1 a la vanguardia en evitar sesgos ideol\u00f3gicos en las respuestas del modelo. Nuestras evaluaciones tambi\u00e9n se centraron en la posibilidad de que el modelo actuara de manera aut\u00f3noma y dif\u00edcil de controlar. Los resultados confirman que el modelo carece del nivel de capacidad aut\u00f3noma necesario para generar tales riesgos. Nuestro pr\u00f3ximo Informe de Seguridad y Preparaci\u00f3n detalla las evaluaciones espec\u00edficas detr\u00e1s de este hallazgo, adem\u00e1s de todos nuestros resultados de evaluaci\u00f3n: qu\u00e9 probamos, qu\u00e9 encontramos, y pronto compartiremos m\u00e1s informaci\u00f3n. Seguridad que evoluciona junto al modelo Estas protecciones est\u00e1n integradas en cada etapa, desde el filtrado de los datos con los que aprende el modelo, pasando por el entrenamiento enfocado en seguridad, hasta las barreras de protecci\u00f3n que operan a nivel de producto. Y dado que nuestras protecciones necesitan evolucionar a medida que mejora la sofisticaci\u00f3n de nuestros modelos, este trabajo nunca estar\u00e1 terminado. En particular, supera a nuestros modelos de la generaci\u00f3n anterior, y precisamente esta capacidad superior hace posible un enfoque fundamentalmente nuevo para gobernar el modelo. Los enfoques anteriores se basaban en ense\u00f1ar a los modelos a manejar escenarios espec\u00edficos uno por uno; por ejemplo, entrenarlos para negarse a responder o para redirigir a una fuente confiable. Ese enfoque funcionaba, pero era dif\u00edcil de escalar. Como Muse Spark puede razonar, hemos evolucionado nuestro enfoque: hemos traducido nuestras directrices de confianza y seguridad en \u00e1reas como seguridad de contenido y conversacional, calidad de respuesta y manejo de diferentes puntos de vista en principios claros y verificables. Tambi\u00e9n entrenamos al modelo sobre por qu\u00e9 algo es seguro, no solo en las reglas, sino tambi\u00e9n en las razones detr\u00e1s de ellas. Esto implica que el modelo tiene una mayor capacidad para responder a situaciones imprevistas, a diferencia de los sistemas basados en reglas que no podr\u00edan anticiparlas. Este trabajo no reemplaza la supervisi\u00f3n humana, la eleva. Dise\u00f1amos los principios que rigen el comportamiento del modelo, los validamos rigurosamente con escenarios reales e implementamos barreras de protecci\u00f3n adicionales para capturar cualquier elemento que el modelo pueda pasar por alto. El resultado son protecciones que se aplican de manera m\u00e1s amplia y consistente, y que mejoran a medida que mejora el razonamiento del modelo. Mostrando nuestro trabajo A medida que realizamos avances significativos en Meta AI e implementamos nuestros modelos m\u00e1s capaces, los Informes de Seguridad y Preparaci\u00f3n mostrar\u00e1n c\u00f3mo estamos evaluando y gestionando los riesgos en cada paso. Continuaremos invirtiendo en protecci\u00f3n, pruebas e investigaci\u00f3n. De esta manera, las personas podr\u00e1n confiar en una experiencia de IA con protecciones integradas dise\u00f1adas para su seguridad.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/","og_site_name":"Acerca de Meta","article_published_time":"2026-04-08T16:12:47+00:00","article_modified_time":"2026-04-08T16:21:57+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?resize=1024,576","type":"image\/png"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/"},"author":"Facebook company","headline":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada","datePublished":"2026-04-08T16:12:47+00:00","dateModified":"2026-04-08T16:21:57+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/"},"wordCount":1146,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080","articleSection":["IA","Meta AI"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/","url":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/","name":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080","datePublished":"2026-04-08T16:12:47+00:00","dateModified":"2026-04-08T16:21:57+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2026\/04\/escalando-el-desarrollo-y-la-evaluacion-de-nuestra-ia-mas-avanzada\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Escalando el desarrollo y la evaluaci\u00f3n de nuestra IA m\u00e1s avanzada"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2026\/04\/muse_spark.png?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/26326","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=26326"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/26326\/revisions"}],"predecessor-version":[{"id":26329,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/26326\/revisions\/26329"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/26327"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=26326"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=26326"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=26326"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}