{"id":22695,"date":"2024-07-24T11:49:13","date_gmt":"2024-07-24T11:49:13","guid":{"rendered":"https:\/\/about.fb.com\/es\/?p=22695"},"modified":"2024-07-24T11:49:13","modified_gmt":"2024-07-24T11:49:13","slug":"presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha","status":"publish","type":"post","link":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/","title":{"rendered":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha"},"content":{"rendered":"<p><strong>Puntos de inter\u00e9s:<\/strong><\/p>\n<ul>\n<li>Meta est\u00e1 comprometida con la IA de c\u00f3digo abierto. En este <a href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\"><span style=\"color: #0000ff\">enlace<\/span><\/a> puedes leer una carta de Mark Zuckerberg detallando por qu\u00e9 el c\u00f3digo abierto es bueno para los desarrolladores, bueno para Meta y bueno para el mundo.<\/li>\n<li>Nuestros modelos m\u00e1s recientes expanden la longitud de contexto a 128K, a\u00f1aden soporte en ocho idiomas e incluyen el Llama 3.1 405B \u2013 el primer modelo de IA de c\u00f3digo abierto de \u00faltima generaci\u00f3n.<\/li>\n<li>Llama 3.1 405B es \u00fanico en su clase, con una flexibilidad y un control inigualables y unas funciones de \u00faltima generaci\u00f3n que rivalizan con los mejores modelos de c\u00f3digo cerrado. Nuestro nuevo modelo permitir\u00e1 a la comunidad habilitar nuevos flujos de trabajo, como la generaci\u00f3n de datos sint\u00e9ticos y la destilaci\u00f3n de modelos.<\/li>\n<li>Seguimos desarrollando Llama para convertirlo en un sistema, proporcionando m\u00e1s componentes que funcionen con el modelo, incluido un sistema de referencia. Queremos empoderar a los desarrolladores con herramientas para\u00a0crear sus propios agentes personalizados y nuevos tipos de comportamiento de los agentes. Estamos reforzando esto con\u00a0<a href=\"http:\/\/ai.meta.com\/blog\/meta-llama-3-1-ai-responsibility\" target=\"_blank\" rel=\"noopener\">nuevas herramientas de seguridad<\/a>, como Llama Guard 3 y Prompt Guard, para ayudar a construir de forma responsable. Tambi\u00e9n estamos lanzando una\u00a0<a href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\" target=\"_blank\" rel=\"noopener\">solicitud de comentarios<\/a>\u00a0sobre la API Llama Stack, una interfaz est\u00e1ndar que esperamos facilite a los proyectos de terceros el aprovechamiento de los modelos Llama.<\/li>\n<li>El ecosistema est\u00e1 configurado y listo para funcionar con m\u00e1s de 25 socios, entre ellos AWS, NVIDIA, Databricks, Groq, Dell, Azure y Google Cloud, que ofrecen servicios desde el primer d\u00eda.<\/li>\n<li>Prueba Llama 3.1 405B en Estados Unidos en WhatsApp y\u00a0<a href=\"http:\/\/meta.ai\/\" target=\"_blank\" rel=\"noopener\">meta.ai<\/a>\u00a0haciendo una pregunta compleja sobre matem\u00e1ticas o codificaci\u00f3n.<\/li>\n<\/ul>\n<p>Hasta ahora, los grandes modelos ling\u00fc\u00edsticos de c\u00f3digo abierto han ido casi siempre a la zaga de sus hom\u00f3logos cerrados en lo que se refiere a capacidades y rendimiento. Ahora, iniciamos una nueva era con el c\u00f3digo abierto a la cabeza. Publicamos Meta Llama 3.1 405B, que creemos que es el modelo b\u00e1sico de c\u00f3digo abierto m\u00e1s grande y capaz del mundo. Con m\u00e1s de 300 millones de descargas totales de todas las versiones de Llama hasta la fecha, no hemos hecho m\u00e1s que empezar.<\/p>\n<p><b>Presentamos Llama 3.1<\/b><\/p>\n<p>Llama 3.1 405B es el primer modelo de c\u00f3digo abierto que compite con los principales modelos de IA en lo que respecta a las funciones m\u00e1s avanzadas de conocimientos generales, capacidad de conducci\u00f3n, matem\u00e1ticas, uso de herramientas y traducci\u00f3n multiling\u00fce. Con el lanzamiento del modelo 405B, estamos impulsando la innovaci\u00f3n, con oportunidades de crecimiento y explotaci\u00f3n sin precedentes. Creemos que la \u00faltima generaci\u00f3n de Llama dar\u00e1 rienda suelta a nuevas aplicaciones y paradigmas de modelizaci\u00f3n, incluida la generaci\u00f3n de datos sint\u00e9ticos para permitir la mejora y el entrenamiento de modelos m\u00e1s peque\u00f1os, as\u00ed como la destilaci\u00f3n de modelos, una capacidad que nunca se ha logrado a esta escala en c\u00f3digo abierto.<\/p>\n<p>Como parte de este \u00faltimo lanzamiento, presentamos versiones actualizadas de los modelos 8B y 70B. Son multiling\u00fces y tienen una longitud de contexto significativamente mayor, de 128K, un uso de herramientas de \u00faltima generaci\u00f3n y capacidades de razonamiento m\u00e1s potentes en general. Esto permite que nuestros \u00faltimos modelos sean compatibles con casos de uso avanzados, como el resumen de textos largos, los agentes conversacionales multiling\u00fces y los asistentes de codificaci\u00f3n. Tambi\u00e9n hemos introducido cambios en nuestra licencia, lo que permite a los desarrolladores utilizar los resultados de los modelos Llama -incluido el 405B- para mejorar otros modelos. Fieles a nuestro compromiso con el c\u00f3digo abierto, a partir de hoy ponemos estos modelos a disposici\u00f3n de la comunidad para su descarga en\u00a0<a class=\"in_article_link\" href=\"http:\/\/llama.meta.com\/\" target=\"_blank\" rel=\"noopener\">llama.meta.com<\/a>\u00a0y\u00a0<a class=\"in_article_link\" href=\"https:\/\/huggingface.co\/meta-llama\" target=\"_blank\" rel=\"noopener\">Hugging Face<\/a>, adem\u00e1s de estar disponibles para su desarrollo inmediato en nuestro amplio ecosistema de plataformas asociadas.<\/p>\n<p><b>Evaluaci\u00f3n de modelos<\/b><\/p>\n<p>Para esta versi\u00f3n, hemos evaluado el rendimiento en m\u00e1s de 150 conjuntos de datos de referencia que abarcan una amplia variedad de idiomas. Adem\u00e1s, hemos llevado a cabo evaluaciones humanas exhaustivas que comparan Llama 3.1 con modelos de la competencia en escenarios reales. Nuestra evaluaci\u00f3n experimental sugiere que nuestro modelo b\u00e1sico es competitivo con los principales modelos de base en una serie de tareas, como GPT-4, GPT-4o y Claude 3.5 Sonnet. Adem\u00e1s, nuestros modelos m\u00e1s peque\u00f1os son competitivos con modelos cerrados y abiertos que tienen un n\u00famero similar de par\u00e1metros.<\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22700\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=3201 3201w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=578 578w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=1559 1559w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-3.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22701\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=3201 3201w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=578 578w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=1559 1559w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-4.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22699\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=960&#038;resize=960%2C510\" alt=\"\" width=\"960\" height=\"510\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=3840 3840w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-2.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p><b>Arquitectura del modelo<\/b><\/p>\n<p>El entrenamiento de Llama 3.1 405B con m\u00e1s de 15 billones de tokens, nuestro mayor modelo hasta la fecha, supuso un gran reto. Para poder entrenar a esta escala y conseguir los resultados que hemos obtenido en un tiempo razonable, hemos optimizado de forma significativa toda nuestra estructura de entrenamiento y hemos aumentado el entrenamiento de nuestro modelo a m\u00e1s de 16.000 GPU H100, lo que convierte a la 405B en el primer modelo Llama entrenado a esta escala.<\/p>\n<p>Para solucionarlo, tomamos decisiones de dise\u00f1o centradas en mantener el proceso de desarrollo del modelo escalable y sencillo.<\/p>\n<ul>\n<li>Para maximizar la estabilidad del entrenamiento, optamos por una arquitectura est\u00e1ndar de modelo de transformador con\u00a0<i>descodificador<\/i>, con peque\u00f1as adaptaciones, en lugar de un modelo mixto experto.<\/li>\n<li>Adoptamos un procedimiento iterativo de post-entrenamiento, en el que cada ronda utiliza un ajuste fino supervisado y una optimizaci\u00f3n directa de las preferencias. Esto nos permiti\u00f3 crear datos sint\u00e9ticos de la m\u00e1xima calidad para cada ronda y mejorar el rendimiento de cada capacidad.<\/li>\n<\/ul>\n<p>En comparaci\u00f3n con versiones anteriores de Llama, hemos mejorado la cantidad y la calidad de los datos que utilizamos en el preentrenamiento y el postentrenamiento. Estas mejoras incluyen el desarrollo de procesos de preprocesamiento y curaci\u00f3n m\u00e1s cuidadosos para los datos de preentrenamiento y el desarrollo de enfoques de filtrado y control de calidad m\u00e1s rigurosos para los datos de postentrenamiento.<\/p>\n<p>Como esperaban las leyes de escalado de los modelos de lenguaje, nuestro nuevo modelo b\u00e1sico supera a los modelos m\u00e1s peque\u00f1os entrenados con el mismo procedimiento. Tambi\u00e9n utilizamos el modelo de par\u00e1metros 405B para mejorar la calidad del postentrenamiento de nuestros modelos m\u00e1s peque\u00f1os.<\/p>\n<p>Para que un modelo de la escala del 405B pueda realizar inferencias a gran escala, hemos cuantificado nuestros modelos de 16 bits (BF16) a 8 bits (FP8), reduciendo as\u00ed los requisitos inform\u00e1ticos necesarios y permitiendo que el modelo se ejecute en un \u00fanico nodo servidor.<\/p>\n<p><b>Configuraci\u00f3n de instrucciones y chat<\/b><\/p>\n<p>Con Llama 3.1 405B, nos esforzamos por mejorar la utilidad, la calidad y la capacidad de seguir instrucciones detalladas de los modelos en respuesta a las instrucciones de los usuarios, garantizando al mismo tiempo altos niveles de seguridad. Nuestros mayores retos fueron dar soporte a m\u00e1s funciones, la ventana contextual de 128K y el mayor tama\u00f1o de los modelos.<\/p>\n<p>En el postentrenamiento, produjimos modelos de chat finales realizando varias rondas de alineaci\u00f3n sobre el modelo preentrenado. Cada ronda implica un ajuste fino supervisado (SFT), un muestreo de rechazo (RS) y una optimizaci\u00f3n directa de preferencias (DPO). Utilizamos la generaci\u00f3n de datos sint\u00e9ticos para producir la gran mayor\u00eda de nuestros ejemplos de SFT, iterando varias veces para producir datos sint\u00e9ticos cada vez de mayor calidad en todas las caracter\u00edsticas. Adem\u00e1s, invertimos en m\u00faltiples t\u00e9cnicas de procesamiento de datos para filtrar estos datos sint\u00e9ticos con la m\u00e1xima calidad. Esto nos permite escalar la cantidad de datos ajustados entre recursos.<\/p>\n<p>Equilibramos cuidadosamente los datos para producir un modelo de alta calidad en todas las caracter\u00edsticas. Por ejemplo, mantenemos la calidad de nuestro modelo en las pruebas comparativas de contexto corto, incluso cuando ampliamos a 128K de contexto. Del mismo modo, nuestro modelo sigue proporcionando respuestas extremadamente \u00fatiles, incluso cuando a\u00f1adimos mitigaciones de seguridad.<\/p>\n<p><b>El sistema Llama<\/b><\/p>\n<p>Las plantillas Llama siempre han estado pensadas para funcionar como parte de un sistema global que puede orquestar varios componentes, incluida la llamada a herramientas externas. Nuestra visi\u00f3n es ir m\u00e1s all\u00e1 de las plantillas b\u00e1sicas para dar a los desarrolladores acceso a un sistema m\u00e1s amplio que les proporcione la flexibilidad necesaria para dise\u00f1ar y crear ofertas personalizadas que se ajusten a su visi\u00f3n. Esta reflexi\u00f3n comenz\u00f3 el a\u00f1o pasado, cuando\u00a0<a class=\"in_article_link\" href=\"https:\/\/ai.meta.com\/blog\/purple-llama-open-trust-safety-generative-ai\/\" target=\"_blank\" rel=\"noopener\">introdujimos<\/a>\u00a0por primera vez la incorporaci\u00f3n de componentes ajenos al n\u00facleo del LLM.<\/p>\n<p>Como parte de nuestros continuos esfuerzos por desarrollar responsablemente la IA m\u00e1s all\u00e1 de la capa del modelo y ayudar a otros a hacer lo mismo, estamos lanzando un\u00a0<a class=\"in_article_link\" href=\"https:\/\/github.com\/meta-llama\/llama-agentic-system\" target=\"_blank\" rel=\"noopener\">sistema de referencia<\/a>\u00a0completo que incluye varias aplicaciones de muestra, as\u00ed como nuevos componentes como\u00a0<a class=\"in_article_link\" href=\"https:\/\/llama.meta.com\/trust-and-safety\/#safeguard-model%20?\" target=\"_blank\" rel=\"noopener\">Llama Guard 3<\/a>, un modelo de seguridad multiling\u00fce, y Prompt Guard, un filtro de inyecci\u00f3n inmediata. Estas aplicaciones de muestra son de c\u00f3digo abierto y pueden ser desarrolladas por la comunidad.<\/p>\n<p>La implementaci\u00f3n de los componentes de esta visi\u00f3n del sistema Llama sigue estando fragmentada. Por eso hemos empezado a trabajar con la industria, las startups y la comunidad en general para ayudar a definir mejor las interfaces de estos componentes. Para apoyar esto, estamos lanzando una\u00a0<a class=\"in_article_link\" href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\" target=\"_blank\" rel=\"noopener\">solicitud de comentarios<\/a>\u00a0en GitHub para lo que llamamos el \u00abLlama Stack\u00bb. Llama Stack es un conjunto de interfaces estandarizadas y basadas en opiniones sobre c\u00f3mo construir componentes can\u00f3nicos del conjunto de herramientas (ajuste fino, generaci\u00f3n de datos sint\u00e9ticos) y aplicaciones de agentes. Esperamos que se adopten en todo el ecosistema para facilitar la interoperabilidad.<\/p>\n<p>Agradeceremos comentarios y formas de mejorar la\u00a0<a class=\"in_article_link\" href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\" target=\"_blank\" rel=\"noopener\">propuesta<\/a>. Nos entusiasma la idea de ampliar el ecosistema en torno a Llama y reducir las barreras para desarrolladores y proveedores de plataformas.<\/p>\n<p><b>La apertura impulsa la innovaci\u00f3n<\/b><\/p>\n<p>A diferencia de los modelos cerrados,\u00a0Llama se\u00a0<a class=\"in_article_link\" href=\"http:\/\/llama.meta.com\/\" target=\"_blank\" rel=\"noopener\">puede descargar<\/a>. Los\u00a0desarrolladores pueden personalizar completamente los modelos seg\u00fan sus necesidades y aplicaciones, entrenarlos con nuevos conjuntos de datos y realizar ajustes adicionales. De este modo, la comunidad de desarrolladores y el resto del mundo pueden aprovechar mejor el potencial de la IA generativa. Los desarrolladores pueden personalizar completamente sus aplicaciones y ejecutarlas en cualquier entorno, ya sea\u00a0<i>en las instalaciones<\/i>, en la nube o incluso localmente en un port\u00e1til, todo ello sin compartir datos con Meta.<\/p>\n<p>Aunque muchos podr\u00edan argumentar que los modelos cerrados son m\u00e1s econ\u00f3micos, los modelos Llama ofrecen uno de los costes por token m\u00e1s bajos del sector, seg\u00fan las pruebas realizadas por\u00a0<a class=\"in_article_link\" href=\"https:\/\/artificialanalysis.ai\/\" target=\"_blank\" rel=\"noopener\">Artificial Analysis<\/a>. Y, como Mark Zuckerberg\u00a0<a class=\"in_article_link\" href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\" target=\"_blank\" rel=\"noopener\">comparti\u00f3<\/a>, el c\u00f3digo abierto garantizar\u00e1 que m\u00e1s personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de unos pocos y que la tecnolog\u00eda pueda implantarse de forma m\u00e1s uniforme y segura en toda la sociedad. Por eso seguimos dando pasos en el camino para que la IA de acceso abierto\u00a0se convierta en la norma del sector.<\/p>\n<p>Hemos visto a la\u00a0<a class=\"in_article_link\" href=\"https:\/\/llama.meta.com\/community-stories\/\" target=\"_blank\" rel=\"noopener\">comunidad<\/a>\u00a0construir cosas incre\u00edbles con modelos anteriores de Llama, incluyendo un\u00a0<a class=\"in_article_link\" href=\"https:\/\/ai.meta.com\/blog\/foondamate-study-aid-education-llama\/\" target=\"_blank\" rel=\"noopener\">\u00abcompa\u00f1ero de estudio\u00bb<\/a>\u00a0creado con Llama e implementado en WhatsApp y Messenger, un\u00a0<a class=\"in_article_link\" href=\"https:\/\/ai.meta.com\/blog\/llama-2-3-meditron-yale-medicine-epfl-open-source-llm\/\" target=\"_blank\" rel=\"noopener\">modelo de lenguaje del \u00e1rea m\u00e9dica<\/a>\u00a0dise\u00f1ado para ayudar a tomar decisiones cl\u00ednicas, y\u00a0<a class=\"in_article_link\" href=\"https:\/\/github.com\/noharm-ai\/summary\" target=\"_blank\" rel=\"noopener\">una organizaci\u00f3n sanitaria sin \u00e1nimo de lucro en Brasil<\/a>\u00a0que organiza y comunica a los pacientes informaci\u00f3n sobre su hospitalizaci\u00f3n, todo ello con seguridad de datos. Estamos impacientes por ver lo que la comunidad construir\u00e1 con nuestros \u00faltimos modelos, gracias al poder del c\u00f3digo abierto.<\/p>\n<p><b>Construir con Llama 3.1 405B<\/b><\/p>\n<p>Para el desarrollador medio, utilizar un modelo de la escala del 405B es todo un reto. Aunque se trata de un modelo incre\u00edblemente potente, somos conscientes de que requiere importantes recursos inform\u00e1ticos y experiencia para trabajar con \u00e9l. Hablamos con la comunidad y nos dimos cuenta de que el desarrollo de IA generativa es mucho m\u00e1s que modelos de est\u00edmulos.<\/p>\n<p>Queremos que todo el mundo pueda sacar el m\u00e1ximo partido del 405B:<\/p>\n<ul>\n<li>Inferencia en tiempo real y por lotes<\/li>\n<li>Ajuste fino supervisado<\/li>\n<li>Evaluaci\u00f3n del modelo para su aplicaci\u00f3n espec\u00edfica<\/li>\n<li>Preentrenamiento continuo<\/li>\n<li>Generaci\u00f3n aumentada de recuperaci\u00f3n (RAG)<\/li>\n<li>Llamada a funciones<\/li>\n<li>Generaci\u00f3n de datos sint\u00e9ticos<\/li>\n<\/ul>\n<p>Aqu\u00ed es donde el ecosistema Llama puede ayudar. Desde el primer d\u00eda, los desarrolladores pueden aprovechar todas las funciones avanzadas del modelo 405B y empezar a construir inmediatamente. Los desarrolladores tambi\u00e9n pueden explorar flujos de trabajo avanzados como la generaci\u00f3n de datos sint\u00e9ticos f\u00e1ciles de usar, seguir instrucciones preparadas para la destilaci\u00f3n de modelos y habilitar RAG continua con soluciones de socios como AWS, NVIDIA y Databricks. Adem\u00e1s, Groq ha optimizado la inferencia de baja latencia para implementaciones en la nube, y Dell ha logrado optimizaciones similares para sistemas locales.<\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22698\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=960&#038;resize=960%2C530\" alt=\"\" width=\"960\" height=\"530\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=1977 1977w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/Llama-1.png?w=800 800w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p>Trabajamos con proyectos clave de la comunidad como vLLM, TensorRT y PyTorch para apoyarlos desde el primer d\u00eda y garantizar que la comunidad est\u00e9 preparada para la implementaci\u00f3n en producci\u00f3n.<\/p>\n<p>Esperamos que nuestro lanzamiento de 405B tambi\u00e9n estimule la innovaci\u00f3n en toda la comunidad para facilitar la inferencia y el ajuste fino de modelos de esta escala, as\u00ed como permitir la pr\u00f3xima ola de investigaci\u00f3n en destilaci\u00f3n de modelos.<\/p>\n<p><b>Pruebe hoy mismo la colecci\u00f3n de modelos Llama 3.1<\/b><\/p>\n<p>Estamos emocionados por ver qu\u00e9 hace la comunidad con este trabajo. Hay mucho potencial para crear nuevas experiencias \u00fatiles utilizando el multiling\u00fcismo y la ampliaci\u00f3n del contexto. Con Llama Stack y las nuevas herramientas de seguridad, esperamos seguir construyendo junto con la comunidad de c\u00f3digo abierto de forma responsable. Antes de lanzar un modelo, trabajamos para identificar, evaluar y mitigar los riesgos potenciales a trav\u00e9s de diversas medidas, entre ellas ejercicios de descubrimiento de riesgos previos a la implantaci\u00f3n mediante <i>red<\/i>\u00a0<i>teaming<\/i>\u00a0y puesta a punto de la seguridad. Por ejemplo, realizamos un amplio red\u00a0<i>teaming<\/i>\u00a0con expertos externos e internos para poner a prueba la resistencia de los modelos y encontrar formas inesperadas de utilizarlos. (M\u00e1s informaci\u00f3n sobre c\u00f3mo estamos ampliando nuestra colecci\u00f3n de modelos Llama 3.1 de forma responsable en este\u00a0<a class=\"in_article_link\" href=\"http:\/\/ai.meta.com\/blog\/meta-llama-3-1-ai-responsibility\" target=\"_blank\" rel=\"noopener\">blog<\/a>).<\/p>\n<p>Aunque este es nuestro modelo m\u00e1s grande hasta la fecha, creemos que a\u00fan queda mucho terreno por explorar en el futuro, incluidos tama\u00f1os m\u00e1s adaptados a los dispositivos, modalidades adicionales y una mayor inversi\u00f3n en la capa de la plataforma de agentes. Como siempre, estamos deseando ver todos los incre\u00edbles productos y experiencias que la comunidad crear\u00e1 con estos modelos.<\/p>\n<p>Este<i>\u00a0trabajo ha contado con el apoyo de nuestros socios de la comunidad de IA.<\/i>\u00a0<i>Nos gustar\u00eda dar las gracias y reconocer (por orden alfab\u00e9tico) a:<\/i>\u00a0<i>Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI y UC Berkeley \u2013 vLLM Project.<\/i><\/p>\n","protected":false},"excerpt":{"rendered":"Hasta ahora, los grandes modelos ling\u00fc\u00edsticos de c\u00f3digo abierto han ido casi siempre a la zaga de sus hom\u00f3logos cerrados en lo que se refiere a capacidades y rendimiento. Ahora, iniciamos una nueva era con el c\u00f3digo abierto a la cabeza.","protected":false},"author":81919965,"featured_media":22697,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243901452,243901420,243901451],"tags":[],"class_list":["post-22695","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-impacto-social-y-economico","category-meta","category-tecnologia-e-innovacion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"og:description\" content=\"Hasta ahora, los grandes modelos ling\u00fc\u00edsticos de c\u00f3digo abierto han ido casi siempre a la zaga de sus hom\u00f3logos cerrados en lo que se refiere a capacidades y rendimiento. Ahora, iniciamos una nueva era con el c\u00f3digo abierto a la cabeza.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\" \/>\n<meta property=\"og:site_name\" content=\"Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-07-24T11:49:13+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"text100madrid\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"12 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\"},\"author\":\"Facebook company\",\"headline\":\"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha\",\"datePublished\":\"2024-07-24T11:49:13+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\"},\"wordCount\":2538,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080\",\"articleSection\":[\"Impacto social y econ\u00f3mico\",\"Meta\",\"Tecnolog\u00eda e Innovaci\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\",\"url\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\",\"name\":\"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080\",\"datePublished\":\"2024-07-24T11:49:13+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/\"]}],\"author\":\"Informaci\u00f3n sobre Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/es\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Informaci\u00f3n sobre Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/es\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/es\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/","og_locale":"es_ES","og_type":"article","og_title":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta","og_description":"Hasta ahora, los grandes modelos ling\u00fc\u00edsticos de c\u00f3digo abierto han ido casi siempre a la zaga de sus hom\u00f3logos cerrados en lo que se refiere a capacidades y rendimiento. Ahora, iniciamos una nueva era con el c\u00f3digo abierto a la cabeza.","og_url":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/","og_site_name":"Informaci\u00f3n sobre Meta","article_published_time":"2024-07-24T11:49:13+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?resize=1024,576","type":"image\/png"}],"author":"text100madrid","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"12 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/"},"author":"Facebook company","headline":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha","datePublished":"2024-07-24T11:49:13+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/"},"wordCount":2538,"publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080","articleSection":["Impacto social y econ\u00f3mico","Meta","Tecnolog\u00eda e Innovaci\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/","url":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/","name":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha | Informaci\u00f3n sobre Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080","datePublished":"2024-07-24T11:49:13+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/"]}],"author":"Informaci\u00f3n sobre Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#primaryimage","url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/es\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-ia-mas-capaz-hasta-la-fecha\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/es\/"},{"@type":"ListItem","position":2,"name":"Presentamos Llama 3.1: nuestro modelo de IA m\u00e1s capaz hasta la fecha"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/es\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Informaci\u00f3n sobre Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/es\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/es\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/07\/452380335_1646136526224716_2406884886416151566_n_0.png?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22695","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/users\/81919965"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/comments?post=22695"}],"version-history":[{"count":3,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22695\/revisions"}],"predecessor-version":[{"id":22703,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22695\/revisions\/22703"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/media\/22697"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/media?parent=22695"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/categories?post=22695"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/tags?post=22695"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}