{"id":25337,"date":"2024-07-23T09:05:28","date_gmt":"2024-07-23T15:05:28","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25337"},"modified":"2024-07-23T10:05:45","modified_gmt":"2024-07-23T16:05:45","slug":"presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/","title":{"rendered":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Hasta hoy, los grandes modelos de lenguaje de c\u00f3digo abierto no alcanzaban el nivel de sus contrapartes de c\u00f3digo cerrado en t\u00e9rminos de caracter\u00edsticas y rendimiento. Hoy, damos inicio a una nueva era con el c\u00f3digo abierto liderando el camino presentando Llama 3.1 405B, que creemos que es el modelo de lenguaje a gran escala de c\u00f3digo abierto m\u00e1s potente hasta la fecha. Con m\u00e1s de 300 millones de descargas totales de todas las versiones de Llama hasta el momento, apenas estamos comenzando.<\/span><\/p>\n<p><b>Presentamos Llama 3.1<\/b><\/p>\n<p><span style=\"font-weight: 400\">Llama 3.1 405B es el primer modelo de c\u00f3digo abierto que compite con los principales modelos de IA en lo que respecta a las funciones m\u00e1s avanzadas de conocimientos generales, capacidad de conducci\u00f3n, matem\u00e1ticas, uso de herramientas y traducci\u00f3n multiling\u00fce. Con el lanzamiento del modelo 405B, estamos impulsando la innovaci\u00f3n, con oportunidades de crecimiento y explotaci\u00f3n sin precedentes. Creemos que la \u00faltima generaci\u00f3n de Llama dar\u00e1 rienda suelta a nuevas aplicaciones y paradigmas de modelizaci\u00f3n, incluida la generaci\u00f3n de datos sint\u00e9ticos para permitir la mejora y el entrenamiento de modelos m\u00e1s peque\u00f1os, as\u00ed como la destilaci\u00f3n de modelos, una capacidad que nunca se ha logrado a esta escala en c\u00f3digo abierto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como parte de este \u00faltimo lanzamiento, presentamos versiones actualizadas de los modelos 8B y 70B. Son multiling\u00fces y tienen una longitud de contexto significativamente mayor, de 128K, un uso de herramientas de \u00faltima generaci\u00f3n y capacidades de razonamiento m\u00e1s potentes en general. Esto permite que nuestros \u00faltimos modelos sean compatibles con casos de uso avanzados, como el resumen de textos largos, los agentes conversacionales multiling\u00fces y los asistentes de codificaci\u00f3n. Tambi\u00e9n hemos introducido cambios en nuestra licencia, lo que permite a los desarrolladores utilizar los resultados de los modelos Llama -incluido el 405B- para mejorar otros modelos. Fieles a nuestro compromiso con el c\u00f3digo abierto, a partir de hoy ponemos estos modelos a disposici\u00f3n de la comunidad para su descarga en <\/span><a href=\"http:\/\/llama.meta.com\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">llama.meta.com<\/span><\/a><span style=\"font-weight: 400\"> y <\/span><a href=\"https:\/\/huggingface.co\/meta-llama\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Hugging Face<\/span><\/a><span style=\"font-weight: 400\">, adem\u00e1s de estar disponibles para su desarrollo inmediato en nuestro amplio ecosistema de plataformas asociadas.<\/span><\/p>\n<p><b>Evaluaci\u00f3n de modelos<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para esta versi\u00f3n, hemos evaluado el rendimiento en m\u00e1s de 150 conjuntos de datos de referencia que abarcan una amplia variedad de idiomas. Adem\u00e1s, hemos llevado a cabo evaluaciones humanas exhaustivas que comparan Llama 3.1 con modelos de la competencia en escenarios reales. Nuestra evaluaci\u00f3n experimental sugiere que nuestro modelo b\u00e1sico es competitivo con los principales modelos de base en una serie de tareas, como GPT-4, GPT-4o y Claude 3.5 Sonnet. Adem\u00e1s, nuestros modelos m\u00e1s peque\u00f1os son competitivos con modelos cerrados y abiertos que tienen un n\u00famero similar de par\u00e1metros.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25342\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=3201 3201w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=578 578w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=1559 1559w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-3.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25343\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=960&#038;resize=960%2C665\" alt=\"\" width=\"960\" height=\"665\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=3201 3201w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=578 578w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=1559 1559w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-4.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25344\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=960&#038;resize=960%2C510\" alt=\"\" width=\"960\" height=\"510\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=3840 3840w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-2.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><b>Arquitectura del modelo<\/b><\/p>\n<p><span style=\"font-weight: 400\">El entrenamiento de Llama 3.1 405B con m\u00e1s de 15 billones de tokens, nuestro mayor modelo hasta la fecha, supuso un gran reto. Para poder entrenar a esta escala y conseguir los resultados que hemos obtenido en un tiempo razonable, hemos optimizado de forma significativa toda nuestra estructura de entrenamiento y hemos aumentado el entrenamiento de nuestro modelo a m\u00e1s de 16.000 GPU H100, lo que convierte a la 405B en el primer modelo Llama entrenado a esta escala.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25346\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=960&#038;resize=960%2C291\" alt=\"\" width=\"960\" height=\"291\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=3420 3420w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-a.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Para solucionarlo, tomamos decisiones de dise\u00f1o centradas en mantener el proceso de desarrollo del modelo escalable y sencillo.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Para maximizar la estabilidad del entrenamiento, optamos por una arquitectura est\u00e1ndar de modelo de transformador con <\/span><i><span style=\"font-weight: 400\">descodificador<\/span><\/i><span style=\"font-weight: 400\">, con peque\u00f1as adaptaciones, en lugar de un modelo mixto experto.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Adoptamos un procedimiento iterativo de post-entrenamiento, en el que cada ronda utiliza un ajuste fino supervisado y una optimizaci\u00f3n directa de las preferencias. Esto nos permiti\u00f3 crear datos sint\u00e9ticos de la m\u00e1xima calidad para cada ronda y mejorar el rendimiento de cada capacidad.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">En comparaci\u00f3n con versiones anteriores de Llama, hemos mejorado la cantidad y la calidad de los datos que utilizamos en el preentrenamiento y el postentrenamiento. Estas mejoras incluyen el desarrollo de procesos de preprocesamiento y curaci\u00f3n m\u00e1s cuidadosos para los datos de preentrenamiento y el desarrollo de enfoques de filtrado y control de calidad m\u00e1s rigurosos para los datos de postentrenamiento.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como esperaban las leyes de escalado de los modelos de lenguaje, nuestro nuevo modelo b\u00e1sico supera a los modelos m\u00e1s peque\u00f1os entrenados con el mismo procedimiento. Tambi\u00e9n utilizamos el modelo de par\u00e1metros 405B para mejorar la calidad del postentrenamiento de nuestros modelos m\u00e1s peque\u00f1os.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para que un modelo de la escala del 405B pueda realizar inferencias a gran escala, hemos cuantificado nuestros modelos de 16 bits (BF16) a 8 bits (FP8), reduciendo as\u00ed los requisitos inform\u00e1ticos necesarios y permitiendo que el modelo se ejecute en un \u00fanico nodo servidor.<\/span><\/p>\n<p><b>Configuraci\u00f3n de instrucciones y chat<\/b><\/p>\n<p><span style=\"font-weight: 400\">Con Llama 3.1 405B, nos esforzamos por mejorar la utilidad, la calidad y la capacidad de seguir instrucciones detalladas de los modelos en respuesta a las instrucciones de los usuarios, garantizando al mismo tiempo altos niveles de seguridad. Nuestros mayores retos fueron dar soporte a m\u00e1s funciones, la ventana contextual de 128K y el mayor tama\u00f1o de los modelos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En el postentrenamiento, produjimos modelos de chat finales realizando varias rondas de alineaci\u00f3n sobre el modelo preentrenado. Cada ronda implica un ajuste fino supervisado (SFT), un muestreo de rechazo (RS) y una optimizaci\u00f3n directa de preferencias (DPO). Utilizamos la generaci\u00f3n de datos sint\u00e9ticos para producir la gran mayor\u00eda de nuestros ejemplos de SFT, iterando varias veces para producir datos sint\u00e9ticos cada vez de mayor calidad en todas las caracter\u00edsticas. Adem\u00e1s, invertimos en m\u00faltiples t\u00e9cnicas de procesamiento de datos para filtrar estos datos sint\u00e9ticos con la m\u00e1xima calidad. Esto nos permite escalar la cantidad de datos ajustados entre recursos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Equilibramos cuidadosamente los datos para producir un modelo de alta calidad en todas las caracter\u00edsticas. Por ejemplo, mantenemos la calidad de nuestro modelo en las pruebas comparativas de contexto corto, incluso cuando ampliamos a 128K de contexto. Del mismo modo, nuestro modelo sigue proporcionando respuestas extremadamente \u00fatiles, incluso cuando a\u00f1adimos mitigaciones de seguridad.<\/span><\/p>\n<p><b>El sistema Llama<\/b><\/p>\n<p><span style=\"font-weight: 400\">Las plantillas Llama siempre han estado pensadas para funcionar como parte de un sistema global que puede orquestar varios componentes, incluida la llamada a herramientas externas. Nuestra visi\u00f3n es ir m\u00e1s all\u00e1 de las plantillas b\u00e1sicas para dar a los desarrolladores acceso a un sistema m\u00e1s amplio que les proporcione la flexibilidad necesaria para dise\u00f1ar y crear ofertas personalizadas que se ajusten a su visi\u00f3n. Esta reflexi\u00f3n comenz\u00f3 el a\u00f1o pasado, cuando <\/span><a href=\"https:\/\/ai.meta.com\/blog\/purple-llama-open-trust-safety-generative-ai\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">introdujimos<\/span><\/a><span style=\"font-weight: 400\"> por primera vez la incorporaci\u00f3n de componentes ajenos al n\u00facleo del LLM.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Como parte de nuestros continuos esfuerzos por desarrollar responsablemente la IA m\u00e1s all\u00e1 de la capa del modelo y ayudar a otros a hacer lo mismo, estamos lanzando un <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-agentic-system\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">sistema de referencia<\/span><\/a><span style=\"font-weight: 400\"> completo que incluye varias aplicaciones de muestra, as\u00ed como nuevos componentes como <\/span><a href=\"https:\/\/llama.meta.com\/trust-and-safety\/#safeguard-model%20?\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Llama Guard 3<\/span><\/a><span style=\"font-weight: 400\">, un modelo de seguridad multiling\u00fce, y Prompt Guard, un filtro de inyecci\u00f3n inmediata. Estas aplicaciones de muestra son de c\u00f3digo abierto y pueden ser desarrolladas por la comunidad.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">La implementaci\u00f3n de los componentes de esta visi\u00f3n del sistema Llama sigue estando fragmentada. Por eso hemos empezado a trabajar con la industria, las startups y la comunidad en general para ayudar a definir mejor las interfaces de estos componentes. Para apoyar esto, estamos lanzando una <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">solicitud de comentarios<\/span><\/a><span style=\"font-weight: 400\"> en GitHub para lo que llamamos el \u00abLlama Stack\u00bb. Llama Stack es un conjunto de interfaces estandarizadas y basadas en opiniones sobre c\u00f3mo construir componentes can\u00f3nicos del conjunto de herramientas (ajuste fino, generaci\u00f3n de datos sint\u00e9ticos) y aplicaciones de agentes. Esperamos que se adopten en todo el ecosistema para facilitar la interoperabilidad.<\/span><\/p>\n<p><span style=\"font-weight: 400\"><br \/>\n<\/span><span style=\"font-weight: 400\">Agradeceremos comentarios y formas de mejorar la <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-toolchain\/issues\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">propuesta<\/span><\/a><span style=\"font-weight: 400\">. Nos entusiasma la idea de ampliar el ecosistema en torno a Llama y reducir las barreras para desarrolladores y proveedores de plataformas.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25337-1\" width=\"960\" height=\"1280\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-capabilities.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-capabilities.mp4\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/Llama-capabilities.mp4<\/a><\/video><\/div>\n<p><b>La apertura impulsa la innovaci\u00f3n<\/b><\/p>\n<p><span style=\"font-weight: 400\">A diferencia de los modelos cerrados, <\/span><span style=\"font-weight: 400\">Llama se <\/span><a href=\"http:\/\/llama.meta.com\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">puede descargar<\/span><\/a><span style=\"font-weight: 400\">. Los<\/span><span style=\"font-weight: 400\"> desarrolladores pueden personalizar completamente los modelos seg\u00fan sus necesidades y aplicaciones, entrenarlos con nuevos conjuntos de datos y realizar ajustes adicionales. De este modo, la comunidad de desarrolladores y el resto del mundo pueden aprovechar mejor el potencial de la IA generativa. Los desarrolladores pueden personalizar completamente sus aplicaciones y ejecutarlas en cualquier entorno, ya sea <\/span><i><span style=\"font-weight: 400\">en las instalaciones<\/span><\/i><span style=\"font-weight: 400\">, en la nube o incluso localmente en un port\u00e1til, todo ello sin compartir datos con Meta.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Aunque muchos podr\u00edan argumentar que los modelos cerrados son m\u00e1s econ\u00f3micos, los modelos Llama ofrecen uno de los costes por token m\u00e1s bajos del sector, seg\u00fan las pruebas realiza<\/span><span style=\"font-weight: 400\">das por <\/span><a href=\"https:\/\/artificialanalysis.ai\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Artificial Analysis<\/span><\/a><span style=\"font-weight: 400\">. Y, como Mark Zuckerberg <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">comparti\u00f3<\/span><\/a><span style=\"font-weight: 400\">, el c\u00f3digo abierto garantizar\u00e1 que m\u00e1s personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de unos pocos y que la tecnolog\u00eda pueda implantarse de forma m\u00e1s uniforme y segura en toda la sociedad. Por eso seguimos dando pasos en el camino para que la IA de acceso abierto<\/span><span style=\"font-weight: 400\"> se convierta en la norma del sector.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Hemos visto a la <\/span><a href=\"https:\/\/llama.meta.com\/community-stories\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">comunidad<\/span><\/a><span style=\"font-weight: 400\"> construir cosas incre\u00edbles con modelos anteriores de Llama, incluyendo un <\/span><a href=\"https:\/\/ai.meta.com\/blog\/foondamate-study-aid-education-llama\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">\u00abcompa\u00f1ero de estudio\u00bb<\/span><\/a><span style=\"font-weight: 400\"> creado con Llama e implementado en WhatsApp y Messenger, un <\/span><a href=\"https:\/\/ai.meta.com\/blog\/llama-2-3-meditron-yale-medicine-epfl-open-source-llm\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">modelo de lenguaje del \u00e1rea m\u00e9dica<\/span><\/a><span style=\"font-weight: 400\"> dise\u00f1ado para ayudar a tomar decisiones cl\u00ednicas, y <\/span><a href=\"https:\/\/github.com\/noharm-ai\/summary\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">una organizaci\u00f3n sanitaria sin \u00e1nimo de lucro en Brasil<\/span><\/a><span style=\"font-weight: 400\"> que organiza y comunica a los pacientes informaci\u00f3n sobre su hospitalizaci\u00f3n, todo ello con seguridad de datos. Estamos impacientes por ver lo que la comunidad construir\u00e1 con nuestros \u00faltimos modelos, gracias al poder del c\u00f3digo abierto.<\/span><\/p>\n<p><b>Construir con Llama 3.1 405B<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para el desarrollador medio, utilizar un modelo de la escala del 405B es todo un reto. Aunque se trata de un modelo incre\u00edblemente potente, somos conscientes de que requiere importantes recursos inform\u00e1ticos y experiencia para trabajar con \u00e9l. Hablamos con la comunidad y nos dimos cuenta de que el desarrollo de IA generativa es mucho m\u00e1s que modelos de est\u00edmulos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Queremos que todo el mundo pueda sacar el m\u00e1ximo partido del 405B:<\/span><\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Inferencia en tiempo real y por lotes<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Ajuste fino supervisado<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Evaluaci\u00f3n del modelo para su aplicaci\u00f3n espec\u00edfica<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Preentrenamiento continuo<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Generaci\u00f3n aumentada de recuperaci\u00f3n (RAG)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Llamada a funciones<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Generaci\u00f3n de datos sint\u00e9ticos<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Aqu\u00ed es donde el ecosistema Llama puede ayudar. Desde el primer d\u00eda, los desarrolladores pueden aprovechar todas las funciones avanzadas del modelo 405B y empezar a construir inmediatamente. Los desarrolladores tambi\u00e9n pueden explorar flujos de trabajo avanzados como la generaci\u00f3n de datos sint\u00e9ticos f\u00e1ciles de usar, seguir instrucciones preparadas para la destilaci\u00f3n de modelos y habilitar RAG continua con soluciones de socios como AWS, NVIDIA y Databricks. Adem\u00e1s, Groq ha optimizado la inferencia de baja latencia para implementaciones en la nube, y Dell ha logrado optimizaciones similares para sistemas locales.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25349\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=960&#038;resize=960%2C566\" alt=\"\" width=\"960\" height=\"566\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=2800 2800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=1833 1833w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama-3.1-c.png?w=1920 1920w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Trabajamos con proyectos clave de la comunidad como vLLM, TensorRT y PyTorch para apoyarlos desde el primer d\u00eda y garantizar que la comunidad est\u00e9 preparada para la implementaci\u00f3n en producci\u00f3n.<\/span><\/p>\n<p><span style=\"font-weight: 400\"><br \/>\n<\/span><span style=\"font-weight: 400\">Esperamos que nuestro lanzamiento de 405B tambi\u00e9n estimule la innovaci\u00f3n en toda la comunidad para facilitar la inferencia y el ajuste fino de modelos de esta escala, as\u00ed como permitir la pr\u00f3xima ola de investigaci\u00f3n en destilaci\u00f3n de modelos.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><b>Pruebe hoy mismo la colecci\u00f3n de modelos Llama 3.1<\/b><\/p>\n<p><span style=\"font-weight: 400\">\u00a0<\/span><span style=\"font-weight: 400\">Estamos emocionados por ver qu\u00e9 hace la comunidad con este trabajo. Hay mucho potencial para crear nuevas experiencias \u00fatiles utilizando el multiling\u00fcismo y la ampliaci\u00f3n del contexto. Con Llama Stack y las nuevas herramientas de seguridad, esperamos seguir construyendo junto con la comunidad de c\u00f3digo abierto de forma responsable. Antes de lanzar un modelo, trabajamos para identificar, evaluar y mitigar los riesgos potenciales a trav\u00e9s de diversas medidas, entre ellas ejercicios de descubrimiento de riesgos previos a la implantaci\u00f3n mediante <\/span><i><span style=\"font-weight: 400\">red<\/span><\/i> <i><span style=\"font-weight: 400\">teaming<\/span><\/i><span style=\"font-weight: 400\"> y puesta a punto de la seguridad. Por ejemplo, realizamos un amplio red <\/span><i><span style=\"font-weight: 400\">teaming<\/span><\/i><span style=\"font-weight: 400\"> con expertos externos e internos para poner a prueba la resistencia de los modelos y encontrar formas inesperadas de utilizarlos. (M\u00e1s informaci\u00f3n sobre c\u00f3mo estamos ampliando nuestra colecci\u00f3n de modelos Llama 3.1 de forma responsable en este <\/span><a href=\"http:\/\/ai.meta.com\/blog\/meta-llama-3-1-ai-responsibility\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">blog<\/span><\/a><span style=\"font-weight: 400\">).<\/span><\/p>\n<p><span style=\"font-weight: 400\"><br \/>\n<\/span><span style=\"font-weight: 400\">Aunque este es nuestro modelo m\u00e1s grande hasta la fecha, creemos que a\u00fan queda mucho terreno por explorar en el futuro, incluidos tama\u00f1os m\u00e1s adaptados a los dispositivos, modalidades adicionales y una mayor inversi\u00f3n en la capa de la plataforma de agentes. Como siempre, estamos deseando ver todos los incre\u00edbles productos y experiencias que la comunidad crear\u00e1 con estos modelos.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Este<\/span><i><span style=\"font-weight: 400\"> trabajo ha contado con el apoyo de nuestros socios de la comunidad de IA.<\/span><\/i> <i><span style=\"font-weight: 400\">Nos gustar\u00eda dar las gracias y reconocer (por orden alfab\u00e9tico) a:<\/span><\/i> <i><span style=\"font-weight: 400\">Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI y UC Berkeley &#8211; vLLM Project.<\/span><\/i><i><span style=\"font-weight: 400\"><br \/>\n<\/span><\/i><\/p>\n","protected":false},"excerpt":{"rendered":"Hasta hoy, los grandes modelos de lenguaje de c\u00f3digo abierto no alcanzaban el nivel de sus contrapartes de c\u00f3digo cerrado en t\u00e9rminos de caracter\u00edsticas y rendimiento. Hoy, damos inicio a una nueva era con el c\u00f3digo abierto liderando el camino presentando Llama 3.1 405B, que creemos que es el modelo de lenguaje a gran escala de c\u00f3digo abierto m\u00e1s potente hasta la fecha. Con m\u00e1s de 300 millones de descargas totales de todas las versiones de Llama hasta el momento, apenas estamos comenzando. Presentamos Llama 3.1 Llama 3.1 405B es el primer modelo de c\u00f3digo abierto que compite con los principales modelos de IA en lo que respecta a las funciones m\u00e1s avanzadas de conocimientos generales, capacidad de conducci\u00f3n, matem\u00e1ticas, uso de herramientas y traducci\u00f3n multiling\u00fce. Con el lanzamiento del modelo 405B, estamos impulsando la innovaci\u00f3n, con oportunidades de crecimiento y explotaci\u00f3n sin precedentes. Creemos que la \u00faltima generaci\u00f3n de Llama dar\u00e1 rienda suelta a nuevas aplicaciones y paradigmas de modelizaci\u00f3n, incluida la generaci\u00f3n de datos sint\u00e9ticos para permitir la mejora y el entrenamiento de modelos m\u00e1s peque\u00f1os, as\u00ed como la destilaci\u00f3n de modelos, una capacidad que nunca se ha logrado a esta escala en c\u00f3digo abierto. Como parte de este \u00faltimo lanzamiento, presentamos versiones actualizadas de los modelos 8B y 70B. Son multiling\u00fces y tienen una longitud de contexto significativamente mayor, de 128K, un uso de herramientas de \u00faltima generaci\u00f3n y capacidades de razonamiento m\u00e1s potentes en general. Esto permite que nuestros \u00faltimos modelos sean compatibles con casos de uso avanzados, como el resumen de textos largos, los agentes conversacionales multiling\u00fces y los asistentes de codificaci\u00f3n. Tambi\u00e9n hemos introducido cambios en nuestra licencia, lo que permite a los desarrolladores utilizar los resultados de los modelos Llama -incluido el 405B- para mejorar otros modelos. Fieles a nuestro compromiso con el c\u00f3digo abierto, a partir de hoy ponemos estos modelos a disposici\u00f3n de la comunidad para su descarga en llama.meta.com y Hugging Face, adem\u00e1s de estar disponibles para su desarrollo inmediato en nuestro amplio ecosistema de plataformas asociadas. Evaluaci\u00f3n de modelos Para esta versi\u00f3n, hemos evaluado el rendimiento en m\u00e1s de 150 conjuntos de datos de referencia que abarcan una amplia variedad de idiomas. Adem\u00e1s, hemos llevado a cabo evaluaciones humanas exhaustivas que comparan Llama 3.1 con modelos de la competencia en escenarios reales. Nuestra evaluaci\u00f3n experimental sugiere que nuestro modelo b\u00e1sico es competitivo con los principales modelos de base en una serie de tareas, como GPT-4, GPT-4o y Claude 3.5 Sonnet. Adem\u00e1s, nuestros modelos m\u00e1s peque\u00f1os son competitivos con modelos cerrados y abiertos que tienen un n\u00famero similar de par\u00e1metros. Arquitectura del modelo El entrenamiento de Llama 3.1 405B con m\u00e1s de 15 billones de tokens, nuestro mayor modelo hasta la fecha, supuso un gran reto. Para poder entrenar a esta escala y conseguir los resultados que hemos obtenido en un tiempo razonable, hemos optimizado de forma significativa toda nuestra estructura de entrenamiento y hemos aumentado el entrenamiento de nuestro modelo a m\u00e1s de 16.000 GPU H100, lo que convierte a la 405B en el primer modelo Llama entrenado a esta escala. Para solucionarlo, tomamos decisiones de dise\u00f1o centradas en mantener el proceso de desarrollo del modelo escalable y sencillo. Para maximizar la estabilidad del entrenamiento, optamos por una arquitectura est\u00e1ndar de modelo de transformador con descodificador, con peque\u00f1as adaptaciones, en lugar de un modelo mixto experto. Adoptamos un procedimiento iterativo de post-entrenamiento, en el que cada ronda utiliza un ajuste fino supervisado y una optimizaci\u00f3n directa de las preferencias. Esto nos permiti\u00f3 crear datos sint\u00e9ticos de la m\u00e1xima calidad para cada ronda y mejorar el rendimiento de cada capacidad. En comparaci\u00f3n con versiones anteriores de Llama, hemos mejorado la cantidad y la calidad de los datos que utilizamos en el preentrenamiento y el postentrenamiento. Estas mejoras incluyen el desarrollo de procesos de preprocesamiento y curaci\u00f3n m\u00e1s cuidadosos para los datos de preentrenamiento y el desarrollo de enfoques de filtrado y control de calidad m\u00e1s rigurosos para los datos de postentrenamiento. Como esperaban las leyes de escalado de los modelos de lenguaje, nuestro nuevo modelo b\u00e1sico supera a los modelos m\u00e1s peque\u00f1os entrenados con el mismo procedimiento. Tambi\u00e9n utilizamos el modelo de par\u00e1metros 405B para mejorar la calidad del postentrenamiento de nuestros modelos m\u00e1s peque\u00f1os. Para que un modelo de la escala del 405B pueda realizar inferencias a gran escala, hemos cuantificado nuestros modelos de 16 bits (BF16) a 8 bits (FP8), reduciendo as\u00ed los requisitos inform\u00e1ticos necesarios y permitiendo que el modelo se ejecute en un \u00fanico nodo servidor. Configuraci\u00f3n de instrucciones y chat Con Llama 3.1 405B, nos esforzamos por mejorar la utilidad, la calidad y la capacidad de seguir instrucciones detalladas de los modelos en respuesta a las instrucciones de los usuarios, garantizando al mismo tiempo altos niveles de seguridad. Nuestros mayores retos fueron dar soporte a m\u00e1s funciones, la ventana contextual de 128K y el mayor tama\u00f1o de los modelos. En el postentrenamiento, produjimos modelos de chat finales realizando varias rondas de alineaci\u00f3n sobre el modelo preentrenado. Cada ronda implica un ajuste fino supervisado (SFT), un muestreo de rechazo (RS) y una optimizaci\u00f3n directa de preferencias (DPO). Utilizamos la generaci\u00f3n de datos sint\u00e9ticos para producir la gran mayor\u00eda de nuestros ejemplos de SFT, iterando varias veces para producir datos sint\u00e9ticos cada vez de mayor calidad en todas las caracter\u00edsticas. Adem\u00e1s, invertimos en m\u00faltiples t\u00e9cnicas de procesamiento de datos para filtrar estos datos sint\u00e9ticos con la m\u00e1xima calidad. Esto nos permite escalar la cantidad de datos ajustados entre recursos. Equilibramos cuidadosamente los datos para producir un modelo de alta calidad en todas las caracter\u00edsticas. Por ejemplo, mantenemos la calidad de nuestro modelo en las pruebas comparativas de contexto corto, incluso cuando ampliamos a 128K de contexto. Del mismo modo, nuestro modelo sigue proporcionando respuestas extremadamente \u00fatiles, incluso cuando a\u00f1adimos mitigaciones de seguridad. El sistema Llama Las plantillas Llama siempre han estado pensadas para funcionar como parte de un sistema global que puede orquestar varios componentes, incluida la llamada a herramientas externas. Nuestra visi\u00f3n es ir m\u00e1s all\u00e1 de las plantillas b\u00e1sicas para dar a los desarrolladores acceso a un sistema m\u00e1s amplio que les proporcione la flexibilidad necesaria para dise\u00f1ar y crear ofertas personalizadas que se ajusten a su visi\u00f3n. Esta reflexi\u00f3n comenz\u00f3 el a\u00f1o pasado, cuando introdujimos por primera vez la incorporaci\u00f3n de componentes ajenos al n\u00facleo del LLM. &nbsp; Como parte de nuestros continuos esfuerzos por desarrollar responsablemente la IA m\u00e1s all\u00e1 de la capa del modelo y ayudar a otros a hacer lo mismo, estamos lanzando un sistema de referencia completo que incluye varias aplicaciones de muestra, as\u00ed como nuevos componentes como Llama Guard 3, un modelo de seguridad multiling\u00fce, y Prompt Guard, un filtro de inyecci\u00f3n inmediata. Estas aplicaciones de muestra son de c\u00f3digo abierto y pueden ser desarrolladas por la comunidad. &nbsp; La implementaci\u00f3n de los componentes de esta visi\u00f3n del sistema Llama sigue estando fragmentada. Por eso hemos empezado a trabajar con la industria, las startups y la comunidad en general para ayudar a definir mejor las interfaces de estos componentes. Para apoyar esto, estamos lanzando una solicitud de comentarios en GitHub para lo que llamamos el \u00abLlama Stack\u00bb. Llama Stack es un conjunto de interfaces estandarizadas y basadas en opiniones sobre c\u00f3mo construir componentes can\u00f3nicos del conjunto de herramientas (ajuste fino, generaci\u00f3n de datos sint\u00e9ticos) y aplicaciones de agentes. Esperamos que se adopten en todo el ecosistema para facilitar la interoperabilidad. Agradeceremos comentarios y formas de mejorar la propuesta. Nos entusiasma la idea de ampliar el ecosistema en torno a Llama y reducir las barreras para desarrolladores y proveedores de plataformas. La apertura impulsa la innovaci\u00f3n A diferencia de los modelos cerrados, Llama se puede descargar. Los desarrolladores pueden personalizar completamente los modelos seg\u00fan sus necesidades y aplicaciones, entrenarlos con nuevos conjuntos de datos y realizar ajustes adicionales. De este modo, la comunidad de desarrolladores y el resto del mundo pueden aprovechar mejor el potencial de la IA generativa. Los desarrolladores pueden personalizar completamente sus aplicaciones y ejecutarlas en cualquier entorno, ya sea en las instalaciones, en la nube o incluso localmente en un port\u00e1til, todo ello sin compartir datos con Meta. &nbsp; Aunque muchos podr\u00edan argumentar que los modelos cerrados son m\u00e1s econ\u00f3micos, los modelos Llama ofrecen uno de los costes por token m\u00e1s bajos del sector, seg\u00fan las pruebas realizadas por Artificial Analysis. Y, como Mark Zuckerberg comparti\u00f3, el c\u00f3digo abierto garantizar\u00e1 que m\u00e1s personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de unos pocos y que la tecnolog\u00eda pueda implantarse de forma m\u00e1s uniforme y segura en toda la sociedad. Por eso seguimos dando pasos en el camino para que la IA de acceso abierto se convierta en la norma del sector. &nbsp; Hemos visto a la comunidad construir cosas incre\u00edbles con modelos anteriores de Llama, incluyendo un \u00abcompa\u00f1ero de estudio\u00bb creado con Llama e implementado en WhatsApp y Messenger, un modelo de lenguaje del \u00e1rea m\u00e9dica dise\u00f1ado para ayudar a tomar decisiones cl\u00ednicas, y una organizaci\u00f3n sanitaria sin \u00e1nimo de lucro en Brasil que organiza y comunica a los pacientes informaci\u00f3n sobre su hospitalizaci\u00f3n, todo ello con seguridad de datos. Estamos impacientes por ver lo que la comunidad construir\u00e1 con nuestros \u00faltimos modelos, gracias al poder del c\u00f3digo abierto. Construir con Llama 3.1 405B Para el desarrollador medio, utilizar un modelo de la escala del 405B es todo un reto. Aunque se trata de un modelo incre\u00edblemente potente, somos conscientes de que requiere importantes recursos inform\u00e1ticos y experiencia para trabajar con \u00e9l. Hablamos con la comunidad y nos dimos cuenta de que el desarrollo de IA generativa es mucho m\u00e1s que modelos de est\u00edmulos.\u00a0 Queremos que todo el mundo pueda sacar el m\u00e1ximo partido del 405B: &nbsp; Inferencia en tiempo real y por lotes Ajuste fino supervisado Evaluaci\u00f3n del modelo para su aplicaci\u00f3n espec\u00edfica Preentrenamiento continuo Generaci\u00f3n aumentada de recuperaci\u00f3n (RAG) Llamada a funciones Generaci\u00f3n de datos sint\u00e9ticos Aqu\u00ed es donde el ecosistema Llama puede ayudar. Desde el primer d\u00eda, los desarrolladores pueden aprovechar todas las funciones avanzadas del modelo 405B y empezar a construir inmediatamente. Los desarrolladores tambi\u00e9n pueden explorar flujos de trabajo avanzados como la generaci\u00f3n de datos sint\u00e9ticos f\u00e1ciles de usar, seguir instrucciones preparadas para la destilaci\u00f3n de modelos y habilitar RAG continua con soluciones de socios como AWS, NVIDIA y Databricks. Adem\u00e1s, Groq ha optimizado la inferencia de baja latencia para implementaciones en la nube, y Dell ha logrado optimizaciones similares para sistemas locales. Trabajamos con proyectos clave de la comunidad como vLLM, TensorRT y PyTorch para apoyarlos desde el primer d\u00eda y garantizar que la comunidad est\u00e9 preparada para la implementaci\u00f3n en producci\u00f3n. Esperamos que nuestro lanzamiento de 405B tambi\u00e9n estimule la innovaci\u00f3n en toda la comunidad para facilitar la inferencia y el ajuste fino de modelos de esta escala, as\u00ed como permitir la pr\u00f3xima ola de investigaci\u00f3n en destilaci\u00f3n de modelos. &nbsp; Pruebe hoy mismo la colecci\u00f3n de modelos Llama 3.1 \u00a0Estamos emocionados por ver qu\u00e9 hace la comunidad con este trabajo. Hay mucho potencial para crear nuevas experiencias \u00fatiles utilizando el multiling\u00fcismo y la ampliaci\u00f3n del contexto. Con Llama Stack y las nuevas herramientas de seguridad, esperamos seguir construyendo junto con la comunidad de c\u00f3digo abierto de forma responsable. Antes de lanzar un modelo, trabajamos para identificar, evaluar y mitigar los riesgos potenciales a trav\u00e9s de diversas medidas, entre ellas ejercicios de descubrimiento de riesgos previos a la implantaci\u00f3n mediante red teaming y puesta a punto de la seguridad. Por ejemplo, realizamos un amplio red teaming con expertos externos e internos para poner a prueba la resistencia de los modelos y encontrar formas inesperadas de utilizarlos. (M\u00e1s informaci\u00f3n sobre c\u00f3mo estamos ampliando nuestra colecci\u00f3n de modelos Llama 3.1 de forma responsable en este blog). Aunque este es nuestro modelo m\u00e1s grande hasta la fecha, creemos que a\u00fan queda mucho terreno por explorar en el futuro, incluidos tama\u00f1os m\u00e1s adaptados a los dispositivos, modalidades adicionales y una mayor inversi\u00f3n en la capa de la plataforma de agentes. Como siempre, estamos deseando ver todos los incre\u00edbles productos y experiencias que la comunidad crear\u00e1 con estos modelos. &nbsp; Este trabajo ha contado con el apoyo de nuestros socios de la comunidad de IA. Nos gustar\u00eda dar las gracias y reconocer (por orden alfab\u00e9tico) a: Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI y UC Berkeley &#8211; vLLM Project.","protected":false},"author":155592861,"featured_media":25350,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948263,243947986,243948117],"tags":[],"class_list":["post-25337","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia","category-innovacion","category-tecnologia-e-innovacion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Hasta hoy, los grandes modelos de lenguaje de c\u00f3digo abierto no alcanzaban el nivel de sus contrapartes de c\u00f3digo cerrado en t\u00e9rminos de caracter\u00edsticas y rendimiento. Hoy, damos inicio a una nueva era con el c\u00f3digo abierto liderando el camino presentando Llama 3.1 405B, que creemos que es el modelo de lenguaje a gran escala de c\u00f3digo abierto m\u00e1s potente hasta la fecha. Con m\u00e1s de 300 millones de descargas totales de todas las versiones de Llama hasta el momento, apenas estamos comenzando. Presentamos Llama 3.1 Llama 3.1 405B es el primer modelo de c\u00f3digo abierto que compite con los principales modelos de IA en lo que respecta a las funciones m\u00e1s avanzadas de conocimientos generales, capacidad de conducci\u00f3n, matem\u00e1ticas, uso de herramientas y traducci\u00f3n multiling\u00fce. Con el lanzamiento del modelo 405B, estamos impulsando la innovaci\u00f3n, con oportunidades de crecimiento y explotaci\u00f3n sin precedentes. Creemos que la \u00faltima generaci\u00f3n de Llama dar\u00e1 rienda suelta a nuevas aplicaciones y paradigmas de modelizaci\u00f3n, incluida la generaci\u00f3n de datos sint\u00e9ticos para permitir la mejora y el entrenamiento de modelos m\u00e1s peque\u00f1os, as\u00ed como la destilaci\u00f3n de modelos, una capacidad que nunca se ha logrado a esta escala en c\u00f3digo abierto. Como parte de este \u00faltimo lanzamiento, presentamos versiones actualizadas de los modelos 8B y 70B. Son multiling\u00fces y tienen una longitud de contexto significativamente mayor, de 128K, un uso de herramientas de \u00faltima generaci\u00f3n y capacidades de razonamiento m\u00e1s potentes en general. Esto permite que nuestros \u00faltimos modelos sean compatibles con casos de uso avanzados, como el resumen de textos largos, los agentes conversacionales multiling\u00fces y los asistentes de codificaci\u00f3n. Tambi\u00e9n hemos introducido cambios en nuestra licencia, lo que permite a los desarrolladores utilizar los resultados de los modelos Llama -incluido el 405B- para mejorar otros modelos. Fieles a nuestro compromiso con el c\u00f3digo abierto, a partir de hoy ponemos estos modelos a disposici\u00f3n de la comunidad para su descarga en llama.meta.com y Hugging Face, adem\u00e1s de estar disponibles para su desarrollo inmediato en nuestro amplio ecosistema de plataformas asociadas. Evaluaci\u00f3n de modelos Para esta versi\u00f3n, hemos evaluado el rendimiento en m\u00e1s de 150 conjuntos de datos de referencia que abarcan una amplia variedad de idiomas. Adem\u00e1s, hemos llevado a cabo evaluaciones humanas exhaustivas que comparan Llama 3.1 con modelos de la competencia en escenarios reales. Nuestra evaluaci\u00f3n experimental sugiere que nuestro modelo b\u00e1sico es competitivo con los principales modelos de base en una serie de tareas, como GPT-4, GPT-4o y Claude 3.5 Sonnet. Adem\u00e1s, nuestros modelos m\u00e1s peque\u00f1os son competitivos con modelos cerrados y abiertos que tienen un n\u00famero similar de par\u00e1metros. Arquitectura del modelo El entrenamiento de Llama 3.1 405B con m\u00e1s de 15 billones de tokens, nuestro mayor modelo hasta la fecha, supuso un gran reto. Para poder entrenar a esta escala y conseguir los resultados que hemos obtenido en un tiempo razonable, hemos optimizado de forma significativa toda nuestra estructura de entrenamiento y hemos aumentado el entrenamiento de nuestro modelo a m\u00e1s de 16.000 GPU H100, lo que convierte a la 405B en el primer modelo Llama entrenado a esta escala. Para solucionarlo, tomamos decisiones de dise\u00f1o centradas en mantener el proceso de desarrollo del modelo escalable y sencillo. Para maximizar la estabilidad del entrenamiento, optamos por una arquitectura est\u00e1ndar de modelo de transformador con descodificador, con peque\u00f1as adaptaciones, en lugar de un modelo mixto experto. Adoptamos un procedimiento iterativo de post-entrenamiento, en el que cada ronda utiliza un ajuste fino supervisado y una optimizaci\u00f3n directa de las preferencias. Esto nos permiti\u00f3 crear datos sint\u00e9ticos de la m\u00e1xima calidad para cada ronda y mejorar el rendimiento de cada capacidad. En comparaci\u00f3n con versiones anteriores de Llama, hemos mejorado la cantidad y la calidad de los datos que utilizamos en el preentrenamiento y el postentrenamiento. Estas mejoras incluyen el desarrollo de procesos de preprocesamiento y curaci\u00f3n m\u00e1s cuidadosos para los datos de preentrenamiento y el desarrollo de enfoques de filtrado y control de calidad m\u00e1s rigurosos para los datos de postentrenamiento. Como esperaban las leyes de escalado de los modelos de lenguaje, nuestro nuevo modelo b\u00e1sico supera a los modelos m\u00e1s peque\u00f1os entrenados con el mismo procedimiento. Tambi\u00e9n utilizamos el modelo de par\u00e1metros 405B para mejorar la calidad del postentrenamiento de nuestros modelos m\u00e1s peque\u00f1os. Para que un modelo de la escala del 405B pueda realizar inferencias a gran escala, hemos cuantificado nuestros modelos de 16 bits (BF16) a 8 bits (FP8), reduciendo as\u00ed los requisitos inform\u00e1ticos necesarios y permitiendo que el modelo se ejecute en un \u00fanico nodo servidor. Configuraci\u00f3n de instrucciones y chat Con Llama 3.1 405B, nos esforzamos por mejorar la utilidad, la calidad y la capacidad de seguir instrucciones detalladas de los modelos en respuesta a las instrucciones de los usuarios, garantizando al mismo tiempo altos niveles de seguridad. Nuestros mayores retos fueron dar soporte a m\u00e1s funciones, la ventana contextual de 128K y el mayor tama\u00f1o de los modelos. En el postentrenamiento, produjimos modelos de chat finales realizando varias rondas de alineaci\u00f3n sobre el modelo preentrenado. Cada ronda implica un ajuste fino supervisado (SFT), un muestreo de rechazo (RS) y una optimizaci\u00f3n directa de preferencias (DPO). Utilizamos la generaci\u00f3n de datos sint\u00e9ticos para producir la gran mayor\u00eda de nuestros ejemplos de SFT, iterando varias veces para producir datos sint\u00e9ticos cada vez de mayor calidad en todas las caracter\u00edsticas. Adem\u00e1s, invertimos en m\u00faltiples t\u00e9cnicas de procesamiento de datos para filtrar estos datos sint\u00e9ticos con la m\u00e1xima calidad. Esto nos permite escalar la cantidad de datos ajustados entre recursos. Equilibramos cuidadosamente los datos para producir un modelo de alta calidad en todas las caracter\u00edsticas. Por ejemplo, mantenemos la calidad de nuestro modelo en las pruebas comparativas de contexto corto, incluso cuando ampliamos a 128K de contexto. Del mismo modo, nuestro modelo sigue proporcionando respuestas extremadamente \u00fatiles, incluso cuando a\u00f1adimos mitigaciones de seguridad. El sistema Llama Las plantillas Llama siempre han estado pensadas para funcionar como parte de un sistema global que puede orquestar varios componentes, incluida la llamada a herramientas externas. Nuestra visi\u00f3n es ir m\u00e1s all\u00e1 de las plantillas b\u00e1sicas para dar a los desarrolladores acceso a un sistema m\u00e1s amplio que les proporcione la flexibilidad necesaria para dise\u00f1ar y crear ofertas personalizadas que se ajusten a su visi\u00f3n. Esta reflexi\u00f3n comenz\u00f3 el a\u00f1o pasado, cuando introdujimos por primera vez la incorporaci\u00f3n de componentes ajenos al n\u00facleo del LLM. &nbsp; Como parte de nuestros continuos esfuerzos por desarrollar responsablemente la IA m\u00e1s all\u00e1 de la capa del modelo y ayudar a otros a hacer lo mismo, estamos lanzando un sistema de referencia completo que incluye varias aplicaciones de muestra, as\u00ed como nuevos componentes como Llama Guard 3, un modelo de seguridad multiling\u00fce, y Prompt Guard, un filtro de inyecci\u00f3n inmediata. Estas aplicaciones de muestra son de c\u00f3digo abierto y pueden ser desarrolladas por la comunidad. &nbsp; La implementaci\u00f3n de los componentes de esta visi\u00f3n del sistema Llama sigue estando fragmentada. Por eso hemos empezado a trabajar con la industria, las startups y la comunidad en general para ayudar a definir mejor las interfaces de estos componentes. Para apoyar esto, estamos lanzando una solicitud de comentarios en GitHub para lo que llamamos el \u00abLlama Stack\u00bb. Llama Stack es un conjunto de interfaces estandarizadas y basadas en opiniones sobre c\u00f3mo construir componentes can\u00f3nicos del conjunto de herramientas (ajuste fino, generaci\u00f3n de datos sint\u00e9ticos) y aplicaciones de agentes. Esperamos que se adopten en todo el ecosistema para facilitar la interoperabilidad. Agradeceremos comentarios y formas de mejorar la propuesta. Nos entusiasma la idea de ampliar el ecosistema en torno a Llama y reducir las barreras para desarrolladores y proveedores de plataformas. La apertura impulsa la innovaci\u00f3n A diferencia de los modelos cerrados, Llama se puede descargar. Los desarrolladores pueden personalizar completamente los modelos seg\u00fan sus necesidades y aplicaciones, entrenarlos con nuevos conjuntos de datos y realizar ajustes adicionales. De este modo, la comunidad de desarrolladores y el resto del mundo pueden aprovechar mejor el potencial de la IA generativa. Los desarrolladores pueden personalizar completamente sus aplicaciones y ejecutarlas en cualquier entorno, ya sea en las instalaciones, en la nube o incluso localmente en un port\u00e1til, todo ello sin compartir datos con Meta. &nbsp; Aunque muchos podr\u00edan argumentar que los modelos cerrados son m\u00e1s econ\u00f3micos, los modelos Llama ofrecen uno de los costes por token m\u00e1s bajos del sector, seg\u00fan las pruebas realizadas por Artificial Analysis. Y, como Mark Zuckerberg comparti\u00f3, el c\u00f3digo abierto garantizar\u00e1 que m\u00e1s personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de unos pocos y que la tecnolog\u00eda pueda implantarse de forma m\u00e1s uniforme y segura en toda la sociedad. Por eso seguimos dando pasos en el camino para que la IA de acceso abierto se convierta en la norma del sector. &nbsp; Hemos visto a la comunidad construir cosas incre\u00edbles con modelos anteriores de Llama, incluyendo un \u00abcompa\u00f1ero de estudio\u00bb creado con Llama e implementado en WhatsApp y Messenger, un modelo de lenguaje del \u00e1rea m\u00e9dica dise\u00f1ado para ayudar a tomar decisiones cl\u00ednicas, y una organizaci\u00f3n sanitaria sin \u00e1nimo de lucro en Brasil que organiza y comunica a los pacientes informaci\u00f3n sobre su hospitalizaci\u00f3n, todo ello con seguridad de datos. Estamos impacientes por ver lo que la comunidad construir\u00e1 con nuestros \u00faltimos modelos, gracias al poder del c\u00f3digo abierto. Construir con Llama 3.1 405B Para el desarrollador medio, utilizar un modelo de la escala del 405B es todo un reto. Aunque se trata de un modelo incre\u00edblemente potente, somos conscientes de que requiere importantes recursos inform\u00e1ticos y experiencia para trabajar con \u00e9l. Hablamos con la comunidad y nos dimos cuenta de que el desarrollo de IA generativa es mucho m\u00e1s que modelos de est\u00edmulos.\u00a0 Queremos que todo el mundo pueda sacar el m\u00e1ximo partido del 405B: &nbsp; Inferencia en tiempo real y por lotes Ajuste fino supervisado Evaluaci\u00f3n del modelo para su aplicaci\u00f3n espec\u00edfica Preentrenamiento continuo Generaci\u00f3n aumentada de recuperaci\u00f3n (RAG) Llamada a funciones Generaci\u00f3n de datos sint\u00e9ticos Aqu\u00ed es donde el ecosistema Llama puede ayudar. Desde el primer d\u00eda, los desarrolladores pueden aprovechar todas las funciones avanzadas del modelo 405B y empezar a construir inmediatamente. Los desarrolladores tambi\u00e9n pueden explorar flujos de trabajo avanzados como la generaci\u00f3n de datos sint\u00e9ticos f\u00e1ciles de usar, seguir instrucciones preparadas para la destilaci\u00f3n de modelos y habilitar RAG continua con soluciones de socios como AWS, NVIDIA y Databricks. Adem\u00e1s, Groq ha optimizado la inferencia de baja latencia para implementaciones en la nube, y Dell ha logrado optimizaciones similares para sistemas locales. Trabajamos con proyectos clave de la comunidad como vLLM, TensorRT y PyTorch para apoyarlos desde el primer d\u00eda y garantizar que la comunidad est\u00e9 preparada para la implementaci\u00f3n en producci\u00f3n. Esperamos que nuestro lanzamiento de 405B tambi\u00e9n estimule la innovaci\u00f3n en toda la comunidad para facilitar la inferencia y el ajuste fino de modelos de esta escala, as\u00ed como permitir la pr\u00f3xima ola de investigaci\u00f3n en destilaci\u00f3n de modelos. &nbsp; Pruebe hoy mismo la colecci\u00f3n de modelos Llama 3.1 \u00a0Estamos emocionados por ver qu\u00e9 hace la comunidad con este trabajo. Hay mucho potencial para crear nuevas experiencias \u00fatiles utilizando el multiling\u00fcismo y la ampliaci\u00f3n del contexto. Con Llama Stack y las nuevas herramientas de seguridad, esperamos seguir construyendo junto con la comunidad de c\u00f3digo abierto de forma responsable. Antes de lanzar un modelo, trabajamos para identificar, evaluar y mitigar los riesgos potenciales a trav\u00e9s de diversas medidas, entre ellas ejercicios de descubrimiento de riesgos previos a la implantaci\u00f3n mediante red teaming y puesta a punto de la seguridad. Por ejemplo, realizamos un amplio red teaming con expertos externos e internos para poner a prueba la resistencia de los modelos y encontrar formas inesperadas de utilizarlos. (M\u00e1s informaci\u00f3n sobre c\u00f3mo estamos ampliando nuestra colecci\u00f3n de modelos Llama 3.1 de forma responsable en este blog). Aunque este es nuestro modelo m\u00e1s grande hasta la fecha, creemos que a\u00fan queda mucho terreno por explorar en el futuro, incluidos tama\u00f1os m\u00e1s adaptados a los dispositivos, modalidades adicionales y una mayor inversi\u00f3n en la capa de la plataforma de agentes. Como siempre, estamos deseando ver todos los incre\u00edbles productos y experiencias que la comunidad crear\u00e1 con estos modelos. &nbsp; Este trabajo ha contado con el apoyo de nuestros socios de la comunidad de IA. Nos gustar\u00eda dar las gracias y reconocer (por orden alfab\u00e9tico) a: Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI y UC Berkeley &#8211; vLLM Project.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-07-23T15:05:28+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-23T16:05:45+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?resize=1024,572\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"572\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\"},\"author\":\"Facebook company\",\"headline\":\"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha\",\"datePublished\":\"2024-07-23T15:05:28+00:00\",\"dateModified\":\"2024-07-23T16:05:45+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\"},\"wordCount\":2277,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696\",\"articleSection\":[\"IA\",\"Innovaci\u00f3n\",\"Tecnolog\u00eda e Innovaci\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\",\"name\":\"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696\",\"datePublished\":\"2024-07-23T15:05:28+00:00\",\"dateModified\":\"2024-07-23T16:05:45+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696\",\"width\":1246,\"height\":696},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/","og_locale":"es_ES","og_type":"article","og_title":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta","og_description":"Hasta hoy, los grandes modelos de lenguaje de c\u00f3digo abierto no alcanzaban el nivel de sus contrapartes de c\u00f3digo cerrado en t\u00e9rminos de caracter\u00edsticas y rendimiento. Hoy, damos inicio a una nueva era con el c\u00f3digo abierto liderando el camino presentando Llama 3.1 405B, que creemos que es el modelo de lenguaje a gran escala de c\u00f3digo abierto m\u00e1s potente hasta la fecha. Con m\u00e1s de 300 millones de descargas totales de todas las versiones de Llama hasta el momento, apenas estamos comenzando. Presentamos Llama 3.1 Llama 3.1 405B es el primer modelo de c\u00f3digo abierto que compite con los principales modelos de IA en lo que respecta a las funciones m\u00e1s avanzadas de conocimientos generales, capacidad de conducci\u00f3n, matem\u00e1ticas, uso de herramientas y traducci\u00f3n multiling\u00fce. Con el lanzamiento del modelo 405B, estamos impulsando la innovaci\u00f3n, con oportunidades de crecimiento y explotaci\u00f3n sin precedentes. Creemos que la \u00faltima generaci\u00f3n de Llama dar\u00e1 rienda suelta a nuevas aplicaciones y paradigmas de modelizaci\u00f3n, incluida la generaci\u00f3n de datos sint\u00e9ticos para permitir la mejora y el entrenamiento de modelos m\u00e1s peque\u00f1os, as\u00ed como la destilaci\u00f3n de modelos, una capacidad que nunca se ha logrado a esta escala en c\u00f3digo abierto. Como parte de este \u00faltimo lanzamiento, presentamos versiones actualizadas de los modelos 8B y 70B. Son multiling\u00fces y tienen una longitud de contexto significativamente mayor, de 128K, un uso de herramientas de \u00faltima generaci\u00f3n y capacidades de razonamiento m\u00e1s potentes en general. Esto permite que nuestros \u00faltimos modelos sean compatibles con casos de uso avanzados, como el resumen de textos largos, los agentes conversacionales multiling\u00fces y los asistentes de codificaci\u00f3n. Tambi\u00e9n hemos introducido cambios en nuestra licencia, lo que permite a los desarrolladores utilizar los resultados de los modelos Llama -incluido el 405B- para mejorar otros modelos. Fieles a nuestro compromiso con el c\u00f3digo abierto, a partir de hoy ponemos estos modelos a disposici\u00f3n de la comunidad para su descarga en llama.meta.com y Hugging Face, adem\u00e1s de estar disponibles para su desarrollo inmediato en nuestro amplio ecosistema de plataformas asociadas. Evaluaci\u00f3n de modelos Para esta versi\u00f3n, hemos evaluado el rendimiento en m\u00e1s de 150 conjuntos de datos de referencia que abarcan una amplia variedad de idiomas. Adem\u00e1s, hemos llevado a cabo evaluaciones humanas exhaustivas que comparan Llama 3.1 con modelos de la competencia en escenarios reales. Nuestra evaluaci\u00f3n experimental sugiere que nuestro modelo b\u00e1sico es competitivo con los principales modelos de base en una serie de tareas, como GPT-4, GPT-4o y Claude 3.5 Sonnet. Adem\u00e1s, nuestros modelos m\u00e1s peque\u00f1os son competitivos con modelos cerrados y abiertos que tienen un n\u00famero similar de par\u00e1metros. Arquitectura del modelo El entrenamiento de Llama 3.1 405B con m\u00e1s de 15 billones de tokens, nuestro mayor modelo hasta la fecha, supuso un gran reto. Para poder entrenar a esta escala y conseguir los resultados que hemos obtenido en un tiempo razonable, hemos optimizado de forma significativa toda nuestra estructura de entrenamiento y hemos aumentado el entrenamiento de nuestro modelo a m\u00e1s de 16.000 GPU H100, lo que convierte a la 405B en el primer modelo Llama entrenado a esta escala. Para solucionarlo, tomamos decisiones de dise\u00f1o centradas en mantener el proceso de desarrollo del modelo escalable y sencillo. Para maximizar la estabilidad del entrenamiento, optamos por una arquitectura est\u00e1ndar de modelo de transformador con descodificador, con peque\u00f1as adaptaciones, en lugar de un modelo mixto experto. Adoptamos un procedimiento iterativo de post-entrenamiento, en el que cada ronda utiliza un ajuste fino supervisado y una optimizaci\u00f3n directa de las preferencias. Esto nos permiti\u00f3 crear datos sint\u00e9ticos de la m\u00e1xima calidad para cada ronda y mejorar el rendimiento de cada capacidad. En comparaci\u00f3n con versiones anteriores de Llama, hemos mejorado la cantidad y la calidad de los datos que utilizamos en el preentrenamiento y el postentrenamiento. Estas mejoras incluyen el desarrollo de procesos de preprocesamiento y curaci\u00f3n m\u00e1s cuidadosos para los datos de preentrenamiento y el desarrollo de enfoques de filtrado y control de calidad m\u00e1s rigurosos para los datos de postentrenamiento. Como esperaban las leyes de escalado de los modelos de lenguaje, nuestro nuevo modelo b\u00e1sico supera a los modelos m\u00e1s peque\u00f1os entrenados con el mismo procedimiento. Tambi\u00e9n utilizamos el modelo de par\u00e1metros 405B para mejorar la calidad del postentrenamiento de nuestros modelos m\u00e1s peque\u00f1os. Para que un modelo de la escala del 405B pueda realizar inferencias a gran escala, hemos cuantificado nuestros modelos de 16 bits (BF16) a 8 bits (FP8), reduciendo as\u00ed los requisitos inform\u00e1ticos necesarios y permitiendo que el modelo se ejecute en un \u00fanico nodo servidor. Configuraci\u00f3n de instrucciones y chat Con Llama 3.1 405B, nos esforzamos por mejorar la utilidad, la calidad y la capacidad de seguir instrucciones detalladas de los modelos en respuesta a las instrucciones de los usuarios, garantizando al mismo tiempo altos niveles de seguridad. Nuestros mayores retos fueron dar soporte a m\u00e1s funciones, la ventana contextual de 128K y el mayor tama\u00f1o de los modelos. En el postentrenamiento, produjimos modelos de chat finales realizando varias rondas de alineaci\u00f3n sobre el modelo preentrenado. Cada ronda implica un ajuste fino supervisado (SFT), un muestreo de rechazo (RS) y una optimizaci\u00f3n directa de preferencias (DPO). Utilizamos la generaci\u00f3n de datos sint\u00e9ticos para producir la gran mayor\u00eda de nuestros ejemplos de SFT, iterando varias veces para producir datos sint\u00e9ticos cada vez de mayor calidad en todas las caracter\u00edsticas. Adem\u00e1s, invertimos en m\u00faltiples t\u00e9cnicas de procesamiento de datos para filtrar estos datos sint\u00e9ticos con la m\u00e1xima calidad. Esto nos permite escalar la cantidad de datos ajustados entre recursos. Equilibramos cuidadosamente los datos para producir un modelo de alta calidad en todas las caracter\u00edsticas. Por ejemplo, mantenemos la calidad de nuestro modelo en las pruebas comparativas de contexto corto, incluso cuando ampliamos a 128K de contexto. Del mismo modo, nuestro modelo sigue proporcionando respuestas extremadamente \u00fatiles, incluso cuando a\u00f1adimos mitigaciones de seguridad. El sistema Llama Las plantillas Llama siempre han estado pensadas para funcionar como parte de un sistema global que puede orquestar varios componentes, incluida la llamada a herramientas externas. Nuestra visi\u00f3n es ir m\u00e1s all\u00e1 de las plantillas b\u00e1sicas para dar a los desarrolladores acceso a un sistema m\u00e1s amplio que les proporcione la flexibilidad necesaria para dise\u00f1ar y crear ofertas personalizadas que se ajusten a su visi\u00f3n. Esta reflexi\u00f3n comenz\u00f3 el a\u00f1o pasado, cuando introdujimos por primera vez la incorporaci\u00f3n de componentes ajenos al n\u00facleo del LLM. &nbsp; Como parte de nuestros continuos esfuerzos por desarrollar responsablemente la IA m\u00e1s all\u00e1 de la capa del modelo y ayudar a otros a hacer lo mismo, estamos lanzando un sistema de referencia completo que incluye varias aplicaciones de muestra, as\u00ed como nuevos componentes como Llama Guard 3, un modelo de seguridad multiling\u00fce, y Prompt Guard, un filtro de inyecci\u00f3n inmediata. Estas aplicaciones de muestra son de c\u00f3digo abierto y pueden ser desarrolladas por la comunidad. &nbsp; La implementaci\u00f3n de los componentes de esta visi\u00f3n del sistema Llama sigue estando fragmentada. Por eso hemos empezado a trabajar con la industria, las startups y la comunidad en general para ayudar a definir mejor las interfaces de estos componentes. Para apoyar esto, estamos lanzando una solicitud de comentarios en GitHub para lo que llamamos el \u00abLlama Stack\u00bb. Llama Stack es un conjunto de interfaces estandarizadas y basadas en opiniones sobre c\u00f3mo construir componentes can\u00f3nicos del conjunto de herramientas (ajuste fino, generaci\u00f3n de datos sint\u00e9ticos) y aplicaciones de agentes. Esperamos que se adopten en todo el ecosistema para facilitar la interoperabilidad. Agradeceremos comentarios y formas de mejorar la propuesta. Nos entusiasma la idea de ampliar el ecosistema en torno a Llama y reducir las barreras para desarrolladores y proveedores de plataformas. La apertura impulsa la innovaci\u00f3n A diferencia de los modelos cerrados, Llama se puede descargar. Los desarrolladores pueden personalizar completamente los modelos seg\u00fan sus necesidades y aplicaciones, entrenarlos con nuevos conjuntos de datos y realizar ajustes adicionales. De este modo, la comunidad de desarrolladores y el resto del mundo pueden aprovechar mejor el potencial de la IA generativa. Los desarrolladores pueden personalizar completamente sus aplicaciones y ejecutarlas en cualquier entorno, ya sea en las instalaciones, en la nube o incluso localmente en un port\u00e1til, todo ello sin compartir datos con Meta. &nbsp; Aunque muchos podr\u00edan argumentar que los modelos cerrados son m\u00e1s econ\u00f3micos, los modelos Llama ofrecen uno de los costes por token m\u00e1s bajos del sector, seg\u00fan las pruebas realizadas por Artificial Analysis. Y, como Mark Zuckerberg comparti\u00f3, el c\u00f3digo abierto garantizar\u00e1 que m\u00e1s personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de unos pocos y que la tecnolog\u00eda pueda implantarse de forma m\u00e1s uniforme y segura en toda la sociedad. Por eso seguimos dando pasos en el camino para que la IA de acceso abierto se convierta en la norma del sector. &nbsp; Hemos visto a la comunidad construir cosas incre\u00edbles con modelos anteriores de Llama, incluyendo un \u00abcompa\u00f1ero de estudio\u00bb creado con Llama e implementado en WhatsApp y Messenger, un modelo de lenguaje del \u00e1rea m\u00e9dica dise\u00f1ado para ayudar a tomar decisiones cl\u00ednicas, y una organizaci\u00f3n sanitaria sin \u00e1nimo de lucro en Brasil que organiza y comunica a los pacientes informaci\u00f3n sobre su hospitalizaci\u00f3n, todo ello con seguridad de datos. Estamos impacientes por ver lo que la comunidad construir\u00e1 con nuestros \u00faltimos modelos, gracias al poder del c\u00f3digo abierto. Construir con Llama 3.1 405B Para el desarrollador medio, utilizar un modelo de la escala del 405B es todo un reto. Aunque se trata de un modelo incre\u00edblemente potente, somos conscientes de que requiere importantes recursos inform\u00e1ticos y experiencia para trabajar con \u00e9l. Hablamos con la comunidad y nos dimos cuenta de que el desarrollo de IA generativa es mucho m\u00e1s que modelos de est\u00edmulos.\u00a0 Queremos que todo el mundo pueda sacar el m\u00e1ximo partido del 405B: &nbsp; Inferencia en tiempo real y por lotes Ajuste fino supervisado Evaluaci\u00f3n del modelo para su aplicaci\u00f3n espec\u00edfica Preentrenamiento continuo Generaci\u00f3n aumentada de recuperaci\u00f3n (RAG) Llamada a funciones Generaci\u00f3n de datos sint\u00e9ticos Aqu\u00ed es donde el ecosistema Llama puede ayudar. Desde el primer d\u00eda, los desarrolladores pueden aprovechar todas las funciones avanzadas del modelo 405B y empezar a construir inmediatamente. Los desarrolladores tambi\u00e9n pueden explorar flujos de trabajo avanzados como la generaci\u00f3n de datos sint\u00e9ticos f\u00e1ciles de usar, seguir instrucciones preparadas para la destilaci\u00f3n de modelos y habilitar RAG continua con soluciones de socios como AWS, NVIDIA y Databricks. Adem\u00e1s, Groq ha optimizado la inferencia de baja latencia para implementaciones en la nube, y Dell ha logrado optimizaciones similares para sistemas locales. Trabajamos con proyectos clave de la comunidad como vLLM, TensorRT y PyTorch para apoyarlos desde el primer d\u00eda y garantizar que la comunidad est\u00e9 preparada para la implementaci\u00f3n en producci\u00f3n. Esperamos que nuestro lanzamiento de 405B tambi\u00e9n estimule la innovaci\u00f3n en toda la comunidad para facilitar la inferencia y el ajuste fino de modelos de esta escala, as\u00ed como permitir la pr\u00f3xima ola de investigaci\u00f3n en destilaci\u00f3n de modelos. &nbsp; Pruebe hoy mismo la colecci\u00f3n de modelos Llama 3.1 \u00a0Estamos emocionados por ver qu\u00e9 hace la comunidad con este trabajo. Hay mucho potencial para crear nuevas experiencias \u00fatiles utilizando el multiling\u00fcismo y la ampliaci\u00f3n del contexto. Con Llama Stack y las nuevas herramientas de seguridad, esperamos seguir construyendo junto con la comunidad de c\u00f3digo abierto de forma responsable. Antes de lanzar un modelo, trabajamos para identificar, evaluar y mitigar los riesgos potenciales a trav\u00e9s de diversas medidas, entre ellas ejercicios de descubrimiento de riesgos previos a la implantaci\u00f3n mediante red teaming y puesta a punto de la seguridad. Por ejemplo, realizamos un amplio red teaming con expertos externos e internos para poner a prueba la resistencia de los modelos y encontrar formas inesperadas de utilizarlos. (M\u00e1s informaci\u00f3n sobre c\u00f3mo estamos ampliando nuestra colecci\u00f3n de modelos Llama 3.1 de forma responsable en este blog). Aunque este es nuestro modelo m\u00e1s grande hasta la fecha, creemos que a\u00fan queda mucho terreno por explorar en el futuro, incluidos tama\u00f1os m\u00e1s adaptados a los dispositivos, modalidades adicionales y una mayor inversi\u00f3n en la capa de la plataforma de agentes. Como siempre, estamos deseando ver todos los incre\u00edbles productos y experiencias que la comunidad crear\u00e1 con estos modelos. &nbsp; Este trabajo ha contado con el apoyo de nuestros socios de la comunidad de IA. Nos gustar\u00eda dar las gracias y reconocer (por orden alfab\u00e9tico) a: Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel , Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI y UC Berkeley &#8211; vLLM Project.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/","og_site_name":"Acerca de Meta","article_published_time":"2024-07-23T15:05:28+00:00","article_modified_time":"2024-07-23T16:05:45+00:00","og_image":[{"width":1024,"height":572,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?resize=1024,572","type":"image\/png"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/"},"author":"Facebook company","headline":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha","datePublished":"2024-07-23T15:05:28+00:00","dateModified":"2024-07-23T16:05:45+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/"},"wordCount":2277,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696","articleSection":["IA","Innovaci\u00f3n","Tecnolog\u00eda e Innovaci\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/","url":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/","name":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696","datePublished":"2024-07-23T15:05:28+00:00","dateModified":"2024-07-23T16:05:45+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696","width":1246,"height":696},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/07\/presentamos-llama-3-1-nuestro-modelo-de-lenguaje-a-gran-escala-mas-capaz-hasta-la-fecha\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Presentamos Llama 3.1: nuestro modelo de lenguaje a gran escala m\u00e1s capaz hasta la fecha"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/07\/llama3.1-header.png?fit=1246%2C696","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25337","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25337"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25337\/revisions"}],"predecessor-version":[{"id":25378,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25337\/revisions\/25378"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/25350"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25337"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25337"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25337"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}