{"id":25235,"date":"2024-04-18T10:53:08","date_gmt":"2024-04-18T16:53:08","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25235"},"modified":"2024-04-18T15:15:27","modified_gmt":"2024-04-18T21:15:27","slug":"presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","title":{"rendered":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha"},"content":{"rendered":"<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25235-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/GFNaKRp4LZ9hkIcBAIH8O7ZKA8oqbmdjAAAF.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/GFNaKRp4LZ9hkIcBAIH8O7ZKA8oqbmdjAAAF.mp4\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/GFNaKRp4LZ9hkIcBAIH8O7ZKA8oqbmdjAAAF.mp4<\/a><\/video><\/div>\n<p><strong>Destacados:\u00a0<\/strong><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Hoy presentamos <\/span><b>Meta Llama 3<\/b><span style=\"font-weight: 400\">, la nueva generaci\u00f3n de nuestro modelo de lenguaje a gran escala.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Los modelos de Llama 3 pronto estar\u00e1n disponibles en AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM y Snowflake, y con soporte de plataformas de hardware ofrecidas por AMD, AWS, Dell, Intel, NVIDIA y Qualcomm.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Estamos comprometidos con el desarrollo responsable de Llama 3 y ofrecemos diversos recursos para ayudar a otros a utilizarlo tambi\u00e9n de forma responsable. Esto incluye nuevas herramientas de seguridad y confiabilidad con Llama Guard 2, Code Shield y CyberSec Eval 2.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En los pr\u00f3ximos meses, esperamos introducir nuevas funciones, ventanas contextuales m\u00e1s largas, tama\u00f1os de plantilla adicionales y un rendimiento mejorado, adem\u00e1s de compartir el documento de investigaci\u00f3n sobre Llama 3.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Nos complace compartir los dos primeros modelos de la pr\u00f3xima generaci\u00f3n de Llama, <\/span><b>Meta Llama 3,<\/b><span style=\"font-weight: 400\"> disponibles para un amplio uso. Esta versi\u00f3n presenta modelos de lenguaje pre-entrenados y ajustados a las instrucciones con par\u00e1metros 8B y 70B, que pueden soportar una amplia variedad de casos de uso. Esta nueva generaci\u00f3n de Llama demuestra un rendimiento de vanguardia en una amplia gama de par\u00e1metros de referencia del sector y ofrece nuevas funciones, como la mejora del razonamiento. Creemos que son los mejores modelos de c\u00f3digo abierto de su clase. Y en apoyo de nuestro enfoque de c\u00f3digo abierto de larga data, estamos poniendo Llama 3 en manos de la comunidad. Queremos dar paso a la pr\u00f3xima ola de innovaci\u00f3n en IA en todos los \u00e1mbitos: desde aplicaciones hasta herramientas para desarrolladores, evaluaciones, optimizaciones de inferencia y mucho m\u00e1s.<\/span><\/p>\n<p><b>Nuestros objetivos con Llama 3<\/b><\/p>\n<p><span style=\"font-weight: 400\">Con Llama 3, nos propusimos construir los mejores modelos abiertos que estuvieran a la altura de los mejores modelos propietarios disponibles en la actualidad. Quer\u00edamos incorporar las devoluciones y comentarios de los desarrolladores para aumentar la utilidad general de Llama 3 y lo estamos haciendo sin dejar de liderar en el uso y despliegue responsables de los LLM. Adoptamos la \u00e9tica del c\u00f3digo abierto de publicar r\u00e1pido\u00a0 y con frecuencia para que la comunidad pueda acceder a estos modelos mientras a\u00fan est\u00e1n en desarrollo. Los modelos basados en texto que publicamos hoy son los primeros de la colecci\u00f3n de modelos Llama 3. Nuestro objetivo en un futuro pr\u00f3ximo es hacer que Llama 3 sea multiling\u00fce y multimodal, que tenga un contexto m\u00e1s amplio y que siga mejorando el rendimiento general de las capacidades b\u00e1sicas de LLM, como el razonamiento y la codificaci\u00f3n.<\/span><\/p>\n<p><b>Rendimiento de vanguardia<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nuestros nuevos modelos Llama 3 de par\u00e1metros 8B y 70B suponen un gran salto con respecto a Llama 2 y establecen un nuevo estado del arte para los modelos LLM a esas escalas. Gracias a las mejoras en el pre-entrenamiento y el post-entrenamiento, nuestros modelos pre-entrenados y ajustados a las instrucciones son los mejores en la actualidad a la escala de par\u00e1metros de 8B y 70B. Las mejoras en nuestros procedimientos de post-entrenamiento redujeron sustancialmente las tasas de falsos rechazos, mejoraron la alineaci\u00f3n y aumentaron la diversidad en las respuestas de los modelos. Tambi\u00e9n hemos observado grandes mejoras en capacidades como el razonamiento, la generaci\u00f3n de c\u00f3digo y el seguimiento de instrucciones, lo que hace que Llama 3 sea m\u00e1s dirigible.<\/span><\/p>\n<p style=\"text-align: center\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25238\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=3840 3840w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><span style=\"font-weight: 400\">*Consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En el desarrollo de Llama 3, nos fijamos en el rendimiento del modelo en puntos de referencia est\u00e1ndar y tambi\u00e9n tratamos de optimizar el rendimiento para escenarios del mundo real. Para ello, desarrollamos un nuevo conjunto de evaluaci\u00f3n humana de alta calidad. Este conjunto de evaluaci\u00f3n contiene 1.800 preguntas que cubren 12 casos de uso clave: pedir consejo, lluvia de ideas, clasificaci\u00f3n, respuesta a preguntas cerradas, codificaci\u00f3n, escritura creativa, extracci\u00f3n, adopci\u00f3n de un personaje\/persona, respuesta a preguntas abiertas, razonamiento, reescritura y resumen. Para evitar el sobreajuste accidental de nuestros modelos en este conjunto de evaluaci\u00f3n, ni siquiera nuestros propios equipos de modelizaci\u00f3n tienen acceso a \u00e9l. El siguiente gr\u00e1fico muestra los resultados agregados de nuestras evaluaciones humanas en todas estas categor\u00edas e instrucciones con Claude Sonnet, Mistral Medium y GPT-3.5.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25237\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=960&#038;resize=960%2C602\" alt=\"\" width=\"960\" height=\"602\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=3840 3840w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=1722 1722w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Human-Evaluation.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Las clasificaciones de preferencias de los anotadores humanos basadas en este conjunto de evaluaciones ponen de relieve el gran rendimiento de nuestro modelo de seguimiento de instrucciones 70B en comparaci\u00f3n con modelos de la competencia de tama\u00f1o comparable en escenarios del mundo real.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestro modelo pre-entrenado tambi\u00e9n establece un nuevo estado del arte para los modelos LLM a esas escalas.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25239\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=3840 3840w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-pre-trained-performance.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p style=\"text-align: center\"><span style=\"font-weight: 400\">*Consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para desarrollar un gran modelo ling\u00fc\u00edstico, creemos que es importante innovar, escalar y optimizar para simplificar. Adoptamos esta filosof\u00eda de dise\u00f1o a lo largo de todo el proyecto Llama 3, centr\u00e1ndonos en cuatro ingredientes clave: la arquitectura del modelo, los datos de pre-entrenamiento, la ampliaci\u00f3n del pre-entrenamiento y el ajuste de las instrucciones.<\/span><\/p>\n<p><b>Arquitectura del modelo<\/b><\/p>\n<p><span style=\"font-weight: 400\">De acuerdo con nuestra filosof\u00eda de dise\u00f1o, en Llama 3 hemos optado por una arquitectura de transformador relativamente est\u00e1ndar de s\u00f3lo descodificador. En comparaci\u00f3n con Llama 2, hemos introducido varias mejoras clave. Llama 3 utiliza un tokenizador con un vocabulario de 128.000 tokens que codifica el lenguaje de forma mucho m\u00e1s eficiente, lo que mejora sustancialmente el rendimiento del modelo. Para mejorar la eficacia de inferencia de los modelos de Llama 3, hemos adoptado la atenci\u00f3n a consultas agrupadas (GQA) en los tama\u00f1os 8B y 70B. Entrenamos los modelos en secuencias de 8.192 tokens, utilizando una m\u00e1scara para garantizar que la autoatenci\u00f3n no cruce los l\u00edmites del documento.<\/span><\/p>\n<p><b>Datos de entrenamiento<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para entrenar el mejor modelo ling\u00fc\u00edstico, es fundamental disponer de un conjunto de datos de entrenamiento amplio y de alta calidad. De acuerdo con nuestros principios de dise\u00f1o, hemos invertido mucho en datos de pre-entrenamiento. Llama 3 est\u00e1 pre-entrenado con m\u00e1s de 15T de tokens recogidos de fuentes p\u00fablicas. Nuestro conjunto de datos de entrenamiento es siete veces mayor que el utilizado para Llama 2 e incluye cuatro veces m\u00e1s c\u00f3digo. Para prepararnos para los pr\u00f3ximos casos de uso multiling\u00fce, m\u00e1s del 5% del conjunto de datos de pre-entrenamiento de Llama 3 est\u00e1 formado por datos de alta calidad en lengua no inglesa que abarcan m\u00e1s de 30 idiomas. Sin embargo, no esperamos el mismo nivel de rendimiento en estos idiomas que en ingl\u00e9s.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para asegurarnos de que Llama 3 se entrena con datos de la m\u00e1xima calidad, hemos desarrollado una serie de procesos de filtrado de datos. Estos filtros incluyen filtros heur\u00edsticos, filtros NSFW, enfoques de deduplicaci\u00f3n sem\u00e1ntica y clasificadores de texto para predecir la calidad de los datos. Descubrimos que las generaciones anteriores de Llama son sorprendentemente buenas a la hora de identificar datos de alta calidad, por lo que utilizamos Llama 2 para generar los datos de entrenamiento de los clasificadores de calidad de texto que impulsan Llama 3.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n realizamos experimentos exhaustivos para evaluar las mejores formas de mezclar datos de distintas fuentes en nuestro conjunto de datos final de pre-entrenamiento. Estos experimentos nos permitieron seleccionar una combinaci\u00f3n de datos que garantiza un buen rendimiento de Llama 3 en distintos casos de uso, como preguntas de trivialidades, STEM, codificaci\u00f3n, conocimientos hist\u00f3ricos, etc.<\/span><\/p>\n<p><b>Ampliaci\u00f3n del pre-entrenamiento<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para aprovechar eficazmente nuestros datos de pre-entrenamiento en los modelos de Llama 3, hemos realizado un esfuerzo considerable para ampliar el pre-entrenamiento. En concreto, hemos desarrollado una serie de leyes de escalado detalladas para las evaluaciones de referencia posteriores. Estas leyes de escalado nos permiten seleccionar una combinaci\u00f3n \u00f3ptima de datos y tomar decisiones informadas sobre c\u00f3mo utilizar mejor nuestro c\u00e1lculo de entrenamiento. Y lo que es m\u00e1s importante, las leyes de escalado nos permiten predecir el rendimiento de nuestros modelos m\u00e1s grandes en tareas clave (por ejemplo, la generaci\u00f3n de c\u00f3digo evaluada en la prueba comparativa HumanEval, v\u00e9ase m\u00e1s arriba) antes de entrenar realmente los modelos. Esto nos ayuda a garantizar un buen rendimiento de nuestros modelos finales en una gran variedad de casos de uso y capacidades.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Durante el desarrollo de Llama 3 hicimos varias observaciones nuevas sobre el comportamiento de escalado. Por ejemplo, mientras que la cantidad \u00f3ptima de c\u00e1lculo de entrenamiento de Chinchilla para un modelo de 8B par\u00e1metros corresponde a ~200B tokens, descubrimos que el rendimiento del modelo sigue mejorando incluso despu\u00e9s de que el modelo se entrene con dos \u00f3rdenes de magnitud m\u00e1s de datos. Nuestros modelos de 8B y 70B par\u00e1metros siguieron mejorando de forma log-lineal despu\u00e9s de entrenarlos con hasta 15T de tokens. Los modelos m\u00e1s grandes pueden igualar el rendimiento de estos modelos m\u00e1s peque\u00f1os con menos computaci\u00f3n de entrenamiento, pero en general se prefieren los modelos m\u00e1s peque\u00f1os porque son mucho m\u00e1s eficientes durante la inferencia.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para entrenar los modelos m\u00e1s grandes de Llama 3, combinamos tres tipos de paralelizaci\u00f3n: paralelizaci\u00f3n de datos, paralelizaci\u00f3n de modelos y paralelizaci\u00f3n de canalizaci\u00f3n. Nuestra implementaci\u00f3n m\u00e1s eficiente alcanza una utilizaci\u00f3n computacional de m\u00e1s de 400 TFLOPS por GPU cuando se entrena en 16.000 GPUs simult\u00e1neamente. Realizamos el entrenamiento en dos clusters de <\/span><a href=\"https:\/\/engineering.fb.com\/2024\/03\/12\/data-center-engineering\/building-metas-genai-infrastructure\/\"><span style=\"font-weight: 400\">24K GPU<\/span><\/a><span style=\"font-weight: 400\"> creados a medida. Para maximizar el tiempo de actividad de la GPU, hemos desarrollado una nueva pila de entrenamiento avanzada que automatiza la detecci\u00f3n, gesti\u00f3n y mantenimiento de errores. Tambi\u00e9n hemos mejorado enormemente la fiabilidad del hardware y los mecanismos de detecci\u00f3n de la corrupci\u00f3n silenciosa de datos, y hemos desarrollado nuevos sistemas de almacenamiento escalables que reducen la sobrecarga de los puntos de control y las reversiones. Estas mejoras se tradujeron en un tiempo de entrenamiento efectivo global de m\u00e1s del 95%. Combinadas, estas mejoras aumentaron la eficiencia del entrenamiento de Llama 3 en ~3 veces en comparaci\u00f3n con Llama 2.<\/span><\/p>\n<p><b>Ajuste de instrucciones<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para desbloquear completamente el potencial de nuestros modelos pre-entrenados en casos de uso de chat, tambi\u00e9n innovamos en nuestro enfoque para el ajuste de instrucciones. Nuestro enfoque para la post-entrenamiento es una combinaci\u00f3n de ajuste fino supervisado (SFT), muestreo de rechazo, optimizaci\u00f3n de pol\u00edticas proximales (PPO) y optimizaci\u00f3n de pol\u00edticas directas (DPO). La calidad de las indicaciones que se utilizan en SFT y los rankings de preferencia que se utilizan en PPO y DPO tienen una influencia desproporcionada en el rendimiento de los modelos alineados. Algunas de nuestras mayores mejoras en la calidad del modelo provinieron de la cuidadosa curaci\u00f3n de estos datos y de la realizaci\u00f3n de m\u00faltiples rondas de revisi\u00f3n de la calidad en las anotaciones proporcionadas por los anotadores humanos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Aprender de los rankings de preferencia a trav\u00e9s de PPO y DPO tambi\u00e9n mejor\u00f3 enormemente el rendimiento de Llama 3 en tareas de razonamiento y codificaci\u00f3n. Descubrimos que si le haces una pregunta de razonamiento a un modelo con la que lucha para responder, el modelo a veces producir\u00e1 el rastro de razonamiento correcto: El modelo sabe c\u00f3mo producir la respuesta correcta, pero no sabe c\u00f3mo seleccionarla. El entrenamiento en rankings de preferencia permite al modelo aprender c\u00f3mo seleccionarla.<\/span><\/p>\n<p><b>Construir con Llama 3<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nuestra visi\u00f3n es permitir a los desarrolladores personalizar Llama 3 para que admita casos de uso relevantes y facilite la adopci\u00f3n de mejores pr\u00e1cticas y la mejora del ecosistema abierto. Con esta versi\u00f3n, proporcionamos nuevas herramientas de confianza y seguridad, incluyendo <\/span><a href=\"https:\/\/github.com\/meta-llama\/PurpleLlama\"><span style=\"font-weight: 400\">componentes<\/span><\/a><span style=\"font-weight: 400\"> actualizados con Llama Guard 2 y Cybersec Eval 2, y la introducci\u00f3n de Code Shield, una barrera en tiempo de inferencia para filtrar el c\u00f3digo inseguro producido por los LLM.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n hemos co-desarrollado Llama 3 con <\/span><a href=\"https:\/\/github.com\/pytorch\/torchtune\"><span style=\"font-weight: 400\">torchtune<\/span><\/a><span style=\"font-weight: 400\">, la nueva biblioteca nativa de PyTorch para crear, ajustar y experimentar f\u00e1cilmente con LLMs. torchtune proporciona recetas de entrenamiento eficientes en memoria y modificables escritas completamente en PyTorch. La biblioteca est\u00e1 integrada con plataformas populares como Hugging Face, Weights &amp; Biases y EleutherAI, e incluso es compatible con Executorch para permitir que la inferencia eficiente se ejecute en una amplia variedad de dispositivos m\u00f3viles y de borde. Para todo, desde la ingenier\u00eda r\u00e1pida hasta el uso de Llama 3 con LangChain, disponemos de una completa <\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"><span style=\"font-weight: 400\">gu\u00eda de inicio<\/span><\/a><span style=\"font-weight: 400\"> que le llevar\u00e1 desde la descarga de Llama 3 hasta el despliegue a escala dentro de su aplicaci\u00f3n de IA generativa.<\/span><\/p>\n<p><b>Un enfoque de la responsabilidad a nivel de sistema<\/b><\/p>\n<p><span style=\"font-weight: 400\">Hemos dise\u00f1ado los modelos Llama 3 para que sean lo m\u00e1s \u00fatiles posible, garantizando al mismo tiempo un enfoque l\u00edder en la industria para su despliegue responsable. Para lograrlo, hemos adoptado un nuevo enfoque a nivel de sistema para el desarrollo y despliegue responsables de Llama. Concebimos los modelos Llama como parte de un sistema m\u00e1s amplio que sit\u00faa al desarrollador en el asiento del conductor. Los modelos Llama servir\u00e1n como pieza fundamental de un sistema que los desarrolladores dise\u00f1ar\u00e1n teniendo en cuenta sus propios objetivos finales.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25240\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=960&#038;resize=960%2C382\" alt=\"\" width=\"960\" height=\"382\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=1182 1182w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Finales.png?w=800 800w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">El perfeccionamiento de las instrucciones tambi\u00e9n desempe\u00f1a un papel importante para garantizar la seguridad de nuestros modelos. La seguridad de nuestros modelos ajustados a las instrucciones se ha sometido a pruebas internas y externas. Nuestro enfoque de red <\/span><i><span style=\"font-weight: 400\">teaming <\/span><\/i><span style=\"font-weight: 400\">aprovecha los expertos humanos y los m\u00e9todos de automatizaci\u00f3n para generar mensajes adversos que intentan provocar respuestas problem\u00e1ticas. Por ejemplo, aplicamos pruebas exhaustivas para evaluar los riesgos de uso indebido relacionados con la seguridad qu\u00edmica, biol\u00f3gica, cibern\u00e9tica y otras \u00e1reas de riesgo. Todos estos esfuerzos son iterativos y se utilizan para perfeccionar la seguridad de los modelos que se publican. Puedes leer m\u00e1s sobre nuestros esfuerzos en la <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/MODEL_CARD.md\"><span style=\"font-weight: 400\">ficha del modelo<\/span><\/a><span style=\"font-weight: 400\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los modelos de Llama Guard pretenden ser una base para la seguridad r\u00e1pida y de respuesta, y pueden ajustarse f\u00e1cilmente para crear una nueva taxonom\u00eda en funci\u00f3n de las necesidades de la aplicaci\u00f3n. Como punto de partida, el nuevo Llama <\/span><a href=\"https:\/\/mlcommons.org\/2024\/04\/mlc-aisafety-v0-5-poc\/\"><span style=\"font-weight: 400\">Guard 2<\/span><\/a><span style=\"font-weight: 400\"> utiliza la taxonom\u00eda MLCommons recientemente anunciada, en un esfuerzo por apoyar la aparici\u00f3n de est\u00e1ndares industriales en esta importante \u00e1rea. Adem\u00e1s, CyberSecEval 2 ampl\u00eda su predecesor a\u00f1adiendo medidas de la propensi\u00f3n de un LLM a permitir el abuso de su int\u00e9rprete de c\u00f3digo, las capacidades ofensivas de ciberseguridad y la susceptibilidad a los ataques de inyecci\u00f3n puntual (obt\u00e9n m\u00e1s informaci\u00f3n en nuestro <\/span><a href=\"https:\/\/ai.meta.com\/research\/publications\/cyberseceval-2-a-wide-ranging-cybersecurity-evaluation-suite-for-large-language-models\/\"><span style=\"font-weight: 400\">documento t\u00e9cnico<\/span><\/a><span style=\"font-weight: 400\">). Por \u00faltimo, presentamos Code Shield, que a\u00f1ade soporte para el filtrado en tiempo de inferencia del c\u00f3digo inseguro producido por los LLM. Esto permite mitigar los riesgos relacionados con las sugerencias de c\u00f3digo inseguro, la prevenci\u00f3n del abuso del int\u00e9rprete de c\u00f3digo y la ejecuci\u00f3n segura de comandos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con la velocidad a la que se mueve el espacio de la IA generativa, creemos que un enfoque abierto es una forma importante de unir el ecosistema y mitigar estos da\u00f1os potenciales. Como parte de ello, estamos actualizando nuestra<\/span><a href=\"http:\/\/llama.meta.com\/responsible-use-guide\"> <span style=\"font-weight: 400\">Gu\u00eda de Uso Responsable<\/span><\/a><span style=\"font-weight: 400\"> (RUG) que proporciona una gu\u00eda completa para el desarrollo responsable con LLMs. Como indicamos en la RUG, recomendamos que todas las entradas y salidas se comprueben y filtren de acuerdo con las directrices de contenido apropiadas para la aplicaci\u00f3n. Adem\u00e1s, muchos proveedores de servicios en la nube ofrecen API de moderaci\u00f3n de contenidos y otras herramientas para un despliegue responsable, por lo que animamos a los desarrolladores a considerar tambi\u00e9n el uso de estas opciones.<\/span><\/p>\n<p><b>Despliegue de Llama 3 a gran escala<\/b><\/p>\n<p><span style=\"font-weight: 400\">Llama 3 pronto estar\u00e1 disponible en las principales plataformas, incluidos los proveedores de nube, los proveedores de API de modelos y muchos m\u00e1s. Llama 3 estar\u00e1<\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"> <span style=\"font-weight: 400\">en todas partes<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestras pruebas comparativas demuestran que el tokenizador ofrece una eficiencia mejorada de tokens, produciendo hasta un 15% menos de tokens en comparaci\u00f3n con Llama 2. Adem\u00e1s, ahora tambi\u00e9n se ha a\u00f1adido Group Query Attention (GQA) a Llama 3 8B. Como resultado, observamos que a pesar de que el modelo tiene 1B par\u00e1metros m\u00e1s en comparaci\u00f3n con Llama 2 7B, la eficiencia mejorada del tokenizador y GQA contribuyen a mantener la eficiencia de inferencia a la par con Llama 2 7B.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para ver ejemplos de c\u00f3mo aprovechar todas estas capacidades, echa un vistazo a <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-recipes\"><span style=\"font-weight: 400\">Llama Recipes<\/span><\/a><span style=\"font-weight: 400\">, que contiene todo nuestro c\u00f3digo fuente abierto que se puede aprovechar para todo, desde el ajuste fino hasta el despliegue y la evaluaci\u00f3n de modelos.<\/span><\/p>\n<p><b>\u00bfQu\u00e9 viene para Llama 3?<\/b><\/p>\n<p><span style=\"font-weight: 400\">Los modelos Llama 3 8B y 70B marcan el comienzo de lo que tenemos previsto lanzar para Llama 3. Y hay mucho m\u00e1s por venir.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestros modelos m\u00e1s grandes superan los par\u00e1metros de 400B y, aunque todav\u00eda est\u00e1n en fase de formaci\u00f3n, nuestro equipo est\u00e1 entusiasmado con su evoluci\u00f3n. En los pr\u00f3ximos meses, publicaremos varios modelos con nuevas funciones, como la multimodalidad, la capacidad de conversar en varios idiomas, una ventana de contexto mucho m\u00e1s larga y funciones generales m\u00e1s potentes. Tambi\u00e9n publicaremos un art\u00edculo de investigaci\u00f3n detallado una vez hayamos terminado de entrenar a Llama 3.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para ilustrar la situaci\u00f3n actual de estos modelos mientras siguen entren\u00e1ndose, hemos pensado en compartir algunas instant\u00e1neas de la evoluci\u00f3n de nuestro modelo LLM m\u00e1s grande. Ten en cuenta que estos datos se basan en un primer punto de control de Llama 3 que todav\u00eda se est\u00e1 entrenando y estas capacidades no son compatibles como parte de los modelos publicados hoy.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25236\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=3840 3840w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=2048 2048w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=800 800w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-400B-still-training-.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p style=\"text-align: center\"><span style=\"font-weight: 400\">*Consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos comprometidos con el crecimiento y el desarrollo continuos de un ecosistema de IA abierto para liberar nuestros modelos de forma responsable. Llevamos mucho tiempo creyendo que la apertura conduce a productos mejores y m\u00e1s seguros, a una innovaci\u00f3n m\u00e1s r\u00e1pida y, en general, a un mercado global mejor. Esto es bueno para Meta y para la sociedad. Estamos adoptando un enfoque que da prioridad a la comunidad con Llama 3, y a partir de hoy, estos modelos est\u00e1n disponibles en las principales plataformas de nube, alojamiento y hardware, con muchas m\u00e1s por venir.<\/span><\/p>\n<p><b>Meta Llama 3 hoy<\/b><\/p>\n<p><span style=\"font-weight: 400\">Gracias a nuestros \u00faltimos avances con Meta Llama 3, hoy tambi\u00e9n estamos anunciando la expansi\u00f3n internacional de <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/conoce-mas-sobre-meta-ai-creado-con-llama-3\/\"><b>Meta AI<\/b><\/a><span style=\"font-weight: 400\">, permitiendo que m\u00e1s personas accedan a esta tecnolog\u00eda de forma gratuita a trav\u00e9s de Facebook, Instagram, WhatsApp y Messenger en Australia, Canad\u00e1, Ghana, Jamaica, Malawi, Nueva Zelanda, Nigeria, Pakist\u00e1n, Singapur, Sud\u00e1frica, Uganda, Zambia y Zimbabue. <\/span><b>\u00a1Y apenas estamos empezando! <\/b><span style=\"font-weight: 400\">Puedes leer m\u00e1s sobre la experiencia Meta AI aqu\u00ed.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Visita el<\/span><a href=\"https:\/\/llama.meta.com\/llama3\"><span style=\"font-weight: 400\"> sitio web de Llama 3<\/span><\/a><span style=\"font-weight: 400\"> para descargar los modelos y consulta la<\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"><span style=\"font-weight: 400\"> Gu\u00eda de inicio<\/span><\/a><span style=\"font-weight: 400\"> para ver la lista actualizada de todas las plataformas disponibles.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje a gran escala disponible p\u00fablicamente.","protected":false},"author":164097050,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947986,243948155,243948117],"tags":[],"class_list":["post-25235","post","type-post","status-publish","format-standard","hentry","category-innovacion","category-meta-2","category-tecnologia-e-innovacion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje a gran escala disponible p\u00fablicamente.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-04-18T16:53:08+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-04-18T21:15:27+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960\" \/>\n<meta name=\"author\" content=\"milenaherreraCO\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"},\"author\":\"Facebook company\",\"headline\":\"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha\",\"datePublished\":\"2024-04-18T16:53:08+00:00\",\"dateModified\":\"2024-04-18T21:15:27+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"},\"wordCount\":3222,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960\",\"articleSection\":[\"Innovaci\u00f3n\",\"Meta\",\"Tecnolog\u00eda e Innovaci\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\",\"name\":\"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960\",\"datePublished\":\"2024-04-18T16:53:08+00:00\",\"dateModified\":\"2024-04-18T21:15:27+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","og_locale":"es_ES","og_type":"article","og_title":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta","og_description":"Presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje a gran escala disponible p\u00fablicamente.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","og_site_name":"Acerca de Meta","article_published_time":"2024-04-18T16:53:08+00:00","article_modified_time":"2024-04-18T21:15:27+00:00","og_image":[{"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960","type":"","width":"","height":""}],"author":"milenaherreraCO","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"15 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"},"author":"Facebook company","headline":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha","datePublished":"2024-04-18T16:53:08+00:00","dateModified":"2024-04-18T21:15:27+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"},"wordCount":3222,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960","articleSection":["Innovaci\u00f3n","Meta","Tecnolog\u00eda e Innovaci\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","url":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","name":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960","datePublished":"2024-04-18T16:53:08+00:00","dateModified":"2024-04-18T21:15:27+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/04\/Llama-3-Instruct-Performance.png?w=960"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Presentamos Meta Llama 3: modelo de lenguaje a gran escala m\u00e1s potente hasta la fecha"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25235","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097050"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25235"}],"version-history":[{"count":8,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25235\/revisions"}],"predecessor-version":[{"id":25288,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25235\/revisions\/25288"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25235"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25235"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25235"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}