{"id":22648,"date":"2024-04-19T10:39:09","date_gmt":"2024-04-19T10:39:09","guid":{"rendered":"https:\/\/about.fb.com\/es\/?p=22648"},"modified":"2024-04-19T10:41:53","modified_gmt":"2024-04-19T10:41:53","slug":"presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha","status":"publish","type":"post","link":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","title":{"rendered":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha"},"content":{"rendered":"<p><b>Puntos de inter\u00e9s:\u00a0<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Hoy presentamos <\/span><b>Meta Llama 3<\/b><span style=\"font-weight: 400\">, la nueva generaci\u00f3n de nuestro modelo de lenguaje de gran tama\u00f1o de c\u00f3digo abierto. <\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Los modelos de Llama 3 pronto estar\u00e1n disponibles en AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM y Snowflake. <\/span><span style=\"font-weight: 400\">\u00a0<\/span><span style=\"font-weight: 400\">Adem\u00e1s, contar\u00e1n con soporte de plataformas de hardware ofrecidas por AMD, AWS, Dell, Intel, NVIDIA y Qualcomm.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Estamos comprometidos con el desarrollo responsable de Llama 3 y ofrecemos diversos recursos para ayudar a otros a utilizarlo tambi\u00e9n de forma responsable. Esto incluye nuevas herramientas de confianza y seguridad como Llama Guard 2, Code Shield y CyberSec Eval 2.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En los pr\u00f3ximos meses, esperamos introducir nuevas funciones, ventanas contextuales m\u00e1s largas, tama\u00f1os de plantilla adicionales y un rendimiento mejorado, adem\u00e1s de compartir el documento de investigaci\u00f3n sobre Llama 3.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Nos complace compartir los dos primeros modelos de la pr\u00f3xima generaci\u00f3n de Llama, <\/span><b>Meta Llama 3,<\/b><span style=\"font-weight: 400\"> disponibles para un amplio uso. Esta versi\u00f3n presenta modelos de lenguaje pre-entrenados y ajustados a las instrucciones con par\u00e1metros 8B y 70B, que pueden soportar una amplia variedad de casos de uso. Esta nueva generaci\u00f3n de Llama demuestra un rendimiento puntero en una amplia gama de par\u00e1metros de referencia del sector y ofrece nuevas funciones, como la mejora del razonamiento. Creemos que son los mejores modelos de c\u00f3digo abierto de su clase. Adem\u00e1s, para respaldar el enfoque de c\u00f3digo abierto que mantenemos desde hace tiempo, estamos poniendo Llama 3 en manos de la comunidad. Queremos dar paso a la pr\u00f3xima ola de innovaci\u00f3n en IA en todos los \u00e1mbitos: desde aplicaciones hasta herramientas para desarrolladores, evaluaciones, optimizaciones de inferencia y mucho m\u00e1s.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><b>Nuestros objetivos con Llama 3<\/b><\/p>\n<p><span style=\"font-weight: 400\">Con Llama 3, nos propusimos construir los mejores modelos abiertos que estuvieran a la altura de los mejores modelos propietarios disponibles en la actualidad. Quer\u00edamos tener en cuenta los comentarios de los desarrolladores para aumentar la utilidad general de Llama 3 y lo estamos haciendo sin dejar de desempe\u00f1ar un papel de liderazgo en el uso y despliegue responsables de los LLM. Adoptamos la \u00e9tica del c\u00f3digo abierto de publicar r\u00e1pido y con frecuencia para que la comunidad pueda acceder a estos modelos mientras a\u00fan est\u00e1n en desarrollo. Los modelos basados en texto que publicamos hoy son los primeros de la colecci\u00f3n de modelos Llama 3. Nuestro objetivo en un futuro pr\u00f3ximo es hacer que Llama 3 sea multiling\u00fce y multimodal, que tenga un contexto m\u00e1s amplio y que siga mejorando el rendimiento general de las capacidades b\u00e1sicas de LLM, como el razonamiento y la codificaci\u00f3n.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><b>Rendimiento de vanguardia<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nuestros nuevos modelos Llama 3 de par\u00e1metros 8B y 70B suponen un gran salto con respecto a Llama 2 y establecen un un nuevo est\u00e1ndar para los modelos LLM a esas escalas. Gracias a las mejoras en el pre-entrenamiento y el post-entrenamiento, nuestros modelos pre-entrenados y ajustados a las instrucciones a la escala de par\u00e1metros de 8B y 70B son los mejores actualmente. Las optimizaciones en nuestros procedimientos de post-entrenamiento redujeron sustancialmente las tasas de falsos rechazos, mejoraron la alineaci\u00f3n y aumentaron la diversidad en las respuestas de los modelos. Tambi\u00e9n hemos observado grandes mejoras en capacidades como el razonamiento, la generaci\u00f3n de c\u00f3digo y el seguimiento de instrucciones, lo que hace que Llama 3 sea m\u00e1s direccionable.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22651\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=3840 3840w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Instruct-Performance.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p style=\"text-align: center\"><span style=\"font-weight: 400\">*Por favor, consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">En el desarrollo de Llama 3, nos fijamos en el rendimiento del modelo en puntos de referencia est\u00e1ndar y tambi\u00e9n tratamos de optimizar el rendimiento para escenarios del mundo real. Para ello, desarrollamos un nuevo conjunto de evaluaci\u00f3n humana de alta calidad. Este conjunto de evaluaci\u00f3n contiene 1.800 preguntas que cubren 12 casos de uso clave: pedir consejo, lluvia de ideas, clasificaci\u00f3n, respuesta a preguntas cerradas, codificaci\u00f3n, escritura creativa, extracci\u00f3n, adopci\u00f3n de un personaje\/persona, respuesta a preguntas abiertas, razonamiento, reescritura y resumen. Para evitar el sobreajuste accidental de nuestros modelos en este conjunto de evaluaci\u00f3n, ni siquiera nuestros propios equipos de modelizaci\u00f3n tienen acceso a \u00e9l. El siguiente gr\u00e1fico muestra los resultados agregados de nuestras evaluaciones humanas en todas estas categor\u00edas e instrucciones con Claude Sonnet, Mistral Medium y GPT-3.5.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22650\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=960&#038;resize=960%2C602\" alt=\"\" width=\"960\" height=\"602\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=3840 3840w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=1722 1722w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-Human-Evaluation.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><br \/>\n<span style=\"font-weight: 400\">Las clasificaciones de preferencias de los anotadores humanos basadas en este conjunto de evaluaciones ponen de relieve el gran rendimiento de nuestro modelo de seguimiento de instrucciones 70B en comparaci\u00f3n con modelos de la competencia de tama\u00f1o comparable en escenarios del mundo real.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestro modelo pre-entrenado tambi\u00e9n establece un nuevo est\u00e1ndar para los modelos LLM a esas escalas.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22652\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=3840 3840w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-pre-trained-performance.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p style=\"text-align: center\"><span style=\"font-weight: 400\">*Por favor, consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para desarrollar un gran modelo ling\u00fc\u00edstico, creemos que es importante innovar, escalar y optimizar para simplificar. Adoptamos esta filosof\u00eda de dise\u00f1o a lo largo de todo el proyecto Llama 3, centr\u00e1ndonos en cuatro ingredientes clave: la arquitectura del modelo, los datos de pre-entrenamiento, la ampliaci\u00f3n del pre-entrenamiento y el fine-tunning de las instrucciones.<\/span><\/p>\n<p><b>Arquitectura del modelo<\/b><\/p>\n<p><span style=\"font-weight: 400\">De acuerdo con nuestra filosof\u00eda de dise\u00f1o, en Llama 3 hemos optado por una arquitectura de transformadores <\/span><i><span style=\"font-weight: 400\">decoder-only<\/span><\/i><span style=\"font-weight: 400\"> relativamente est\u00e1ndar. En comparaci\u00f3n con Llama 2, hemos introducido varias mejoras clave, por ejemplo, Llama 3 utiliza un tokenizador con un vocabulario de 128.000 tokens que codifica el lenguaje de forma mucho m\u00e1s eficiente, lo que mejora sustancialmente el rendimiento del modelo. Para mejorar la eficacia de inferencia de los modelos de Llama 3, hemos adoptado la atenci\u00f3n a consultas agrupadas (GQA) en los tama\u00f1os 8B y 70B. Entrenamos los modelos en secuencias de 8.192 tokens, utilizando una m\u00e1scara para garantizar que la autoatenci\u00f3n no cruce los l\u00edmites del documento.<\/span><\/p>\n<p><b>Datos de entrenamiento<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para entrenar el mejor modelo ling\u00fc\u00edstico, es fundamental disponer de un dataset de entrenamiento amplio y de gran calidad. De acuerdo con nuestros principios de dise\u00f1o, hemos invertido mucho en datos de pre-entrenamiento. Llama 3 est\u00e1 pre-entrenado con m\u00e1s de 15T de tokens recogidos de fuentes p\u00fablicas. Nuestro dataset de entrenamiento es siete veces mayor que el utilizado para Llama 2 e incluye cuatro veces m\u00e1s c\u00f3digo. Para prepararnos para los pr\u00f3ximos casos de uso multiling\u00fce, m\u00e1s del 5% del conjunto de datos de pre-entrenamiento de Llama 3 est\u00e1 formado por datos de alta calidad en lengua no inglesa que abarcan m\u00e1s de 30 idiomas. Sin embargo, no esperamos el mismo nivel de rendimiento en estos idiomas que en ingl\u00e9s.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para asegurarnos de que Llama 3 se entrena con datos de la m\u00e1xima calidad, hemos desarrollado una serie de procesos de filtrado de datos. Estos filtros incluyen filtros heur\u00edsticos, filtros NSFW, enfoques de deduplicaci\u00f3n sem\u00e1ntica y clasificadores de texto para predecir la calidad de los datos. Descubrimos que las generaciones anteriores de Llama son sorprendentemente buenas a la hora de identificar datos de alta calidad, por lo que utilizamos Llama 2 para generar los datos de entrenamiento de los clasificadores de calidad de texto que se utilizan en Llama 3.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n realizamos experimentos exhaustivos para evaluar las mejores formas de mezclar datos de distintas fuentes en nuestro dataset final de pre-entrenamiento. Estos experimentos nos permitieron seleccionar una combinaci\u00f3n de datos que garantiza un buen rendimiento de Llama 3 en distintos casos de uso, como preguntas de trivialidades, STEM, codificaci\u00f3n, conocimientos hist\u00f3ricos, etc.<\/span><\/p>\n<p><b>Ampliaci\u00f3n del pre-entrenamiento<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para aprovechar de forma eficaz nuestros datos de pre-entrenamiento en los modelos de Llama 3, hemos realizado un esfuerzo considerable para ampliar el pre-entrenamiento. En concreto, hemos desarrollado una serie de leyes de escalado detalladas para las evaluaciones de referencia posteriores. Estas leyes de escalado nos permiten seleccionar una combinaci\u00f3n \u00f3ptima de datos y tomar decisiones informadas sobre c\u00f3mo utilizar mejor nuestro c\u00e1lculo de entrenamiento. Y lo que es m\u00e1s importante, las leyes de escalado nos permiten predecir el rendimiento de nuestros modelos m\u00e1s grandes en tareas clave (por ejemplo, la generaci\u00f3n de c\u00f3digo evaluada en la prueba comparativa HumanEval, v\u00e9ase m\u00e1s arriba) antes de entrenar realmente los modelos. Esto nos ayuda a garantizar un buen rendimiento de nuestros modelos finales en una gran variedad de casos de uso y funcionalidades.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Durante el desarrollo de Llama 3 hicimos varias observaciones nuevas sobre el comportamiento de escalado. Por ejemplo, mientras que la cantidad \u00f3ptima de c\u00e1lculo de entrenamiento de Chinchilla para un modelo de 8B par\u00e1metros corresponde a ~200B tokens, descubrimos que el rendimiento del modelo sigue mejorando incluso despu\u00e9s de que el modelo se entrene con dos \u00f3rdenes de magnitud m\u00e1s de datos. Nuestros modelos de 8B y 70B par\u00e1metros siguieron mejorando de forma log-lineal despu\u00e9s de entrenarlos con hasta 15T de tokens. Los modelos m\u00e1s grandes pueden igualar el rendimiento de estos modelos m\u00e1s peque\u00f1os con menos computaci\u00f3n de entrenamiento, pero en general se prefieren los modelos m\u00e1s peque\u00f1os porque son mucho m\u00e1s eficientes durante la inferencia.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para entrenar los modelos m\u00e1s grandes de Llama 3, combinamos tres tipos de paralelizaci\u00f3n: paralelizaci\u00f3n de datos, paralelizaci\u00f3n de modelos y paralelizaci\u00f3n de canalizaci\u00f3n. Nuestra implementaci\u00f3n m\u00e1s eficiente alcanza una utilizaci\u00f3n computacional de m\u00e1s de 400 TFLOPS por GPU cuando se entrena en 16.000 GPUs simult\u00e1neamente. Realizamos el entrenamiento en dos clusters de <\/span><a href=\"https:\/\/engineering.fb.com\/2024\/03\/12\/data-center-engineering\/building-metas-genai-infrastructure\/\"><span style=\"font-weight: 400\">24K GPU<\/span><\/a><span style=\"font-weight: 400\"> creados a medida. Para maximizar el tiempo de actividad de la GPU, hemos desarrollado un nuevo <\/span><i><span style=\"font-weight: 400\">stack<\/span><\/i><span style=\"font-weight: 400\"> de entrenamiento avanzado que automatiza la detecci\u00f3n, gesti\u00f3n y mantenimiento de errores. Tambi\u00e9n hemos mejorado enormemente la fiabilidad del hardware y los mecanismos de detecci\u00f3n de la corrupci\u00f3n silenciosa de datos, y hemos desarrollado nuevos sistemas de almacenamiento escalables que reducen la sobrecarga de los puntos de control y las reversiones. Estas mejoras se tradujeron en un tiempo de entrenamiento efectivo global de m\u00e1s del 95%. Combinadas, estas mejoras aumentaron la eficiencia del entrenamiento de Llama 3 en ~3x en comparaci\u00f3n con Llama 2.<\/span><\/p>\n<p><b>Fine-tuning de instrucciones<\/b><\/p>\n<p><span style=\"font-weight: 400\">Para desbloquear completamente el potencial de nuestros modelos pre-entrenados en casos de uso de chat, tambi\u00e9n innovamos en nuestro enfoque para el ajuste de instrucciones. Nuestro enfoque para la post-entrenamiento es una combinaci\u00f3n de fine-tuning supervisado (SFT), muestreo de rechazo, optimizaci\u00f3n de pol\u00edticas proximales (PPO) y optimizaci\u00f3n de pol\u00edticas directas (DPO). La calidad de las indicaciones que se utilizan en SFT y los rankings de preferencia que se utilizan en PPO y DPO tienen una influencia desproporcionada en el rendimiento de los modelos alineados. Algunas de nuestras mayores mejoras en la calidad del modelo provinieron de la cuidadosa curaci\u00f3n de estos datos y de la realizaci\u00f3n de m\u00faltiples rondas de revisi\u00f3n de la calidad en las anotaciones proporcionadas por los evaluadores humanos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Aprender de los rankings de preferencia a trav\u00e9s de PPO y DPO tambi\u00e9n mejor\u00f3 enormemente el rendimiento de Llama 3 en tareas de razonamiento y codificaci\u00f3n. Descubrimos que si le haces una pregunta de razonamiento a un modelo con la que lucha para responder, el modelo a veces producir\u00e1 el rastro de razonamiento correcto: el modelo sabe c\u00f3mo producir la respuesta correcta, pero no sabe c\u00f3mo seleccionarla. El entrenamiento en rankings de preferencia permite al modelo aprender c\u00f3mo seleccionarla.<\/span><\/p>\n<p><b>Construir con Llama 3<\/b><\/p>\n<p><span style=\"font-weight: 400\">Nuestra visi\u00f3n es permitir a los desarrolladores personalizar Llama 3 para que admita casos de uso relevantes y facilite la adopci\u00f3n de mejores pr\u00e1cticas y la mejora del ecosistema abierto. Con esta versi\u00f3n, proporcionamos nuevas herramientas de confianza y seguridad, incluyendo <\/span><a href=\"https:\/\/github.com\/meta-llama\/PurpleLlama\"><span style=\"font-weight: 400\">componentes<\/span><\/a><span style=\"font-weight: 400\"> actualizados con Llama Guard 2 y Cybersec Eval 2, y la introducci\u00f3n de Code Shield, una barrera en tiempo de inferencia para filtrar el c\u00f3digo inseguro producido por los LLM.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n hemos co-desarrollado Llama 3 con <\/span><a href=\"https:\/\/github.com\/pytorch\/torchtune\"><span style=\"font-weight: 400\">torchtune<\/span><\/a><span style=\"font-weight: 400\">, la nueva biblioteca nativa de PyTorch para crear, ajustar y experimentar f\u00e1cilmente con LLMs. torchtune proporciona recetas de entrenamiento eficientes en memoria y modificables escritas completamente en PyTorch. La biblioteca est\u00e1 integrada con plataformas populares como Hugging Face, Weights &amp; Biases y EleutherAI, e incluso es compatible con Executorch para permitir que la inferencia eficiente se ejecute en una amplia variedad de dispositivos m\u00f3viles y de borde. Para todo, desde la ingenier\u00eda r\u00e1pida hasta el uso de Llama 3 con LangChain, disponemos de una completa <\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"><span style=\"font-weight: 400\">gu\u00eda de inicio<\/span><\/a><span style=\"font-weight: 400\"> que le llevar\u00e1 desde la descarga de Llama 3 hasta el despliegue a escala dentro de su aplicaci\u00f3n de IA generativa.<\/span><\/p>\n<p><b>Un enfoque responsable<\/b><\/p>\n<p><span style=\"font-weight: 400\">Hemos dise\u00f1ado los modelos Llama 3 para que sean lo m\u00e1s \u00fatiles posible, garantizando al mismo tiempo un enfoque l\u00edder en la industria para su despliegue responsable. Para lograrlo, hemos adoptado un nuevo enfoque a nivel de sistema para el desarrollo y despliegue responsables de Llama. Concebimos los modelos Llama como parte de un sistema m\u00e1s amplio que sit\u00faa al desarrollador en el asiento del conductor. Los modelos Llama servir\u00e1n como pieza fundamental de un sistema que los desarrolladores dise\u00f1ar\u00e1n teniendo en cuenta sus propios objetivos finales.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/system-level-safety.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22653\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/system-level-safety.png?w=733&#038;resize=733%2C286\" alt=\"\" width=\"733\" height=\"286\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/system-level-safety.png?w=733 733w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/system-level-safety.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/system-level-safety.png?w=300 300w\" sizes=\"auto, (max-width: 733px) 100vw, 733px\" \/><\/a><\/p>\n<p><span style=\"font-weight: 400\">El fine-tuning de las instrucciones tambi\u00e9n desempe\u00f1a un papel importante para garantizar la seguridad de nuestros modelos. La seguridad de nuestros modelos ajustados a las instrucciones se ha sometido a pruebas internas y externas. Nuestro enfoque de <\/span><i><span style=\"font-weight: 400\">red teaming <\/span><\/i><span style=\"font-weight: 400\">combina los expertos humanos y los m\u00e9todos de automatizaci\u00f3n para generar mensajes adversos que intentan provocar respuestas problem\u00e1ticas. Por ejemplo, aplicamos pruebas exhaustivas para evaluar los riesgos de uso indebido relacionados con la seguridad qu\u00edmica, biol\u00f3gica, cibern\u00e9tica y otras \u00e1reas de riesgo. Todos estos esfuerzos son iterativos y se utilizan para perfeccionar la seguridad de los modelos que se publican. Puedes leer m\u00e1s sobre nuestros avances en la <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/MODEL_CARD.md\"><span style=\"font-weight: 400\">ficha del modelo<\/span><\/a><span style=\"font-weight: 400\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los modelos de Llama Guard pretenden ser una base para la seguridad r\u00e1pida y de respuesta, y pueden ajustarse f\u00e1cilmente para crear una nueva taxonom\u00eda en funci\u00f3n de las necesidades de la aplicaci\u00f3n. Como punto de partida, el nuevo Llama <\/span><a href=\"https:\/\/mlcommons.org\/2024\/04\/mlc-aisafety-v0-5-poc\/\"><span style=\"font-weight: 400\">Guard 2<\/span><\/a><span style=\"font-weight: 400\"> utiliza la taxonom\u00eda MLCommons recientemente anunciada, en un gesto de apoyo a la aparici\u00f3n de est\u00e1ndares industriales en esta importante \u00e1rea. Adem\u00e1s, CyberSecEval 2 ampl\u00eda su predecesor a\u00f1adiendo medidas de la propensi\u00f3n de un LLM a permitir el abuso de su int\u00e9rprete de c\u00f3digo, las capacidades ofensivas de ciberseguridad y la susceptibilidad a los ataques <\/span><i><span style=\"font-weight: 400\">prompt injection<\/span><\/i><span style=\"font-weight: 400\"> (obt\u00e9n m\u00e1s informaci\u00f3n en nuestro <\/span><a href=\"https:\/\/ai.meta.com\/research\/publications\/cyberseceval-2-a-wide-ranging-cybersecurity-evaluation-suite-for-large-language-models\/\"><span style=\"font-weight: 400\">documento t\u00e9cnico<\/span><\/a><span style=\"font-weight: 400\">). Por \u00faltimo, presentamos Code Shield, que a\u00f1ade soporte para el filtrado en tiempo de inferencia del c\u00f3digo inseguro producido por los LLM. Esto permite mitigar los riesgos relacionados con las sugerencias de c\u00f3digo inseguro, la prevenci\u00f3n del abuso del int\u00e9rprete de c\u00f3digo y la ejecuci\u00f3n segura de comandos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con la velocidad a la que se mueve el espacio de la IA generativa, creemos que un enfoque abierto es una forma importante de unir el ecosistema y mitigar estos da\u00f1os potenciales. Como parte de ello, estamos actualizando nuestra<\/span><a href=\"http:\/\/llama.meta.com\/responsible-use-guide\"> <span style=\"font-weight: 400\">Gu\u00eda de Uso Responsable<\/span><\/a><span style=\"font-weight: 400\"> (RUG) que proporciona una gu\u00eda completa para el desarrollo responsable con LLMs. Como indicamos en la RUG, recomendamos que todos los <\/span><span style=\"font-weight: 400\">inputs y outputs<\/span><span style=\"font-weight: 400\"> se comprueben y filtren de acuerdo con las directrices de contenido apropiadas para la aplicaci\u00f3n. Adem\u00e1s, muchos proveedores de servicios en la nube ofrecen API de moderaci\u00f3n de contenidos y otras herramientas para un despliegue responsable, por lo que animamos a los desarrolladores a considerar tambi\u00e9n el uso de estas opciones.<\/span><\/p>\n<p><b>Despliegue de Llama 3 a gran escala<\/b><\/p>\n<p><span style=\"font-weight: 400\">Llama 3 pronto estar\u00e1 disponible en las principales plataformas, incluidos los proveedores de nube, los proveedores de API de modelos y muchos m\u00e1s. Llama 3 estar\u00e1<\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"> <span style=\"font-weight: 400\">en todas partes<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestras pruebas comparativas demuestran que el tokenizador ofrece una eficiencia mejorada de tokens, produciendo hasta un 15% menos de tokens en comparaci\u00f3n con Llama 2. Adem\u00e1s, ahora tambi\u00e9n se ha a\u00f1adido Group Query Attention (GQA) a Llama 3 8B. Como resultado, observamos que a pesar de que el modelo tiene 1B par\u00e1metros m\u00e1s en comparaci\u00f3n con Llama 2 7B, la eficiencia mejorada del tokenizador y GQA contribuyen a mantener la eficiencia de inferencia a la par con Llama 2 7B.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para ver ejemplos de c\u00f3mo aprovechar todas estas capacidades, echa un vistazo a <\/span><a href=\"https:\/\/github.com\/meta-llama\/llama-recipes\"><span style=\"font-weight: 400\">Llama Recipes<\/span><\/a><span style=\"font-weight: 400\">, que contiene todo nuestro c\u00f3digo fuente abierto que se puede aprovechar para todo, desde el fine-tuning hasta el despliegue y la evaluaci\u00f3n de modelos.<\/span><\/p>\n<p><b>\u00bfCu\u00e1les son los pr\u00f3ximos pasos para Llama 3?<\/b><\/p>\n<p><span style=\"font-weight: 400\">Los modelos Llama 3 8B y 70B marcan el comienzo de lo que tenemos previsto lanzar para Llama 3. Y llegar\u00e1n muchas m\u00e1s novedades.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestros modelos m\u00e1s grandes superan los par\u00e1metros de 400B y, aunque todav\u00eda est\u00e1n en fase de formaci\u00f3n, nuestro equipo est\u00e1 entusiasmado con su evoluci\u00f3n. En los pr\u00f3ximos meses, publicaremos varios modelos con nuevas funciones, como la multimodalidad, la capacidad de conversar en varios idiomas, una ventana de contexto mucho m\u00e1s larga y funciones generales m\u00e1s potentes. Tambi\u00e9n publicaremos un art\u00edculo de investigaci\u00f3n detallado una vez hayamos terminado de entrenar a Llama 3.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para ilustrar la situaci\u00f3n actual de estos modelos mientras siguen entren\u00e1ndose, hemos pensado en compartir algunas instant\u00e1neas de la evoluci\u00f3n de nuestro modelo LLM m\u00e1s grande. Ten en cuenta que estos datos se basan en un primer punto de control de Llama 3 que todav\u00eda se est\u00e1 entrenando y estas capacidades no son compatibles como parte de los modelos publicados hoy.<\/span><\/p>\n<p><a href=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22649\" src=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=960&#038;resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" srcset=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=3840 3840w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=600 600w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=300 300w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=768 768w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=1024 1024w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=1536 1536w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=2048 2048w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=1920 1920w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=800 800w, https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Llama-3-400B-still-training-.png?w=2880 2880w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/a><\/p>\n<p style=\"text-align: center\"><span style=\"font-weight: 400\">*Por favor, consulta<\/span><a href=\"https:\/\/github.com\/meta-llama\/llama3\/blob\/main\/eval_details.md\"><span style=\"font-weight: 400\"> los detalles<\/span><\/a><span style=\"font-weight: 400\"> para conocer la configuraci\u00f3n y par\u00e1metros con los que se calculan estas evaluaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos comprometidos con el crecimiento y el desarrollo continuos de un ecosistema de IA abierto para liberar nuestros modelos de forma responsable. Llevamos mucho tiempo creyendo que la apertura conduce a productos mejores y m\u00e1s seguros, a una innovaci\u00f3n m\u00e1s r\u00e1pida y, en general, a un mercado global mejor. Esto es bueno para Meta y para la sociedad. Estamos adoptando un enfoque que da prioridad a la comunidad con Llama 3, y a partir de hoy, estos modelos est\u00e1n disponibles en las principales plataformas de nube, alojamiento y hardware, con muchas m\u00e1s por venir.<\/span><\/p>\n<p><b>Meta Llama 3 hoy<\/b><\/p>\n<p><span style=\"font-weight: 400\">Gracias a nuestros \u00faltimos avances con Meta Llama 3, tambi\u00e9n hemos anunciado la expansi\u00f3n internacional de <\/span><b>Meta AI<\/b><span style=\"font-weight: 400\">, permitiendo que m\u00e1s personas accedan a esta tecnolog\u00eda de forma gratuita a trav\u00e9s de Facebook, Instagram, WhatsApp y Messenger en Australia, Canad\u00e1, Ghana, Jamaica, Malawi, Nueva Zelanda, Nigeria, Pakist\u00e1n, Singapur, Sud\u00e1frica, Uganda, Zambia y Zimbabue. <\/span><b>\u00a1Y esto es solo el principio! <\/b><span style=\"font-weight: 400\">Puedes leer m\u00e1s sobre la experiencia Meta AI <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/04\/meta-ai-assistant-built-with-llama-3\/\"><span style=\"font-weight: 400\">aqu\u00ed<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Visita <\/span><a href=\"https:\/\/llama.meta.com\/llama3\"><span style=\"font-weight: 400\">la web de Llama 3<\/span><\/a><span style=\"font-weight: 400\"> para descargar los modelos y consulta la<\/span><a href=\"https:\/\/llama.meta.com\/get-started\/\"><span style=\"font-weight: 400\"> Gu\u00eda de iniciaci\u00f3n<\/span><\/a><span style=\"font-weight: 400\"> para ver la lista actualizada de todas las plataformas disponibles.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Hoy presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje de gran tama\u00f1o de c\u00f3digo abierto. \u00a0","protected":false},"author":81919965,"featured_media":22658,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[237720135,243901451],"tags":[243901521,243901511,243901520,243901512],"class_list":["post-22648","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias-de-productos","category-tecnologia-e-innovacion","tag-innovacion","tag-inteligencia-artificial","tag-llama-3","tag-machine-learning"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"og:description\" content=\"Hoy presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje de gran tama\u00f1o de c\u00f3digo abierto. \u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\" \/>\n<meta property=\"og:site_name\" content=\"Informaci\u00f3n sobre Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-04-19T10:39:09+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-04-19T10:41:53+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?resize=1024,577\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"577\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"text100madrid\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"},\"author\":\"Facebook company\",\"headline\":\"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha\",\"datePublished\":\"2024-04-19T10:39:09+00:00\",\"dateModified\":\"2024-04-19T10:41:53+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"},\"wordCount\":3221,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679\",\"keywords\":[\"Innovaci\u00f3n\",\"inteligencia artificial\",\"Llama 3\",\"machine learning\"],\"articleSection\":[\"Noticias de productos\",\"Tecnolog\u00eda e Innovaci\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\",\"url\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\",\"name\":\"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679\",\"datePublished\":\"2024-04-19T10:39:09+00:00\",\"dateModified\":\"2024-04-19T10:41:53+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/\"]}],\"author\":\"Informaci\u00f3n sobre Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679\",\"contentUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679\",\"width\":1204,\"height\":679},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/es\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Informaci\u00f3n sobre Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/es\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/es\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/es\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","og_locale":"es_ES","og_type":"article","og_title":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta","og_description":"Hoy presentamos Meta Llama 3, la nueva generaci\u00f3n de nuestro modelo de lenguaje de gran tama\u00f1o de c\u00f3digo abierto. \u00a0","og_url":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","og_site_name":"Informaci\u00f3n sobre Meta","article_published_time":"2024-04-19T10:39:09+00:00","article_modified_time":"2024-04-19T10:41:53+00:00","og_image":[{"width":1024,"height":577,"url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?resize=1024,577","type":"image\/png"}],"author":"text100madrid","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"15 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"},"author":"Facebook company","headline":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha","datePublished":"2024-04-19T10:39:09+00:00","dateModified":"2024-04-19T10:41:53+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"},"wordCount":3221,"publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679","keywords":["Innovaci\u00f3n","inteligencia artificial","Llama 3","machine learning"],"articleSection":["Noticias de productos","Tecnolog\u00eda e Innovaci\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","url":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/","name":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha | Informaci\u00f3n sobre Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679","datePublished":"2024-04-19T10:39:09+00:00","dateModified":"2024-04-19T10:41:53+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/"]}],"author":"Informaci\u00f3n sobre Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#primaryimage","url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679","contentUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679","width":1204,"height":679},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/es\/news\/2024\/04\/presentamos-meta-llama-3-el-modelo-de-lenguaje-de-gran-tamano-mas-potente-hasta-la-fecha\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/es\/"},{"@type":"ListItem","position":2,"name":"Presentamos Meta Llama 3: el modelo de lenguaje de gran tama\u00f1o m\u00e1s potente hasta la fecha"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/es\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Informaci\u00f3n sobre Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/es\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/es\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/es\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/es\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/es\/wp-content\/uploads\/sites\/13\/2024\/04\/Introducing-Llama-3.png?fit=1204%2C679","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22648","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/users\/81919965"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/comments?post=22648"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22648\/revisions"}],"predecessor-version":[{"id":22657,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/posts\/22648\/revisions\/22657"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/media\/22658"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/media?parent=22648"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/categories?post=22648"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/es\/wp-json\/wp\/v2\/tags?post=22648"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}