LlamaCon ha comenzado oficialmente. Nuestro evento inaugural reúne a desarrolladores de todo el mundo que tienen una cosa en común: les encanta construir con Llama. Han pasado poco más de dos años desde que lanzamos Llama. Durante ese tiempo, hemos superado las mil millones de descargas y, lo que es más importante, hemos establecido a Llama como líder en el ecosistema de la IA de enfoque abierto. Desarrolladores, startups, gobiernos y empresas están teniendo éxito con Llama, aprovechando sus capacidades para impulsar la innovación, mejorar la eficiencia y resolver problemas complejos.
Por supuesto, no podíamos reunir a un grupo de desarrolladores sin también compartir nuevas herramientas de enfoque abierto que les permitan explorar los modelos de Llama, construir más rápido y con las últimas funciones para defender y proteger. Aquí te mostramos lo que estamos anunciando hoy y cómo puedes comenzar a usar nuestras últimas novedades.
Presentamos Llama API en vista previa: Las mejores funcionaes de las API de modelo cerrado, con la flexibilidad del enfoque abierto
Queremos facilitar aún más el inicio rápido con Llama, dándote total control sobre tus modelos y pesos, sin quedar atado a una API. Hoy anunciamos Llama API, nuestra próxima plataforma para el desarrollo de aplicaciones con Llama, disponible como una vista previa gratuita y limitada.
Llama API permite crear claves API con un solo clic y ofrece entornos interactivos para explorar diferentes modelos de Llama, incluidos Llama 4 Scout y Llama 4 Maverick, anunciados a principios de este mes. Cuando estés listo para construir tu aplicación, ofrecemos un SDK ligero en Python y TypeScript. Además, Llama API es compatible con el SDK de OpenAI, facilitando la conversión de aplicaciones existentes.
Sabemos también que es importante contar con herramientas para personalizar y ejecutar modelos de manera eficiente. Por eso, como parte de este lanzamiento, compartimos herramientas para fine-tuning (ajuste fino) y evaluación en nuestra nueva API, donde podrás entrenar versiones personalizadas del nuevo modelo Llama 3.3 8B. Estamos presentando esta capacidad para ayudarte a reducir costos, acelerar tiempos y aumentar la precisión. Puedes generar datos, entrenarlos y, luego, utilizar nuestro conjunto de evaluaciones para comprobar fácilmente la calidad de tu nuevo modelo. Haciendo las evaluaciones más accesibles y fáciles de ejecutar ayudará a pasar de las intuiciones a los datos, asegurando disponer de modelos que funcionan bien para satisfacer tus necesidades. La seguridad y privacidad de tus datos es nuestra máxima prioridad. No utilizamos tus indicaciones ni respuestas de modelos para entrenar nuestros modelos de IA. Cuando estés listo, los modelos que construyas en la API de Llama podrás llevarlos contigo donde quieras alojarlos, y no los mantendremos retenidos en nuestros servidores. Estamos introduciendo estas funciones para clientes seleccionados, con planes de un despliegue más amplio en las próximas semanas y meses. Esto abrirá nuevas posibilidades para que los desarrolladores creen modelos personalizados para todo tipo de casos de uso.
Esta vista previa es sólo el primer paso de Llama API. Estamos muy contentos de tener más personas construyendo con nuestra API y utilizaremos sus comentarios para ayudarnos a iterar en futuras versiones. Si estás interesado en solicitar una de las primeras vacantes limitadas para nuestra vista previa gratuita, por favor, llena este formulario.
Inferencia rápida con Llama API
Estamos entusiasmados de anunciar una colaboración con Cerebras y Groq que ayudará a más desarrolladores de Llama a lograr velocidades de inferencia más rápidas utilizando la Llama API. El acceso experimental temprano a los modelos Llama 4 impulsados por Cerebras y Groq ya está disponible mediante solicitud, ofreciendo una manera conveniente para que los desarrolladores experimenten y hagan prototipos de casos de uso antes de escalar con el proveedor de su elección. Simplemente seleccionando los nombres de los modelos Cerebras o Groq en la API, los desarrolladores pueden aprovechar esta capacidad y disfrutar de una experiencia optimizada con todo el uso registrado en un solo lugar. Esta colaboración refuerza nuestro compromiso de fomentar un ecosistema diverso que ofrezca flexibilidad y opciones, y esperamos ampliar las asociaciones con más proveedores para ofrecer aún más posibilidades de construir sobre Llama.
Nuevas integraciones de Llama Stack
Escuchamos a los desarrolladores que necesitamos facilitar el despliegue de aplicaciones utilizando diferentes proveedores de servicios. El año pasado, colaboramos con socios para construir distribuciones de Llama Stack para sus clientes empresariales finales. Este año, estamos ampliando esas colaboraciones, incluyendo una integración recientemente anunciada de Llama Stack con Nvidia NeMo microservices, y trabajando estrechamente con socios como IBM, Red Hat, Dell Technologies, entre otros, en nuevas integraciones que se anunciarán pronto. Junto a nuestros socios, visualizamos a Llama Stack como el estándar de la industria para las empresas que buscan implementar soluciones de IA de nivel de producción sin problemas.
Nuevas Protecciones y Seguridad de Llama para la comunidad de enfoque abierto
Estamos comprometidos a proporcionar a los desarrolladores las mejores herramientas y recursos para construir aplicaciones de IA seguras. Hoy, lanzamos nuevas herramientas de protección de Llama para la comunidad de enfoque abierto, incluyendo Llama Guard 4, LlamaFirewall y Llama Prompt Guard 2. También compartimos actualizaciones para ayudar a las organizaciones a evaluar la eficacia de los sistemas de IA en operaciones de seguridad con CyberSecEval 4, y anunciamos el Programa Llama Defenders para socios seleccionados. A medida que se disponen de modelos de IA más capaces, creemos que este es un esfuerzo importante para mejorar la robustez de los sistemas de software. Lee más sobre nuestras últimas herramientas de protección de enfoque abierto y novedades en avances de seguridad de IA.
Conoce a los ganadores de Llama Impact Grants
Las Llama Impact Grants están destinadas a fomentar la innovación y crear oportunidades económicas a través de la IA de enfoque abierto. Hoy, estamos emocionados de anunciar a los 10 destinatarios internacionales de la segunda edición de las Llama Impact Grants. Con más de 1,5 millones de dólares otorgados a 10 destinatarios internacionales, estas subvenciones apoyan a empresas, startups y universidades que utilizan Llama para impulsar cambios transformadores. Los ganadores de este año muestran una diversa gama de soluciones, incluyendo E.E.R.S. de Estados Unidos, que utiliza un chatbot impulsado por Llama para mejorar el acceso público a los servicios cívicos, y Doses AI en el Reino Unido, que transforma las operaciones de farmacia con detección de errores en tiempo real. Otros ganadores destacados incluyen Solo Tech, que proporciona soporte de IA offline en comunidades rurales de EE.UU., y FoondaMate, una herramienta de estudio multilingüe que ayuda a millones de estudiantes en África y más allá.
Lee más sobre los ganadores de las Llama Impact Grants.
El futuro es del enfoque abierto
Estamos orgullosos de ser líderes en IA de enfoque abierto y de tener a nuestro ecosistema Llama al frente de esta revolución. Con Llama, los desarrolladores y las empresas tienen la libertad de construir lo que quieran, sin quedar atados a sistemas propietarios ni contratos restrictivos. Esta flexibilidad, combinada con su portabilidad y accesibilidad, convierte a Llama en la opción preferida para quienes buscan aprovechar el poder de la IA.
Estamos comprometidos a ser un socio a largo plazo para empresas y desarrolladores, proporcionando un camino de transición fluido desde modelos cerrados. Llama es asequible, fácil de usar y permite que más personas accedan a los beneficios de la IA, independientemente de su experiencia técnica o recursos de hardware. Creemos en el potencial de la IA para transformar industrias y mejorar vidas, por eso estamos emocionados de seguir apoyando el crecimiento y desarrollo del ecosistema de Llama para el beneficio de todos. No podemos esperar a ver qué construirás a continuación.