Meta

Nuestro enfoque responsable en la construcción de Meta Llama 3 y Meta AI

Hoy anunciamos la expansión internacional de Meta AI, uno de los principales asistentes de IA gratuitos del mundo, construido con Meta Llama 3, la nueva generación de nuestro modelo de lenguaje de gran tamaño disponible públicamente. Gracias a los últimos avances con Llama 3, Meta AI es más inteligente, rápido y divertido que nunca.

Estamos comprometidos con el desarrollo responsable de la IA y con ayudar a otros a hacer lo mismo. Por eso estamos compartiendo una serie de pasos para que las personas puedan tener experiencias agradables utilizando estos recursos y modelos, compartiendo herramientas para apoyar a los desarrolladores y a la comunidad abierta.

Responsabilidad en las distintas etapas del proceso de desarrollo

Estamos entusiasmados con el potencial que la tecnología de IA generativa puede tener para las personas que utilizan los productos Meta y para el ecosistema en general. También queremos asegurarnos de que estamos desarrollando y lanzando esta tecnología de una manera que anticipe y trabaje para reducir los riesgos. Con este fin, hemos tomado medidas para evaluar y abordar los riesgos en todos los niveles del proceso de desarrollo y despliegue de la IA. Esto incluye la incorporación de salvaguardas en el proceso que utilizamos para diseñar y lanzar el modelo base de Llama, el apoyo al ecosistema de desarrolladores para que puedan construir de manera responsable, y la adopción de las mismas mejores prácticas que esperamos de otros desarrolladores cuando desarrollamos y lanzamos nuestras propias funciones de IA generativa en Facebook, Instagram, WhatsApp y Messenger.

Como explicamos cuando lanzamos Llama 2, es importante ser intencionales a la hora de diseñar estas medidas, porque hay algunas de ellas que solo pueden ser implementadas eficazmente por el proveedor del modelo, y otras que solo funcionan eficazmente cuando las implementa el desarrollador como parte de su aplicación específica.

Por estas razones, con Llama hemos adoptado un enfoque centrado en el sistema que aplica protecciones en cada capa del desarrollo. Esto incluye un enfoque cuidadoso de nuestros esfuerzos de formación y ajuste, y la provisión de herramientas que faciliten a los desarrolladores la implementación responsable de los modelos. Además de maximizar la eficacia de nuestros esfuerzos de IA responsable, este enfoque está en consonancia con nuestra perspectiva de innovación abierta, dando a los desarrolladores más poder para personalizar sus productos de forma que sean más seguros y beneficien a sus usuarios. La Guía de uso responsable es un recurso importante para los desarrolladores, ya que describe los puntos que deben tenerse en cuenta a la hora de crear sus propios productos.

Construcción responsable de Llama 3 como modelo fundacional

Hemos implementado varias medidas a nivel de modelo para desarrollar un modelo de construcción altamente capaz y seguro en Llama 3, entre ellos:

Abordar los riesgos en la etapa de entrenamiento

La base de cualquier modelo es el proceso de entrenamiento, a través del cual el modelo aprende tanto el lenguaje como la información que necesita para funcionar. Por ello, nuestro enfoque comenzó con una serie de mitigaciones de IA responsables en nuestro proceso de entrenamiento. Por ejemplo:

Evaluaciones de seguridad y ajuste

Adaptamos el modelo pre-entrenado mediante un proceso de ajuste, en el que tomamos medidas adicionales para mejorar su rendimiento en la comprensión y generación de conversaciones de texto, de modo que pueda utilizarse en aplicaciones de chat tipo asistente.

Durante y después del entrenamiento, llevamos a cabo evaluaciones automáticas y manuales para conocer el rendimiento de nuestros modelos en una serie de ámbitos de riesgo, como las armas, los ciberataques y la explotación infantil. En cada área, realizamos un trabajo adicional para limitar la posibilidad de que el modelo proporcione respuestas no deseadas.

Reducción de negativas benignas

Los desarrolladores nos comentaron que Llama 2 a veces se negaba inadvertidamente a responder a preguntas inofensivas. Los grandes modelos lingüísticos tienden a generalizar en exceso y no queremos que se niegue a responder a preguntas como «¿Cómo puedo matar a un programa informático?», aunque tampoco queremos que responda a preguntas como «¿Cómo puedo matar a mi vecino?».

Transparencia del modelo

Al igual que con Llama 2, publicamos una ficha de modelo que incluye información detallada sobre la arquitectura de Llama 3, sus parámetros y las evaluaciones pre-entrenadas. La ficha del modelo también ofrece información sobre las capacidades y limitaciones de las herramientas.

En los próximos meses, lanzaremos otros modelos Llama 3 con nuevas funciones, como la multimodalidad, la posibilidad de conversar en varios idiomas y capacidades globales más potentes. Seguimos comprometidos con nuestro enfoque general de código abierto para nuestros modelos Llama 3. Actualmente estamos entrenando un modelo de 400.000 millones de parámetros, y cualquier decisión final sobre cuándo, si y cómo hacerlo de código abierto se tomará después de las evaluaciones de seguridad que llevaremos a cabo en los próximos meses.

Cómo construimos Meta AI de forma responsable

Construimos la nueva Meta AI sobre la base de Llama 3, imaginando que la herramienta permitirá a los desarrolladores ampliar el ecosistema existente de productos y servicios basados en Llama. Como describimos en nuestra Guía de Uso Responsable, hemos tomado medidas adicionales en las distintas fases de desarrollo y despliegue del producto para construir Meta AI sobre el modelo de la fundación, del mismo modo que cualquier desarrollador utilizaría Llama 3 para construir su propio producto.

Además de las mitigaciones que hemos adoptado dentro de Llama 3, un desarrollador necesita adoptar mitigaciones adicionales para garantizar que el modelo pueda funcionar correctamente en el contexto de su sistema específico y en cada caso de uso. Para Meta AI, el caso de uso es un asistente seguro y útil a disposición de las personas directamente en nuestras aplicaciones. Lo diseñamos para ayudar a las personas a realizar tareas como la lluvia de ideas y la superación del bloqueo del escritor, o la conexión con amigos para descubrir nuevos lugares y aventuras.

Desde el lanzamiento de Meta AI el año pasado, hemos actualizado y mejorado constantemente la experiencia y seguimos haciéndola aún mejor. Por ejemplo:

Hemos mejorado las respuestas de Meta AI a las peticiones y preguntas de la gente.

Hemos enseñado al modelo Meta AI instrucciones y respuestas específicas para convertirlo en un asistente más útil.

Evaluamos el rendimiento de Meta AI comparándolo con puntos de referencia y utilizando expertos humanos.

Aplicamos salvaguardas a nivel de solicitud y respuesta.

Hemos incluido herramientas de feedback en Meta AI.

La transparencia es fundamental para que la gente entienda esta nueva tecnología y se sienta cómoda con ella. Cuando alguien interactúa con Meta AI, le hacemos saber que se trata de tecnología de IA para que pueda elegir si quiere seguir utilizándola. Compartimos información dentro de los propios recursos para ayudar a la gente a entender que la IA puede tomar decisiones inexactas o inapropiadas, lo que es igual para todos los sistemas de inteligencia artificial generativa. En las conversaciones con Meta AI, las personas pueden acceder a información adicional sobre cómo genera contenidos, las limitaciones de la IA y cómo se utilizan los datos que han compartido con Meta AI.

También hemos incluido marcadores visibles en las imágenes fotorrealistas generadas por Meta AI para que la gente sepa que el contenido ha sido creado con IA. En mayo, empezaremos a etiquetar los contenidos de vídeo, audio e imagen que la gente publique en nuestras aplicaciones como «Hecho con IA» cuando detectemos indicadores de imagen de IA estándar del sector o cuando la gente indique que está subiendo contenidos generados con IA.

Cómo los desarrolladores pueden construir de forma responsable con Llama 3

Meta AI es sólo una de las muchas características y productos que se crearán con Llama 3. Estamos lanzando diferentes modelos en tamaños 8B y 70B para que los desarrolladores puedan utilizar la mejor versión para ellos. También estamos proporcionando una plantilla ajustada a las instrucciones especializada en aplicaciones de chatbot, así como una plantilla preentrenada para desarrolladores con casos de uso específicos que se beneficiarían de políticas personalizadas.

Además de la Guía de Uso Responsable, estamos proporcionando herramientas de código abierto que facilitan aún más a los desarrolladores la personalización de Llama 3 y la implementación de experiencias generativas con tecnología de IA.

El enfoque abierto de Meta para apoyar el ecosistema

Durante más de una década, Meta ha estado a la vanguardia del código abierto responsable en IA, y creemos que un enfoque abierto de la IA resulta en productos mejores y más seguros, una innovación más rápida y un mercado más grande. Hemos visto a gente utilizar Llama 2 de formas nuevas e innovadoras desde su lanzamiento en julio de 2023, como el Meditron LLM de Yale, que está ayudando a los profesionales médicos a tomar decisiones, y la herramienta de la Clínica Mayo, que ayuda a los radiólogos a crear resúmenes clínicamente precisos de las exploraciones de sus pacientes. Llama 3 tiene el potencial de mejorar aún más estas herramientas y experiencias.

«Las próximas mejoras de las capacidades de razonamiento de Llama 3 son importantes para cualquier aplicación, pero especialmente en el ámbito médico, donde la confianza depende en gran medida de la transparencia del proceso de toma de decisiones. Desglosar una decisión o predicción en un conjunto de pasos lógicos suele ser la forma en que los humanos explican sus acciones, y este tipo de interpretabilidad es lo que se espera de las herramientas de apoyo a la toma de decisiones clínicas. Llama 2 no sólo nos permitió crear Meditron, sino que también sentó un precedente para el impacto potencial de los modelos de autor de código abierto en general. Estamos entusiasmados con Llama 3 por el ejemplo que añade al sector sobre el valor social de los modelos abiertos». – Mary-Anne Hartley (Ph.D. MD, MPH), Directora del Laboratorio de Tecnologías Inteligentes de Salud Global y Respuesta Humanitaria, con sede conjunta en la Facultad de Medicina de Yale y la Escuela de Informática de la EPFL

En general, el software de código abierto es más seguro gracias a los continuos comentarios, el análisis minucioso, el desarrollo y las mitigaciones de la comunidad. Implementar la IA de forma segura es una responsabilidad compartida por todos los integrantes del ecosistema, por lo que llevamos muchos años colaborando con organizaciones que trabajan para crear una IA segura y fiable. Por ejemplo, estamos trabajando con MLCommons y un conjunto global de socios para crear puntos de referencia de responsabilidad de forma que beneficie a toda la comunidad de código abierto. Hemos cofundado la AI Alliance, una coalición de empresas, académicos, defensores y gobiernos que trabajan para desarrollar herramientas que permitan un ecosistema de IA abierto y seguro. También hemos publicado recientemente los resultados de un Foro Comunitario en colaboración con Stanford y el Behavioural Insights Team para que empresas, investigadores y gobiernos puedan tomar decisiones basadas en las opiniones de personas de todo el mundo sobre lo que es importante para ellos en lo que respecta a los chatbots generativos de IA.

Estamos colaborando con gobiernos de todo el mundo para crear una base sólida para que los avances de la IA sean seguros, justos y fiables. Estamos deseando ver el progreso de la evaluación de la seguridad y la investigación de los institutos nacionales de seguridad, incluidos los de Estados Unidos y el Reino Unido, especialmente cuando se centran en establecer modelos y evaluaciones de amenazas estandarizados a lo largo del proceso de desarrollo de la IA. Esto ayudará a medir los riesgos de forma cuantitativa y coherente para poder definir límites de riesgo. Los resultados de estos esfuerzos guiarán a empresas como Meta a la hora de medir y tratar los riesgos, así como de decidir cómo y si liberar modelos.

A medida que las tecnologías sigan evolucionando, esperamos mejorar estas funciones y modelos en los próximos meses y años. Estamos deseando ayudar a la gente a construir, crear y conectarse de formas nuevas e interesantes.