{"id":24880,"date":"2023-09-27T13:07:33","date_gmt":"2023-09-27T19:07:33","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=24880"},"modified":"2023-09-27T13:26:29","modified_gmt":"2023-09-27T19:26:29","slug":"creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/","title":{"rendered":"Creando funciones de Inteligencia Artificial generativa en forma responsable"},"content":{"rendered":"<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-24884\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif?resize=960%2C540\" alt=\"\" width=\"960\" height=\"540\" \/><\/p>\n<p><span style=\"font-weight: 400\">Destaques:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Estamos incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas para que los usuarios puedan disfrutar de experiencias m\u00e1s seguras y agradables.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Como ocurre con todos los sistemas de IA generativa, los modelos pueden entregar resultados imprecisos o inadecuados. Seguiremos mejorando estas funcionalidades a medida que evolucionen y tengamos m\u00e1s <\/span><i><span style=\"font-weight: 400\">feedback<\/span><\/i><span style=\"font-weight: 400\"> de las personas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Trabajamos con gobiernos, empresas, especialistas en IA del mundo acad\u00e9mico y de la sociedad civil, padres y expertos en privacidad, entre otros, para establecer barreras de seguridad responsables.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Meta lleva m\u00e1s de una d\u00e9cada siendo una empresa pionera en IA. Hemos lanzado m\u00e1s de 1.000 modelos de IA, bibliotecas y conjuntos de datos para investigadores, incluida la \u00faltima versi\u00f3n de nuestro gran modelo ling\u00fc\u00edstico, Llama 2, que fue posibilitado mediante una colaboraci\u00f3n con Microsoft.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En Connect 2023, anunciamos varias funciones nuevas de <a href=\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/presentamos-nuevas-experiencias-de-ia-en-nuestras-aplicaciones-y-dispositivos\/\">IA generativa<\/a><\/span><span style=\"font-weight: 400\">\u00a0que las personas pueden utilizar para hacer que las experiencias que tienen en nuestras plataformas sean a\u00fan m\u00e1s sociales e inmersivas. Esperamos que estas herramientas puedan ayudar a las personas de diversas maneras. Imaginemos un grupo de amigos que planean un viaje juntos. En un chat grupal, pueden pedir a un asistente de IA sugerencias de actividades para realizar o restaurantes para experimentar. O en otro caso, un profesor podr\u00eda utilizar la IA para ayudar a crear clases empleando distintos estilos de aprendizaje personalizados para cada uno de los alumnos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">La construcci\u00f3n de esta tecnolog\u00eda conlleva la responsabilidad de desarrollar las mejores pr\u00e1cticas y las mejores pol\u00edticas que sea posible. Aunque hay muchos casos de uso interesantes y creativos para la IA generativa, no siempre ser\u00e1 perfecta. Los modelos subyacentes, por ejemplo, tienen el potencial de generar respuestas ficticias o exacerbar estereotipos que pueden aprender de los datos que fueron utilizado para su entrenamiento. Hemos incorporado las lecciones que aprendimos durante la \u00faltima d\u00e9cada a estas nuevas funciones, como es el caso de las notificaciones para que las personas puedan entender los l\u00edmites de la IA generativa, o el de los clasificadores de integridad, que nos ayudan a detectar y eliminar respuestas peligrosas. Todo ello de acuerdo con las mejores pr\u00e1cticas del sector descritas en la<\/span><a href=\"https:\/\/ai.meta.com\/llama\/responsible-use-guide\/\"> <span style=\"font-weight: 400\">Gu\u00eda de uso responsable<\/span><\/a><span style=\"font-weight: 400\"> de Llama 2.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En consonancia con nuestro compromiso con desarrollar IA en forma responsable, tambi\u00e9n sometemos nuestros productos a pruebas de estr\u00e9s para mejorar su seguridad y colaboramos regularmente con legisladores, especialistas del mundo acad\u00e9mico y de la sociedad civil, entre\u00a0 muchos otros miembros del sector, para avanzar en el uso responsable de esta tecnolog\u00eda. Desarrollaremos estas funciones paso a paso y lanzaremos las IA en fase beta. Seguiremos perfeccionando y mejorando estas funciones a medida que las tecnolog\u00edas evolucionen y veamos c\u00f3mo la gente las utiliza en su vida cotidiana.<\/span><\/p>\n<p><strong>C\u00f3mo trabajamos de forma responsable y priorizamos la seguridad de las personas<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, nuestro asistente impulsado por modelos ling\u00fc\u00edsticos, se construyen sobre la base de<\/span><a href=\"https:\/\/about.fb.com\/news\/2023\/07\/llama-2\/\"> <span style=\"font-weight: 400\">Llama 2<\/span><\/a><span style=\"font-weight: 400\"> y aprovechan sus principios fundacionales de seguridad y responsabilidad. Tambi\u00e9n hemos invertido en medidas espec\u00edficas para las funciones que anunciamos hoy.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos compartiendo un <\/span><a href=\"https:\/\/ai.meta.com\/static-resource\/building-generative-ai-responsibly\/\"><span style=\"font-weight: 400\">recurso<\/span><\/a><span style=\"font-weight: 400\"> que explica las medidas que adoptamos para detectar posibles vulnerabilidades, reducir riesgos, mejorar la seguridad y reforzar la fiabilidad. Como por ejemplo:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\"><strong>Evaluamos y mejoramos nuestras IA conversacionales con especialistas externos e internos empleando ejercicios de &#8216;red teaming<\/strong>.&#8217;<\/span><span style=\"font-weight: 400\"> Diferentes equipos integrados por expertos han dedicado miles de horas para probar estos modelos, explorando maneras inusuales de utilizarlos e identificando y corrigiendo vulnerabilidades.<\/span><\/li>\n<li style=\"font-weight: 400\"><strong>Refinaci\u00f3n de modelos<\/strong><span style=\"font-weight: 400\"><strong>.<\/strong> Esta pr\u00e1ctica incluye entrenar modelos para realizar tareas espec\u00edficas, como la generaci\u00f3n de im\u00e1genes de alta calidad, con instrucciones que puedan aumentar la probabilidad de obtener respuestas \u00fatiles. Tambi\u00e9n los entrenamos para que ofrezcan recursos que cuentan con el respaldo de expertos en seguridad. Por ejemplo, las IA sugerir\u00e1n organizaciones locales dedicadas a atender la problem\u00e1tica del suicidio o los trastornos alimentarios, en caso de consultas espec\u00edficas, dejando claro que no pueden dar asesoramiento m\u00e9dico.<\/span><\/li>\n<li style=\"font-weight: 400\"><strong>Entrenamos nuestros modelos en pautas de seguridad y responsabilidad.<\/strong><span style=\"font-weight: 400\"> Ense\u00f1ar pautas a los modelos significa que es menos probable que compartan respuestas potencialmente da\u00f1inas o inapropiadas en nuestras apps.<\/span><\/li>\n<li style=\"font-weight: 400\"><strong>Adoptamos medidas para reducir la tendenciosidad.<\/strong><span style=\"font-weight: 400\"> El abordaje de los posibles sesgos en los sistemas de IA generativa es un nuevo campo de investigaci\u00f3n. Al igual que con otros modelos, el enfoque se va perfeccionando a medida que m\u00e1s personas utilizan las funciones y comparten sus comentarios acerca de su experiencia..<\/span><\/li>\n<li style=\"font-weight: 400\"><strong>Desarrollamos nuevas tecnolog\u00edas para detectar y actuar sobre los contenidos que infringen nuestras pol\u00edticas.<\/strong><span style=\"font-weight: 400\"> Nuestros equipos han creado algoritmos que escanean y filtran las respuestas perjudiciales antes de que se compartan con los usuarios.<\/span><\/li>\n<li style=\"font-weight: 400\"><strong>Hemos incorporado herramientas de retroalimentaci\u00f3n dentro de estas funciones.<\/strong><span style=\"font-weight: 400\"> Ning\u00fan modelo de IA es perfecto. Utilizaremos los comentarios que recibamos para seguir entrenando los modelos con el fin de mejorar el rendimiento en materia de seguridad y en la detecci\u00f3n autom\u00e1tica de infracciones de las pol\u00edticas. Tambi\u00e9n estamos poniendo nuestras nuevas funciones de IA generativa a disposici\u00f3n de los investigadores en ese campo a trav\u00e9s del programa de recompensas por fallos de Meta, que lleva mucho tiempo en marcha.<\/span><\/li>\n<\/ul>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-24881\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?resize=960%2C836\" alt=\"\" width=\"960\" height=\"836\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?w=960 960w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?w=459 459w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/01_AI-Responsibility.jpeg?w=689 689w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><strong>\u00bfC\u00f3mo protegemos la privacidad de las personas?<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Debemos rendir cuentas acerca de la manera en que protegemos la privacidad de las personas a los reguladores, legisladores y distintos especialistas, y trabajamos con ellos para garantizar que lo que construimos siga las mejores pr\u00e1cticas y cumpla con las normas estrictas de protecci\u00f3n de datos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Creemos que es importante que las personas entiendan los tipos de datos que utilizamos para entrenar los modelos que impulsan nuestros productos de IA generativa. Por ejemplo, no utilizamos sus mensajes privados con amigos y familiares para entrenar nuestras IA. Podemos utilizar los datos de tu uso de los stickers de IA, como tus b\u00fasquedas de un sticker para utilizarlo en un chat, para mejorar nuestros modelos de stickers de IA. Puede obtener m\u00e1s informaci\u00f3n sobre los tipos de datos que utilizamos en nuestro <\/span><a href=\"https:\/\/about.fb.com\/news\/2023\/09\/privacy-matters-metas-generative-ai-features\/\"><span style=\"font-weight: 400\">art\u00edculo sobre privacidad de la IA generativa<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><strong>\u00bfC\u00f3mo nos aseguramos de que las personas sepan usar las nuevas funciones y conozcan sus limitaciones?<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Proveemos informaci\u00f3n dentro de las mismas funciones para ayudar a las personas a entender cu\u00e1ndo est\u00e1n interactuando con IA y c\u00f3mo funciona esta nueva tecnolog\u00eda. Indicamos en la experiencia del producto que podr\u00eda entregar resultados inexactos o inadecuados.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-24882\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?resize=960%2C836\" alt=\"\" width=\"960\" height=\"836\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?w=960 960w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?w=459 459w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/02_AI-Responsibility.jpeg?w=689 689w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">El a\u00f1o pasado publicamos <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\"><span style=\"font-weight: 400\">22 \u00abTarjetas de Sistema\u00bb<\/span><\/a><span style=\"font-weight: 400\"> para dar a los usuarios informaci\u00f3n comprensible sobre c\u00f3mo nuestra IA toma decisiones y sus efectos. Hoy compartimos las nuevas tarjetas del sistema de IA generativa en el sitio web de IA de Meta, uno para los sistemas de IA que <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\/ai-systems-that-generate-text\"><span style=\"font-weight: 400\">generan texto<\/span><\/a><span style=\"font-weight: 400\"> que alimenta Meta AI y otro para los sistemas de IA que <\/span><a href=\"https:\/\/ai.meta.com\/tools\/system-cards\/ai-systems-that-generate-images\"><span style=\"font-weight: 400\">generan im\u00e1genes<\/span><\/a><span style=\"font-weight: 400\"> para los stickers de IA, Meta AI, restyle y backdrop. Estas tarjetas incluyen una demostraci\u00f3n interactiva para que los usuarios puedan ver c\u00f3mo el perfeccionamiento de sus indicaciones afecta a los resultados de los modelos.<\/span><\/p>\n<p><strong>\u00bfC\u00f3mo ayudamos a las personas a saber cu\u00e1ndo se crean las im\u00e1genes con nuestras funciones de IA?<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Seguimos las mejores pr\u00e1cticas de la industria para que sea m\u00e1s dif\u00edcil difundir informaci\u00f3n err\u00f3nea con nuestras herramientas. Las im\u00e1genes creadas o editadas por Meta AI, restyle y backdrop tendr\u00e1n marcadores visibles para que las personas sepan que el contenido fue creado por AI. Tambi\u00e9n estamos desarrollando t\u00e9cnicas adicionales para incluir informaci\u00f3n dentro de los archivos de imagen que fueron creados por Meta AI, y tenemos la intenci\u00f3n de ampliar esto a otras experiencias a medida que la tecnolog\u00eda mejore. No tenemos previsto a\u00f1adir estas funciones a los stickers de IA, ya que no son fotorrealistas y es poco probable que induzcan a error a las personas haci\u00e9ndoles creer que son reales.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Actualmente, la industria no tiene normas comunes para identificar y etiquetar los contenidos generados por IA. Creemos que deber\u00edan existir y es por eso que estamos trabajando con otras empresas, en foros como el Partnership on AI, con la expectativa de desarrollarlas.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-24883\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?resize=960%2C836\" alt=\"\" width=\"960\" height=\"836\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?w=960 960w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?w=459 459w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/03_AI-Responsibility.jpeg?w=689 689w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><strong>\u00bfQu\u00e9 medidas estamos tomando para impedir que las personas difundan informaci\u00f3n err\u00f3nea utilizando IA generativa?<\/strong><\/p>\n<p><span style=\"font-weight: 400\">La inteligencia artificial es un elemento clave para combatir la desinformaci\u00f3n y otros contenidos nocivos. Por ejemplo, hemos<\/span><a href=\"https:\/\/ai.meta.com\/blog\/heres-how-were-using-ai-to-help-detect-misinformation\/\"> <span style=\"font-weight: 400\">desarrollado tecnolog\u00edas de IA<\/span><\/a><span style=\"font-weight: 400\"> para que encuentren contenidos que son pr\u00e1cticamente duplicados de otros ya previamente verificados. Tambi\u00e9n disponemos de una herramienta llamada <\/span><a href=\"https:\/\/ai.meta.com\/blog\/harmful-content-can-evolve-quickly-our-new-ai-system-adapts-to-tackle-it\/\"><span style=\"font-weight: 400\">Few-Shot Learner<\/span><\/a><span style=\"font-weight: 400\">, que puede adaptarse m\u00e1s f\u00e1cilmente para actuar con rapidez sobre tipos de contenidos nocivos nuevos o en evoluci\u00f3n, y que funciona en m\u00e1s de 100 idiomas. Antes ten\u00edamos que recopilar miles o incluso millones de ejemplos para crear un conjunto de datos lo suficientemente grande como para entrenar un modelo de inteligencia artificial, y luego afinarlo para que funcionara correctamente. Few-Shot Learner puede entrenar un modelo de IA basado en apenas un pu\u00f1ado de ejemplos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">La IA generativa podr\u00eda ayudarnos a eliminar contenidos nocivos con mayor rapidez y precisi\u00f3n que las actuales herramientas de IA. Hemos empezado a probar grandes modelos ling\u00fc\u00edsticos (LLM) entren\u00e1ndolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe o no nuestras pol\u00edticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje autom\u00e1tico existentes, o al menos mejorar algunos, como Few-Shot Learner, y somos optimistas en que la IA generativa pueda ayudarnos a aplicar nuestras pol\u00edticas en el futuro.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Destaques: Estamos incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas para que los usuarios puedan disfrutar de experiencias m\u00e1s seguras y agradables. Como ocurre con todos los sistemas de IA generativa, los modelos pueden entregar resultados imprecisos o inadecuados. Seguiremos mejorando estas funcionalidades a medida que evolucionen y tengamos m\u00e1s feedback de las personas. Trabajamos con gobiernos, empresas, especialistas en IA del mundo acad\u00e9mico y de la sociedad civil, padres y expertos en privacidad, entre otros, para establecer barreras de seguridad responsables. Meta lleva m\u00e1s de una d\u00e9cada siendo una empresa pionera en IA. Hemos lanzado m\u00e1s de 1.000 modelos de IA, bibliotecas y conjuntos de datos para investigadores, incluida la \u00faltima versi\u00f3n de nuestro gran modelo ling\u00fc\u00edstico, Llama 2, que fue posibilitado mediante una colaboraci\u00f3n con Microsoft. En Connect 2023, anunciamos varias funciones nuevas de IA generativa\u00a0que las personas pueden utilizar para hacer que las experiencias que tienen en nuestras plataformas sean a\u00fan m\u00e1s sociales e inmersivas. Esperamos que estas herramientas puedan ayudar a las personas de diversas maneras. Imaginemos un grupo de amigos que planean un viaje juntos. En un chat grupal, pueden pedir a un asistente de IA sugerencias de actividades para realizar o restaurantes para experimentar. O en otro caso, un profesor podr\u00eda utilizar la IA para ayudar a crear clases empleando distintos estilos de aprendizaje personalizados para cada uno de los alumnos. La construcci\u00f3n de esta tecnolog\u00eda conlleva la responsabilidad de desarrollar las mejores pr\u00e1cticas y las mejores pol\u00edticas que sea posible. Aunque hay muchos casos de uso interesantes y creativos para la IA generativa, no siempre ser\u00e1 perfecta. Los modelos subyacentes, por ejemplo, tienen el potencial de generar respuestas ficticias o exacerbar estereotipos que pueden aprender de los datos que fueron utilizado para su entrenamiento. Hemos incorporado las lecciones que aprendimos durante la \u00faltima d\u00e9cada a estas nuevas funciones, como es el caso de las notificaciones para que las personas puedan entender los l\u00edmites de la IA generativa, o el de los clasificadores de integridad, que nos ayudan a detectar y eliminar respuestas peligrosas. Todo ello de acuerdo con las mejores pr\u00e1cticas del sector descritas en la Gu\u00eda de uso responsable de Llama 2. En consonancia con nuestro compromiso con desarrollar IA en forma responsable, tambi\u00e9n sometemos nuestros productos a pruebas de estr\u00e9s para mejorar su seguridad y colaboramos regularmente con legisladores, especialistas del mundo acad\u00e9mico y de la sociedad civil, entre\u00a0 muchos otros miembros del sector, para avanzar en el uso responsable de esta tecnolog\u00eda. Desarrollaremos estas funciones paso a paso y lanzaremos las IA en fase beta. Seguiremos perfeccionando y mejorando estas funciones a medida que las tecnolog\u00edas evolucionen y veamos c\u00f3mo la gente las utiliza en su vida cotidiana. C\u00f3mo trabajamos de forma responsable y priorizamos la seguridad de las personas Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, nuestro asistente impulsado por modelos ling\u00fc\u00edsticos, se construyen sobre la base de Llama 2 y aprovechan sus principios fundacionales de seguridad y responsabilidad. Tambi\u00e9n hemos invertido en medidas espec\u00edficas para las funciones que anunciamos hoy. Estamos compartiendo un recurso que explica las medidas que adoptamos para detectar posibles vulnerabilidades, reducir riesgos, mejorar la seguridad y reforzar la fiabilidad. Como por ejemplo: Evaluamos y mejoramos nuestras IA conversacionales con especialistas externos e internos empleando ejercicios de &#8216;red teaming.&#8217; Diferentes equipos integrados por expertos han dedicado miles de horas para probar estos modelos, explorando maneras inusuales de utilizarlos e identificando y corrigiendo vulnerabilidades. Refinaci\u00f3n de modelos. Esta pr\u00e1ctica incluye entrenar modelos para realizar tareas espec\u00edficas, como la generaci\u00f3n de im\u00e1genes de alta calidad, con instrucciones que puedan aumentar la probabilidad de obtener respuestas \u00fatiles. Tambi\u00e9n los entrenamos para que ofrezcan recursos que cuentan con el respaldo de expertos en seguridad. Por ejemplo, las IA sugerir\u00e1n organizaciones locales dedicadas a atender la problem\u00e1tica del suicidio o los trastornos alimentarios, en caso de consultas espec\u00edficas, dejando claro que no pueden dar asesoramiento m\u00e9dico. Entrenamos nuestros modelos en pautas de seguridad y responsabilidad. Ense\u00f1ar pautas a los modelos significa que es menos probable que compartan respuestas potencialmente da\u00f1inas o inapropiadas en nuestras apps. Adoptamos medidas para reducir la tendenciosidad. El abordaje de los posibles sesgos en los sistemas de IA generativa es un nuevo campo de investigaci\u00f3n. Al igual que con otros modelos, el enfoque se va perfeccionando a medida que m\u00e1s personas utilizan las funciones y comparten sus comentarios acerca de su experiencia.. Desarrollamos nuevas tecnolog\u00edas para detectar y actuar sobre los contenidos que infringen nuestras pol\u00edticas. Nuestros equipos han creado algoritmos que escanean y filtran las respuestas perjudiciales antes de que se compartan con los usuarios. Hemos incorporado herramientas de retroalimentaci\u00f3n dentro de estas funciones. Ning\u00fan modelo de IA es perfecto. Utilizaremos los comentarios que recibamos para seguir entrenando los modelos con el fin de mejorar el rendimiento en materia de seguridad y en la detecci\u00f3n autom\u00e1tica de infracciones de las pol\u00edticas. Tambi\u00e9n estamos poniendo nuestras nuevas funciones de IA generativa a disposici\u00f3n de los investigadores en ese campo a trav\u00e9s del programa de recompensas por fallos de Meta, que lleva mucho tiempo en marcha. \u00bfC\u00f3mo protegemos la privacidad de las personas? Debemos rendir cuentas acerca de la manera en que protegemos la privacidad de las personas a los reguladores, legisladores y distintos especialistas, y trabajamos con ellos para garantizar que lo que construimos siga las mejores pr\u00e1cticas y cumpla con las normas estrictas de protecci\u00f3n de datos. Creemos que es importante que las personas entiendan los tipos de datos que utilizamos para entrenar los modelos que impulsan nuestros productos de IA generativa. Por ejemplo, no utilizamos sus mensajes privados con amigos y familiares para entrenar nuestras IA. Podemos utilizar los datos de tu uso de los stickers de IA, como tus b\u00fasquedas de un sticker para utilizarlo en un chat, para mejorar nuestros modelos de stickers de IA. Puede obtener m\u00e1s informaci\u00f3n sobre los tipos de datos que utilizamos en nuestro art\u00edculo sobre privacidad de la IA generativa. \u00bfC\u00f3mo nos aseguramos de que las personas sepan usar las nuevas funciones y conozcan sus limitaciones? Proveemos informaci\u00f3n dentro de las mismas funciones para ayudar a las personas a entender cu\u00e1ndo est\u00e1n interactuando con IA y c\u00f3mo funciona esta nueva tecnolog\u00eda. Indicamos en la experiencia del producto que podr\u00eda entregar resultados inexactos o inadecuados. El a\u00f1o pasado publicamos 22 \u00abTarjetas de Sistema\u00bb para dar a los usuarios informaci\u00f3n comprensible sobre c\u00f3mo nuestra IA toma decisiones y sus efectos. Hoy compartimos las nuevas tarjetas del sistema de IA generativa en el sitio web de IA de Meta, uno para los sistemas de IA que generan texto que alimenta Meta AI y otro para los sistemas de IA que generan im\u00e1genes para los stickers de IA, Meta AI, restyle y backdrop. Estas tarjetas incluyen una demostraci\u00f3n interactiva para que los usuarios puedan ver c\u00f3mo el perfeccionamiento de sus indicaciones afecta a los resultados de los modelos. \u00bfC\u00f3mo ayudamos a las personas a saber cu\u00e1ndo se crean las im\u00e1genes con nuestras funciones de IA? Seguimos las mejores pr\u00e1cticas de la industria para que sea m\u00e1s dif\u00edcil difundir informaci\u00f3n err\u00f3nea con nuestras herramientas. Las im\u00e1genes creadas o editadas por Meta AI, restyle y backdrop tendr\u00e1n marcadores visibles para que las personas sepan que el contenido fue creado por AI. Tambi\u00e9n estamos desarrollando t\u00e9cnicas adicionales para incluir informaci\u00f3n dentro de los archivos de imagen que fueron creados por Meta AI, y tenemos la intenci\u00f3n de ampliar esto a otras experiencias a medida que la tecnolog\u00eda mejore. No tenemos previsto a\u00f1adir estas funciones a los stickers de IA, ya que no son fotorrealistas y es poco probable que induzcan a error a las personas haci\u00e9ndoles creer que son reales. Actualmente, la industria no tiene normas comunes para identificar y etiquetar los contenidos generados por IA. Creemos que deber\u00edan existir y es por eso que estamos trabajando con otras empresas, en foros como el Partnership on AI, con la expectativa de desarrollarlas. \u00bfQu\u00e9 medidas estamos tomando para impedir que las personas difundan informaci\u00f3n err\u00f3nea utilizando IA generativa? La inteligencia artificial es un elemento clave para combatir la desinformaci\u00f3n y otros contenidos nocivos. Por ejemplo, hemos desarrollado tecnolog\u00edas de IA para que encuentren contenidos que son pr\u00e1cticamente duplicados de otros ya previamente verificados. Tambi\u00e9n disponemos de una herramienta llamada Few-Shot Learner, que puede adaptarse m\u00e1s f\u00e1cilmente para actuar con rapidez sobre tipos de contenidos nocivos nuevos o en evoluci\u00f3n, y que funciona en m\u00e1s de 100 idiomas. Antes ten\u00edamos que recopilar miles o incluso millones de ejemplos para crear un conjunto de datos lo suficientemente grande como para entrenar un modelo de inteligencia artificial, y luego afinarlo para que funcionara correctamente. Few-Shot Learner puede entrenar un modelo de IA basado en apenas un pu\u00f1ado de ejemplos. La IA generativa podr\u00eda ayudarnos a eliminar contenidos nocivos con mayor rapidez y precisi\u00f3n que las actuales herramientas de IA. Hemos empezado a probar grandes modelos ling\u00fc\u00edsticos (LLM) entren\u00e1ndolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe o no nuestras pol\u00edticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje autom\u00e1tico existentes, o al menos mejorar algunos, como Few-Shot Learner, y somos optimistas en que la IA generativa pueda ayudarnos a aplicar nuestras pol\u00edticas en el futuro.","protected":false},"author":164097140,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947987,243948155,243947992],"tags":[],"class_list":["post-24880","post","type-post","status-publish","format-standard","hentry","category-integridad-y-seguridad","category-meta-2","category-politica-publica"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Destaques: Estamos incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas para que los usuarios puedan disfrutar de experiencias m\u00e1s seguras y agradables. Como ocurre con todos los sistemas de IA generativa, los modelos pueden entregar resultados imprecisos o inadecuados. Seguiremos mejorando estas funcionalidades a medida que evolucionen y tengamos m\u00e1s feedback de las personas. Trabajamos con gobiernos, empresas, especialistas en IA del mundo acad\u00e9mico y de la sociedad civil, padres y expertos en privacidad, entre otros, para establecer barreras de seguridad responsables. Meta lleva m\u00e1s de una d\u00e9cada siendo una empresa pionera en IA. Hemos lanzado m\u00e1s de 1.000 modelos de IA, bibliotecas y conjuntos de datos para investigadores, incluida la \u00faltima versi\u00f3n de nuestro gran modelo ling\u00fc\u00edstico, Llama 2, que fue posibilitado mediante una colaboraci\u00f3n con Microsoft. En Connect 2023, anunciamos varias funciones nuevas de IA generativa\u00a0que las personas pueden utilizar para hacer que las experiencias que tienen en nuestras plataformas sean a\u00fan m\u00e1s sociales e inmersivas. Esperamos que estas herramientas puedan ayudar a las personas de diversas maneras. Imaginemos un grupo de amigos que planean un viaje juntos. En un chat grupal, pueden pedir a un asistente de IA sugerencias de actividades para realizar o restaurantes para experimentar. O en otro caso, un profesor podr\u00eda utilizar la IA para ayudar a crear clases empleando distintos estilos de aprendizaje personalizados para cada uno de los alumnos. La construcci\u00f3n de esta tecnolog\u00eda conlleva la responsabilidad de desarrollar las mejores pr\u00e1cticas y las mejores pol\u00edticas que sea posible. Aunque hay muchos casos de uso interesantes y creativos para la IA generativa, no siempre ser\u00e1 perfecta. Los modelos subyacentes, por ejemplo, tienen el potencial de generar respuestas ficticias o exacerbar estereotipos que pueden aprender de los datos que fueron utilizado para su entrenamiento. Hemos incorporado las lecciones que aprendimos durante la \u00faltima d\u00e9cada a estas nuevas funciones, como es el caso de las notificaciones para que las personas puedan entender los l\u00edmites de la IA generativa, o el de los clasificadores de integridad, que nos ayudan a detectar y eliminar respuestas peligrosas. Todo ello de acuerdo con las mejores pr\u00e1cticas del sector descritas en la Gu\u00eda de uso responsable de Llama 2. En consonancia con nuestro compromiso con desarrollar IA en forma responsable, tambi\u00e9n sometemos nuestros productos a pruebas de estr\u00e9s para mejorar su seguridad y colaboramos regularmente con legisladores, especialistas del mundo acad\u00e9mico y de la sociedad civil, entre\u00a0 muchos otros miembros del sector, para avanzar en el uso responsable de esta tecnolog\u00eda. Desarrollaremos estas funciones paso a paso y lanzaremos las IA en fase beta. Seguiremos perfeccionando y mejorando estas funciones a medida que las tecnolog\u00edas evolucionen y veamos c\u00f3mo la gente las utiliza en su vida cotidiana. C\u00f3mo trabajamos de forma responsable y priorizamos la seguridad de las personas Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, nuestro asistente impulsado por modelos ling\u00fc\u00edsticos, se construyen sobre la base de Llama 2 y aprovechan sus principios fundacionales de seguridad y responsabilidad. Tambi\u00e9n hemos invertido en medidas espec\u00edficas para las funciones que anunciamos hoy. Estamos compartiendo un recurso que explica las medidas que adoptamos para detectar posibles vulnerabilidades, reducir riesgos, mejorar la seguridad y reforzar la fiabilidad. Como por ejemplo: Evaluamos y mejoramos nuestras IA conversacionales con especialistas externos e internos empleando ejercicios de &#8216;red teaming.&#8217; Diferentes equipos integrados por expertos han dedicado miles de horas para probar estos modelos, explorando maneras inusuales de utilizarlos e identificando y corrigiendo vulnerabilidades. Refinaci\u00f3n de modelos. Esta pr\u00e1ctica incluye entrenar modelos para realizar tareas espec\u00edficas, como la generaci\u00f3n de im\u00e1genes de alta calidad, con instrucciones que puedan aumentar la probabilidad de obtener respuestas \u00fatiles. Tambi\u00e9n los entrenamos para que ofrezcan recursos que cuentan con el respaldo de expertos en seguridad. Por ejemplo, las IA sugerir\u00e1n organizaciones locales dedicadas a atender la problem\u00e1tica del suicidio o los trastornos alimentarios, en caso de consultas espec\u00edficas, dejando claro que no pueden dar asesoramiento m\u00e9dico. Entrenamos nuestros modelos en pautas de seguridad y responsabilidad. Ense\u00f1ar pautas a los modelos significa que es menos probable que compartan respuestas potencialmente da\u00f1inas o inapropiadas en nuestras apps. Adoptamos medidas para reducir la tendenciosidad. El abordaje de los posibles sesgos en los sistemas de IA generativa es un nuevo campo de investigaci\u00f3n. Al igual que con otros modelos, el enfoque se va perfeccionando a medida que m\u00e1s personas utilizan las funciones y comparten sus comentarios acerca de su experiencia.. Desarrollamos nuevas tecnolog\u00edas para detectar y actuar sobre los contenidos que infringen nuestras pol\u00edticas. Nuestros equipos han creado algoritmos que escanean y filtran las respuestas perjudiciales antes de que se compartan con los usuarios. Hemos incorporado herramientas de retroalimentaci\u00f3n dentro de estas funciones. Ning\u00fan modelo de IA es perfecto. Utilizaremos los comentarios que recibamos para seguir entrenando los modelos con el fin de mejorar el rendimiento en materia de seguridad y en la detecci\u00f3n autom\u00e1tica de infracciones de las pol\u00edticas. Tambi\u00e9n estamos poniendo nuestras nuevas funciones de IA generativa a disposici\u00f3n de los investigadores en ese campo a trav\u00e9s del programa de recompensas por fallos de Meta, que lleva mucho tiempo en marcha. \u00bfC\u00f3mo protegemos la privacidad de las personas? Debemos rendir cuentas acerca de la manera en que protegemos la privacidad de las personas a los reguladores, legisladores y distintos especialistas, y trabajamos con ellos para garantizar que lo que construimos siga las mejores pr\u00e1cticas y cumpla con las normas estrictas de protecci\u00f3n de datos. Creemos que es importante que las personas entiendan los tipos de datos que utilizamos para entrenar los modelos que impulsan nuestros productos de IA generativa. Por ejemplo, no utilizamos sus mensajes privados con amigos y familiares para entrenar nuestras IA. Podemos utilizar los datos de tu uso de los stickers de IA, como tus b\u00fasquedas de un sticker para utilizarlo en un chat, para mejorar nuestros modelos de stickers de IA. Puede obtener m\u00e1s informaci\u00f3n sobre los tipos de datos que utilizamos en nuestro art\u00edculo sobre privacidad de la IA generativa. \u00bfC\u00f3mo nos aseguramos de que las personas sepan usar las nuevas funciones y conozcan sus limitaciones? Proveemos informaci\u00f3n dentro de las mismas funciones para ayudar a las personas a entender cu\u00e1ndo est\u00e1n interactuando con IA y c\u00f3mo funciona esta nueva tecnolog\u00eda. Indicamos en la experiencia del producto que podr\u00eda entregar resultados inexactos o inadecuados. El a\u00f1o pasado publicamos 22 \u00abTarjetas de Sistema\u00bb para dar a los usuarios informaci\u00f3n comprensible sobre c\u00f3mo nuestra IA toma decisiones y sus efectos. Hoy compartimos las nuevas tarjetas del sistema de IA generativa en el sitio web de IA de Meta, uno para los sistemas de IA que generan texto que alimenta Meta AI y otro para los sistemas de IA que generan im\u00e1genes para los stickers de IA, Meta AI, restyle y backdrop. Estas tarjetas incluyen una demostraci\u00f3n interactiva para que los usuarios puedan ver c\u00f3mo el perfeccionamiento de sus indicaciones afecta a los resultados de los modelos. \u00bfC\u00f3mo ayudamos a las personas a saber cu\u00e1ndo se crean las im\u00e1genes con nuestras funciones de IA? Seguimos las mejores pr\u00e1cticas de la industria para que sea m\u00e1s dif\u00edcil difundir informaci\u00f3n err\u00f3nea con nuestras herramientas. Las im\u00e1genes creadas o editadas por Meta AI, restyle y backdrop tendr\u00e1n marcadores visibles para que las personas sepan que el contenido fue creado por AI. Tambi\u00e9n estamos desarrollando t\u00e9cnicas adicionales para incluir informaci\u00f3n dentro de los archivos de imagen que fueron creados por Meta AI, y tenemos la intenci\u00f3n de ampliar esto a otras experiencias a medida que la tecnolog\u00eda mejore. No tenemos previsto a\u00f1adir estas funciones a los stickers de IA, ya que no son fotorrealistas y es poco probable que induzcan a error a las personas haci\u00e9ndoles creer que son reales. Actualmente, la industria no tiene normas comunes para identificar y etiquetar los contenidos generados por IA. Creemos que deber\u00edan existir y es por eso que estamos trabajando con otras empresas, en foros como el Partnership on AI, con la expectativa de desarrollarlas. \u00bfQu\u00e9 medidas estamos tomando para impedir que las personas difundan informaci\u00f3n err\u00f3nea utilizando IA generativa? La inteligencia artificial es un elemento clave para combatir la desinformaci\u00f3n y otros contenidos nocivos. Por ejemplo, hemos desarrollado tecnolog\u00edas de IA para que encuentren contenidos que son pr\u00e1cticamente duplicados de otros ya previamente verificados. Tambi\u00e9n disponemos de una herramienta llamada Few-Shot Learner, que puede adaptarse m\u00e1s f\u00e1cilmente para actuar con rapidez sobre tipos de contenidos nocivos nuevos o en evoluci\u00f3n, y que funciona en m\u00e1s de 100 idiomas. Antes ten\u00edamos que recopilar miles o incluso millones de ejemplos para crear un conjunto de datos lo suficientemente grande como para entrenar un modelo de inteligencia artificial, y luego afinarlo para que funcionara correctamente. Few-Shot Learner puede entrenar un modelo de IA basado en apenas un pu\u00f1ado de ejemplos. La IA generativa podr\u00eda ayudarnos a eliminar contenidos nocivos con mayor rapidez y precisi\u00f3n que las actuales herramientas de IA. Hemos empezado a probar grandes modelos ling\u00fc\u00edsticos (LLM) entren\u00e1ndolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe o no nuestras pol\u00edticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje autom\u00e1tico existentes, o al menos mejorar algunos, como Few-Shot Learner, y somos optimistas en que la IA generativa pueda ayudarnos a aplicar nuestras pol\u00edticas en el futuro.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2023-09-27T19:07:33+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-09-27T19:26:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\"},\"author\":\"Facebook company\",\"headline\":\"Creando funciones de Inteligencia Artificial generativa en forma responsable\",\"datePublished\":\"2023-09-27T19:07:33+00:00\",\"dateModified\":\"2023-09-27T19:26:29+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\"},\"wordCount\":1656,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif\",\"articleSection\":[\"Integridad &amp; Seguridad\",\"Meta\",\"Pol\u00edtica P\u00fablica\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\",\"name\":\"Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif\",\"datePublished\":\"2023-09-27T19:07:33+00:00\",\"dateModified\":\"2023-09-27T19:26:29+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Creando funciones de Inteligencia Artificial generativa en forma responsable\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/","og_locale":"es_ES","og_type":"article","og_title":"Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta","og_description":"Destaques: Estamos incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas para que los usuarios puedan disfrutar de experiencias m\u00e1s seguras y agradables. Como ocurre con todos los sistemas de IA generativa, los modelos pueden entregar resultados imprecisos o inadecuados. Seguiremos mejorando estas funcionalidades a medida que evolucionen y tengamos m\u00e1s feedback de las personas. Trabajamos con gobiernos, empresas, especialistas en IA del mundo acad\u00e9mico y de la sociedad civil, padres y expertos en privacidad, entre otros, para establecer barreras de seguridad responsables. Meta lleva m\u00e1s de una d\u00e9cada siendo una empresa pionera en IA. Hemos lanzado m\u00e1s de 1.000 modelos de IA, bibliotecas y conjuntos de datos para investigadores, incluida la \u00faltima versi\u00f3n de nuestro gran modelo ling\u00fc\u00edstico, Llama 2, que fue posibilitado mediante una colaboraci\u00f3n con Microsoft. En Connect 2023, anunciamos varias funciones nuevas de IA generativa\u00a0que las personas pueden utilizar para hacer que las experiencias que tienen en nuestras plataformas sean a\u00fan m\u00e1s sociales e inmersivas. Esperamos que estas herramientas puedan ayudar a las personas de diversas maneras. Imaginemos un grupo de amigos que planean un viaje juntos. En un chat grupal, pueden pedir a un asistente de IA sugerencias de actividades para realizar o restaurantes para experimentar. O en otro caso, un profesor podr\u00eda utilizar la IA para ayudar a crear clases empleando distintos estilos de aprendizaje personalizados para cada uno de los alumnos. La construcci\u00f3n de esta tecnolog\u00eda conlleva la responsabilidad de desarrollar las mejores pr\u00e1cticas y las mejores pol\u00edticas que sea posible. Aunque hay muchos casos de uso interesantes y creativos para la IA generativa, no siempre ser\u00e1 perfecta. Los modelos subyacentes, por ejemplo, tienen el potencial de generar respuestas ficticias o exacerbar estereotipos que pueden aprender de los datos que fueron utilizado para su entrenamiento. Hemos incorporado las lecciones que aprendimos durante la \u00faltima d\u00e9cada a estas nuevas funciones, como es el caso de las notificaciones para que las personas puedan entender los l\u00edmites de la IA generativa, o el de los clasificadores de integridad, que nos ayudan a detectar y eliminar respuestas peligrosas. Todo ello de acuerdo con las mejores pr\u00e1cticas del sector descritas en la Gu\u00eda de uso responsable de Llama 2. En consonancia con nuestro compromiso con desarrollar IA en forma responsable, tambi\u00e9n sometemos nuestros productos a pruebas de estr\u00e9s para mejorar su seguridad y colaboramos regularmente con legisladores, especialistas del mundo acad\u00e9mico y de la sociedad civil, entre\u00a0 muchos otros miembros del sector, para avanzar en el uso responsable de esta tecnolog\u00eda. Desarrollaremos estas funciones paso a paso y lanzaremos las IA en fase beta. Seguiremos perfeccionando y mejorando estas funciones a medida que las tecnolog\u00edas evolucionen y veamos c\u00f3mo la gente las utiliza en su vida cotidiana. C\u00f3mo trabajamos de forma responsable y priorizamos la seguridad de las personas Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, nuestro asistente impulsado por modelos ling\u00fc\u00edsticos, se construyen sobre la base de Llama 2 y aprovechan sus principios fundacionales de seguridad y responsabilidad. Tambi\u00e9n hemos invertido en medidas espec\u00edficas para las funciones que anunciamos hoy. Estamos compartiendo un recurso que explica las medidas que adoptamos para detectar posibles vulnerabilidades, reducir riesgos, mejorar la seguridad y reforzar la fiabilidad. Como por ejemplo: Evaluamos y mejoramos nuestras IA conversacionales con especialistas externos e internos empleando ejercicios de &#8216;red teaming.&#8217; Diferentes equipos integrados por expertos han dedicado miles de horas para probar estos modelos, explorando maneras inusuales de utilizarlos e identificando y corrigiendo vulnerabilidades. Refinaci\u00f3n de modelos. Esta pr\u00e1ctica incluye entrenar modelos para realizar tareas espec\u00edficas, como la generaci\u00f3n de im\u00e1genes de alta calidad, con instrucciones que puedan aumentar la probabilidad de obtener respuestas \u00fatiles. Tambi\u00e9n los entrenamos para que ofrezcan recursos que cuentan con el respaldo de expertos en seguridad. Por ejemplo, las IA sugerir\u00e1n organizaciones locales dedicadas a atender la problem\u00e1tica del suicidio o los trastornos alimentarios, en caso de consultas espec\u00edficas, dejando claro que no pueden dar asesoramiento m\u00e9dico. Entrenamos nuestros modelos en pautas de seguridad y responsabilidad. Ense\u00f1ar pautas a los modelos significa que es menos probable que compartan respuestas potencialmente da\u00f1inas o inapropiadas en nuestras apps. Adoptamos medidas para reducir la tendenciosidad. El abordaje de los posibles sesgos en los sistemas de IA generativa es un nuevo campo de investigaci\u00f3n. Al igual que con otros modelos, el enfoque se va perfeccionando a medida que m\u00e1s personas utilizan las funciones y comparten sus comentarios acerca de su experiencia.. Desarrollamos nuevas tecnolog\u00edas para detectar y actuar sobre los contenidos que infringen nuestras pol\u00edticas. Nuestros equipos han creado algoritmos que escanean y filtran las respuestas perjudiciales antes de que se compartan con los usuarios. Hemos incorporado herramientas de retroalimentaci\u00f3n dentro de estas funciones. Ning\u00fan modelo de IA es perfecto. Utilizaremos los comentarios que recibamos para seguir entrenando los modelos con el fin de mejorar el rendimiento en materia de seguridad y en la detecci\u00f3n autom\u00e1tica de infracciones de las pol\u00edticas. Tambi\u00e9n estamos poniendo nuestras nuevas funciones de IA generativa a disposici\u00f3n de los investigadores en ese campo a trav\u00e9s del programa de recompensas por fallos de Meta, que lleva mucho tiempo en marcha. \u00bfC\u00f3mo protegemos la privacidad de las personas? Debemos rendir cuentas acerca de la manera en que protegemos la privacidad de las personas a los reguladores, legisladores y distintos especialistas, y trabajamos con ellos para garantizar que lo que construimos siga las mejores pr\u00e1cticas y cumpla con las normas estrictas de protecci\u00f3n de datos. Creemos que es importante que las personas entiendan los tipos de datos que utilizamos para entrenar los modelos que impulsan nuestros productos de IA generativa. Por ejemplo, no utilizamos sus mensajes privados con amigos y familiares para entrenar nuestras IA. Podemos utilizar los datos de tu uso de los stickers de IA, como tus b\u00fasquedas de un sticker para utilizarlo en un chat, para mejorar nuestros modelos de stickers de IA. Puede obtener m\u00e1s informaci\u00f3n sobre los tipos de datos que utilizamos en nuestro art\u00edculo sobre privacidad de la IA generativa. \u00bfC\u00f3mo nos aseguramos de que las personas sepan usar las nuevas funciones y conozcan sus limitaciones? Proveemos informaci\u00f3n dentro de las mismas funciones para ayudar a las personas a entender cu\u00e1ndo est\u00e1n interactuando con IA y c\u00f3mo funciona esta nueva tecnolog\u00eda. Indicamos en la experiencia del producto que podr\u00eda entregar resultados inexactos o inadecuados. El a\u00f1o pasado publicamos 22 \u00abTarjetas de Sistema\u00bb para dar a los usuarios informaci\u00f3n comprensible sobre c\u00f3mo nuestra IA toma decisiones y sus efectos. Hoy compartimos las nuevas tarjetas del sistema de IA generativa en el sitio web de IA de Meta, uno para los sistemas de IA que generan texto que alimenta Meta AI y otro para los sistemas de IA que generan im\u00e1genes para los stickers de IA, Meta AI, restyle y backdrop. Estas tarjetas incluyen una demostraci\u00f3n interactiva para que los usuarios puedan ver c\u00f3mo el perfeccionamiento de sus indicaciones afecta a los resultados de los modelos. \u00bfC\u00f3mo ayudamos a las personas a saber cu\u00e1ndo se crean las im\u00e1genes con nuestras funciones de IA? Seguimos las mejores pr\u00e1cticas de la industria para que sea m\u00e1s dif\u00edcil difundir informaci\u00f3n err\u00f3nea con nuestras herramientas. Las im\u00e1genes creadas o editadas por Meta AI, restyle y backdrop tendr\u00e1n marcadores visibles para que las personas sepan que el contenido fue creado por AI. Tambi\u00e9n estamos desarrollando t\u00e9cnicas adicionales para incluir informaci\u00f3n dentro de los archivos de imagen que fueron creados por Meta AI, y tenemos la intenci\u00f3n de ampliar esto a otras experiencias a medida que la tecnolog\u00eda mejore. No tenemos previsto a\u00f1adir estas funciones a los stickers de IA, ya que no son fotorrealistas y es poco probable que induzcan a error a las personas haci\u00e9ndoles creer que son reales. Actualmente, la industria no tiene normas comunes para identificar y etiquetar los contenidos generados por IA. Creemos que deber\u00edan existir y es por eso que estamos trabajando con otras empresas, en foros como el Partnership on AI, con la expectativa de desarrollarlas. \u00bfQu\u00e9 medidas estamos tomando para impedir que las personas difundan informaci\u00f3n err\u00f3nea utilizando IA generativa? La inteligencia artificial es un elemento clave para combatir la desinformaci\u00f3n y otros contenidos nocivos. Por ejemplo, hemos desarrollado tecnolog\u00edas de IA para que encuentren contenidos que son pr\u00e1cticamente duplicados de otros ya previamente verificados. Tambi\u00e9n disponemos de una herramienta llamada Few-Shot Learner, que puede adaptarse m\u00e1s f\u00e1cilmente para actuar con rapidez sobre tipos de contenidos nocivos nuevos o en evoluci\u00f3n, y que funciona en m\u00e1s de 100 idiomas. Antes ten\u00edamos que recopilar miles o incluso millones de ejemplos para crear un conjunto de datos lo suficientemente grande como para entrenar un modelo de inteligencia artificial, y luego afinarlo para que funcionara correctamente. Few-Shot Learner puede entrenar un modelo de IA basado en apenas un pu\u00f1ado de ejemplos. La IA generativa podr\u00eda ayudarnos a eliminar contenidos nocivos con mayor rapidez y precisi\u00f3n que las actuales herramientas de IA. Hemos empezado a probar grandes modelos ling\u00fc\u00edsticos (LLM) entren\u00e1ndolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe o no nuestras pol\u00edticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje autom\u00e1tico existentes, o al menos mejorar algunos, como Few-Shot Learner, y somos optimistas en que la IA generativa pueda ayudarnos a aplicar nuestras pol\u00edticas en el futuro.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/","og_site_name":"Acerca de Meta","article_published_time":"2023-09-27T19:07:33+00:00","article_modified_time":"2023-09-27T19:26:29+00:00","og_image":[{"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif","type":"","width":"","height":""}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"8 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/"},"author":"Facebook company","headline":"Creando funciones de Inteligencia Artificial generativa en forma responsable","datePublished":"2023-09-27T19:07:33+00:00","dateModified":"2023-09-27T19:26:29+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/"},"wordCount":1656,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif","articleSection":["Integridad &amp; Seguridad","Meta","Pol\u00edtica P\u00fablica"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/","url":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/","name":"Creando funciones de Inteligencia Artificial generativa en forma responsable | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif","datePublished":"2023-09-27T19:07:33+00:00","dateModified":"2023-09-27T19:26:29+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2023\/09\/AI-Responsibility_Header.gif?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/09\/creando-funciones-de-inteligencia-artificial-generativa-en-forma-responsable\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Creando funciones de Inteligencia Artificial generativa en forma responsable"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24880","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=24880"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24880\/revisions"}],"predecessor-version":[{"id":24885,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24880\/revisions\/24885"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=24880"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=24880"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=24880"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}