{"id":24985,"date":"2023-11-30T14:53:41","date_gmt":"2023-11-30T20:53:41","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=24985"},"modified":"2023-11-30T14:53:41","modified_gmt":"2023-11-30T20:53:41","slug":"avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/","title":{"rendered":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Compartimos m\u00e1s informaci\u00f3n sobre el enfoque que adoptamos en el equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental (FAIR) de Meta para construir una IA socialmente responsable. Los modelos de IA no existen de forma aislada: forman parte de un ecosistema con el que las personas interact\u00faan cada d\u00eda. Tambi\u00e9n se ha vuelto cada vez m\u00e1s crucial hacer que nuestros modelos no s\u00f3lo sean justos y s\u00f3lidos, sino tambi\u00e9n transparentes, para que juntos contribuyamos a construir una IA que funcione bien para todas las personas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En FAIR compartimos actualizaciones de tres categor\u00edas de investigaci\u00f3n sobre IA socialmente responsable: comprensi\u00f3n t\u00e9cnica, comprensi\u00f3n contextual y evaluaci\u00f3n comparativa. Aumentar la comprensi\u00f3n t\u00e9cnica ayuda a deducir cu\u00e1ndo, por qu\u00e9 y c\u00f3mo los modelos muestran problemas de responsabilidad. La creaci\u00f3n de modelos inclusivos y conscientes del contexto puede ayudar a comprender mejor los diversos contextos sociales. Y la creaci\u00f3n de puntos de referencia hol\u00edsticos y herramientas de evaluaci\u00f3n permite medir y seguir los avances.<\/span><\/p>\n<p><strong>Creaci\u00f3n de herramientas y pruebas de equidad<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Las mejoras en la investigaci\u00f3n de la equidad pueden ayudar a producir innovaciones en IA que funcionen bien para todos, independientemente de las caracter\u00edsticas demogr\u00e1ficas. Por este motivo, FAIR est\u00e1 creando pruebas y herramientas destinadas a minimizar los posibles sesgos y a facilitar la inclusi\u00f3n y la accesibilidad de la IA.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Seguimos trabajando para crear y distribuir conjuntos de datos m\u00e1s diversos que representen a un amplio abanico de personas y experiencias. Hemos publicado el<\/span><a href=\"https:\/\/ai.meta.com\/blog\/casual-conversations-v2-dataset-measure-fairness\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">conjunto de datos Casual Conversations v2<\/span><\/a><span style=\"font-weight: 400\">, un recurso p\u00fablico basado en el consentimiento que permite a los investigadores evaluar mejor la imparcialidad y solidez de determinados tipos de modelos de IA. Tambi\u00e9n presentamos<\/span><a href=\"https:\/\/ai.meta.com\/blog\/dinov2-facet-computer-vision-fairness-evaluation\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">FACET<\/span><\/a><span style=\"font-weight: 400\"> (FAirness in Computer Vision EvaluaTion), un nuevo par\u00e1metro de referencia para evaluar la imparcialidad de los modelos de visi\u00f3n por ordenador en tareas de clasificaci\u00f3n, detecci\u00f3n, segmentaci\u00f3n de instancias y fundamentaci\u00f3n visual.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En el creciente subcampo de los grandes modelos del lenguaje (LLM), las m\u00e9tricas de sesgo y toxicidad abarcan diferentes ejes demogr\u00e1ficos y dominios textuales. El uso de una sola m\u00e9trica no proporciona una imagen completa, por lo que hemos desarrollado<\/span><a href=\"https:\/\/ai.meta.com\/research\/publications\/robbie-robust-bias-evaluation-of-large-generative-language-models\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Evaluaci\u00f3n robusta del sesgo de grandes modelos generativos del lenguaje<\/span><\/a><span style=\"font-weight: 400\"> (ROBBIE), una herramienta que compara seis m\u00e9tricas diferentes de sesgo y toxicidad basadas en preguntas en 12 ejes demogr\u00e1ficos y cinco LLM diferentes. La combinaci\u00f3n de estas m\u00e9tricas permite comprender mejor el sesgo y la toxicidad de los modelos que se comparan. Tambi\u00e9n nos permite explorar la frecuencia de los t\u00e9rminos demogr\u00e1ficos en los textos en los que se entrena un LLM y nos da una idea de c\u00f3mo esto podr\u00eda afectar a los posibles sesgos del modelo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Una IA generativa representativa ayudar\u00eda a generar de forma coherente y realista contenidos diversos e inclusivos.<\/span><a href=\"https:\/\/arxiv.org\/abs\/2308.06198\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">DIG In<\/span><\/a><span style=\"font-weight: 400\"> se centra en evaluar las diferencias de calidad y diversidad de los contenidos generados a partir de modelos texto-imagen entre regiones geogr\u00e1ficas. Tras auditar cinco modelos de texto a imagen de \u00faltima generaci\u00f3n mediante DIG In, nuestros resultados sugieren que los avances en la calidad de la generaci\u00f3n de im\u00e1genes se han producido a costa de la representaci\u00f3n geogr\u00e1fica en el mundo real. La informaci\u00f3n obtenida nos ha ayudado a identificar importantes \u00e1reas de mejora, como la reducci\u00f3n de los estereotipos de fondo o la garant\u00eda de que las indicaciones de diversidad no afecten a la coherencia de la imagen.<\/span><span style=\"font-weight: 400\">\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">A menudo se considera que la equidad y la privacidad entran en conflicto, ya que la mayor\u00eda de los m\u00e9todos de equidad necesitan acceder a informaci\u00f3n sensible. Hemos desarrollado un<\/span><a href=\"https:\/\/arxiv.org\/pdf\/2305.11361.pdf\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">nuevo paradigma<\/span><\/a><span style=\"font-weight: 400\"> para evaluar la equidad de grupo que utiliza las redes sociales para paliar este problema. La observaci\u00f3n clave de este trabajo es que la homofilia en las redes sociales nos permite definir la equidad de grupo sin acceder a ninguna informaci\u00f3n del grupo. Esto nos permite mitigar los resultados injustos del aprendizaje autom\u00e1tico ajustando los resultados en funci\u00f3n de la similitud de los usuarios inducida por la estructura de la red. Y lo que es m\u00e1s importante, este enfoque funciona sin acceso a informaci\u00f3n de grupo y sin inferir nunca informaci\u00f3n sensible. De este modo, la informaci\u00f3n de la red social ayuda a respetar la privacidad de los usuarios al tiempo que permite un aprendizaje autom\u00e1tico justo.<\/span><\/p>\n<p><strong>Fomentar la transparencia, la seguridad y la responsabilidad<\/strong><\/p>\n<p><span style=\"font-weight: 400\">La IA generativa est\u00e1 permitiendo a las personas crear r\u00e1pidamente v\u00eddeos, im\u00e1genes, audio, texto y mucho m\u00e1s, todo ello a partir de una sugerencia. Estas nuevas herramientas creativas tambi\u00e9n est\u00e1n inspirando a las personas a compartir sus creaciones con amigos, familiares y seguidores en las redes sociales. Aunque hay mucho por lo que entusiasmarse, es importante que pongamos de nuestra parte para reducir la posibilidad de que las personas abusen de estas herramientas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Hemos desarrollado<\/span><a href=\"https:\/\/ai.meta.com\/blog\/stable-signature-watermarking-generative-ai\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Stable Signature<\/span><\/a><span style=\"font-weight: 400\">, un nuevo m\u00e9todo de marca de agua para distinguir cuando las im\u00e1genes son generadas por IA de c\u00f3digo abierto. Aunque la marca de agua es invisible a simple vista, puede ser detectada por algoritmos, incluso si el contenido ha sido editado. Incluimos marcas de agua similares en muestras de voz generadas por<\/span><a href=\"https:\/\/ai.meta.com\/blog\/seamless-communication\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">SeamlessM4T v2<\/span><\/a><span style=\"font-weight: 400\">, nuestro modelo fundacional de traducci\u00f3n de texto y voz. La marca de agua permite identificar segmentos generados por la IA dentro de un fragmento de audio m\u00e1s largo. Esta precisi\u00f3n es especialmente importante en el habla, donde la modificaci\u00f3n de una sola palabra puede cambiar todo el significado de una frase.\u00a0 En las \u00faltimas versiones detallamos m\u00e1s nuestro enfoque de marcas de agua para<\/span><a href=\"https:\/\/arxiv.org\/abs\/2303.15435\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">im\u00e1genes<\/span><\/a><span style=\"font-weight: 400\">,<\/span><a href=\"https:\/\/ai.meta.com\/blog\/seamless-communication\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">voz<\/span><\/a><span style=\"font-weight: 400\"> y modelos de<\/span><a href=\"https:\/\/arxiv.org\/abs\/2308.00113\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">texto<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><strong>Pr\u00f3ximos pasos<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Nuestros esfuerzos de IA socialmente responsable est\u00e1n impulsados por un equipo interdisciplinar cuya misi\u00f3n es ayudar a garantizar que la investigaci\u00f3n en FAIR beneficie a las personas y a la sociedad. La clave aqu\u00ed es colaborar con toda la comunidad de la IA, desde las empresas hasta el mundo acad\u00e9mico, para compartir y alinear de forma coherente las m\u00e9tricas y las consideraciones de referencia. Incluso la mejor investigaci\u00f3n responsable sobre IA carecer\u00eda de impacto a menos que fuera adoptada y apoyada por la comunidad de IA en general. Por eso nos hemos<\/span><a href=\"https:\/\/mlcommons.org\/2023\/10\/mlcommons-announces-the-formation-of-ai-safety-working-group\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">asociado con MLCommons<\/span><\/a><span style=\"font-weight: 400\"> para colaborar en el Grupo de Trabajo sobre Seguridad de la IA, en el que trabajamos conjuntamente con l\u00edderes de la industria y la universidad para desarrollar pruebas de seguridad de la IA y seguir definiendo puntos de referencia est\u00e1ndar de seguridad de la IA.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n colaboramos con la Asociaci\u00f3n sobre Inteligencia Artificial (PAI) y apoyamos el<\/span><a href=\"https:\/\/partnershiponai.org\/pai-announces-meta-and-microsoft-to-join-framework-for-collective-action-on-synthetic-media\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Marco para la Acci\u00f3n Colectiva sobre Medios Sint\u00e9ticos<\/span><\/a><span style=\"font-weight: 400\"> y la<\/span><a href=\"https:\/\/partnershiponai.org\/modeldeployment\/#landing\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Gu\u00eda para el Despliegue Seguro de Modelos de Fundaci\u00f3n<\/span><\/a><span style=\"font-weight: 400\">. A medida que el campo sigue evolucionando, sabemos que no podemos hacerlo solos. Una mayor colaboraci\u00f3n ser\u00e1 esencial para ofrecer la investigaci\u00f3n sobre IA m\u00e1s segura y responsable<\/span><span style=\"font-weight: 400\">.<\/span><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"Compartimos m\u00e1s informaci\u00f3n sobre el enfoque que adoptamos en el equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental (FAIR) de Meta para construir una IA socialmente responsable.","protected":false},"author":155592861,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947986,243948081],"tags":[],"class_list":["post-24985","post","type-post","status-publish","format-standard","hentry","category-innovacion","category-inteligencia-artificial"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Compartimos m\u00e1s informaci\u00f3n sobre el enfoque que adoptamos en el equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental (FAIR) de Meta para construir una IA socialmente responsable.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-30T20:53:41+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\"},\"author\":\"Facebook company\",\"headline\":\"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable\",\"datePublished\":\"2023-11-30T20:53:41+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\"},\"wordCount\":1232,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"articleSection\":[\"Innovaci\u00f3n\",\"Inteligencia Artificial\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\",\"name\":\"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2023-11-30T20:53:41+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/","og_locale":"es_ES","og_type":"article","og_title":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta","og_description":"Compartimos m\u00e1s informaci\u00f3n sobre el enfoque que adoptamos en el equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental (FAIR) de Meta para construir una IA socialmente responsable.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/","og_site_name":"Acerca de Meta","article_published_time":"2023-11-30T20:53:41+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/"},"author":"Facebook company","headline":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable","datePublished":"2023-11-30T20:53:41+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/"},"wordCount":1232,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"articleSection":["Innovaci\u00f3n","Inteligencia Artificial"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/","url":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/","name":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2023-11-30T20:53:41+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2023\/11\/avances-y-lecciones-de-fair-en-la-investigacion-sobre-ia-socialmente-responsable\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Avances y lecciones de FAIR en la investigaci\u00f3n sobre IA socialmente responsable"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24985","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=24985"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24985\/revisions"}],"predecessor-version":[{"id":24986,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/24985\/revisions\/24986"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=24985"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=24985"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=24985"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}