{"id":7271,"date":"2019-09-05T12:26:58","date_gmt":"2019-09-05T17:26:58","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=7271"},"modified":"2019-09-05T12:26:58","modified_gmt":"2019-09-05T17:26:58","slug":"creando-una-base-de-datos-y-un-reto-para-los-deepfakes","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/","title":{"rendered":"Creando una base de datos y un reto para los deepfakes"},"content":{"rendered":"<p><em><span style=\"font-weight:400\">Escrito por Mike Schroepfer<\/span><\/em><\/p>\n<p><span style=\"font-weight:400\">Las bases de datos espec\u00edficas y las estandarizaciones han sido algunas de las herramientas m\u00e1s efectivas para acelerar el progreso de la Inteligencia Artificial (IA). El renacimiento que experimenta actualmente el aprendizaje profundo fue impulsado por el est\u00e1ndar de <\/span><a href=\"http:\/\/www.image-net.org\/\"><span style=\"font-weight:400\">ImageNet<\/span><\/a><span style=\"font-weight:400\">. Y los avances recientes en el procesamiento del lenguaje natural han mejorado gracias a los sistemas <\/span><a href=\"https:\/\/gluebenchmark.com\/\"><span style=\"font-weight:400\">GLUE<\/span><\/a><span style=\"font-weight:400\"> y <\/span><a href=\"https:\/\/super.gluebenchmark.com\/\"><span style=\"font-weight:400\">SuperGLUE<\/span><\/a><span style=\"font-weight:400\">.<\/span><\/p>\n<p><span style=\"font-weight:400\">Las t\u00e9cnicas de \u00abDeepfake\u00bb, que presentan videos realistas generados por IA de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la informaci\u00f3n en l\u00ednea. Sin embargo, la industria no cuenta con un gran base de datos o un sistema estandarizado para detectarlos. Queremos catalizar la investigaci\u00f3n y el desarrollo en esta \u00e1rea y asegurarnos que haya mejores herramientas de c\u00f3digo abierto para detectar deepfakes. Es por eso que Facebook, la Asociaci\u00f3n de IA, Microsoft y acad\u00e9micos de Cornell Tech, MIT, Oxford, UC Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY se unen para construir el <\/span><i><span style=\"font-weight:400\">Reto<\/span><\/i> <i><span style=\"font-weight:400\">de la Detecci\u00f3n de Deepfakes <\/span><\/i><span style=\"font-weight:400\">(DFDC, por sus siglas en ingl\u00e9s).<\/span><\/p>\n<p><span style=\"font-weight:400\">Ese reto incluir\u00e1 una base de datos y una clasificaci\u00f3n, junto con financiaci\u00f3n y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a trav\u00e9s de la IA se utilicen para enga\u00f1ar a otros. La administraci\u00f3n y supervisi\u00f3n de este reto,\u00a0 estar\u00e1 a cargo un Comit\u00e9 de Direcci\u00f3n de AI sobre Integridad de Medios e Inteligencia Artificial, formado por una amplia coalici\u00f3n intersectorial de organizaciones que incluyen Facebook, WITNESS, Microsoft y sociedad civil, as\u00ed como otras comunidades de tecnolog\u00eda, medios y academia.<\/span><\/p>\n<p><span style=\"font-weight:400\">Es importante contar con datos que est\u00e9n disponibles gratuitamente para que la comunidad los use, con consentimiento expl\u00edcito de las partes, y pocas restricciones de uso. Es por esto que Facebook est\u00e1 comisionando una base de datos espec\u00edfica, que sea realista, y que utilizar\u00e1 actores rentados para que contribuyan a este reto una vez que otorguen el consentimiento necesario. Ning\u00fan dato de usuarios de Facebook ser\u00e1 utilizado en esta iniciativa. Tambi\u00e9n estaremos financiando premios y colaboraciones de investigaci\u00f3n por un m\u00e1s de 10 millones de d\u00f3lares para fomentar una mayor participaci\u00f3n en este proyecto de la industria.<\/span><\/p>\n<p><span style=\"font-weight:400\">Para garantizar la calidad de la base de datos a construir y establecer los par\u00e1metros del reto se realizar\u00e1 una sesi\u00f3n de trabajo t\u00e9cnico para ponerlos a prueba durante la Conferencia Internacional sobre Visi\u00f3n por Computadora (ICCV por sus siglas en ingl\u00e9s), en octubre. El lanzamiento completo de la base y del DFDC ocurrir\u00e1 en la Conferencia sobre Sistemas de Procesamiento de Informaci\u00f3n Neural (NeurIPS) prevista para diciembre. Facebook tambi\u00e9n participar\u00e1 en este reto. Sin embargo, no recibir\u00e1 ning\u00fan tipo de retribuci\u00f3n financiera.<\/span><\/p>\n<p><span style=\"font-weight:400\">Siga nuestro <\/span><a href=\"https:\/\/deepfakedetectionchallenge.ai\/\"><span style=\"font-weight:400\">sitio web<\/span><\/a> <span style=\"font-weight:400\">para ver actualizaciones peri\u00f3dicas.<\/span><\/p>\n<p><span style=\"font-weight:400\">Este es un problema en constante evoluci\u00f3n, al igual que el spam y otros retos de la industria, y nuestra esperanza es que al ayudar a que la industria y la comunidad de inteligencia artificial se unan, podamos avanzar m\u00e1s r\u00e1pido.<\/span><\/p>\n<p><span style=\"font-weight:400\">Hemos solicitado a especialistas externos que compartan su visi\u00f3n sobre este proyecto y sus respuestas est\u00e1n incluidas m\u00e1s adelante en el texto.<\/span><\/p>\n<h5><b>Apoyo acad\u00e9mico<\/b><\/h5>\n<p><span style=\"font-weight:400\">\u201cPara pasar de la era de la informaci\u00f3n a la era del conocimiento, debemos hacer un mejor esfuerzo para distinguir lo real de lo falso, recompensar el contenido confiable sobre el no confiable y educar a la pr\u00f3xima generaci\u00f3n en los esfuerzos de investigaci\u00f3n de la industria \/ universidad \/ ONG para desarrollar y poner en funcionamiento tecnolog\u00eda que pueda distinguir de manera r\u00e1pida y precisa lo real de lo falso\u201d. &#8211; <\/span><b>Hany Farid, profesor del departamento de Ingenier\u00eda El\u00e9ctrica y Ciencias de la Computaci\u00f3n, UC Berkeley.<\/b><\/p>\n<p><span style=\"font-weight:400\">\u00abLa gente ha manipulado im\u00e1genes a lo largo de casi toda la historia de la fotograf\u00eda. Pero ahora es posible que pr\u00e1cticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las peque\u00f1as imperfecciones en un imagen manipulada y exponer su representaci\u00f3n fraudulenta de la realidad\u00bb. &#8211; <\/span><b>Antonio Torralba, profesor de ingenier\u00eda el\u00e9ctrica y ciencias de la computaci\u00f3n y director de MIT Quest for Intelligence<\/b><\/p>\n<p><span style=\"font-weight:400\">\u201cComo vivimos en una era multimedia, poder contar con informaci\u00f3n de calidad es crucial para nuestras vidas. Dados los recientes desarrollos que permiten producir informaci\u00f3n manipulada a escala (texto, im\u00e1genes, videos y audio), necesitamos la participaci\u00f3n total de la comunidad de investigaci\u00f3n en un entorno abierto para desarrollar m\u00e9todos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulaci\u00f3n de la multimedia. Al poner a disposici\u00f3n un gran conjunto de medios genuinos y manipulados, el reto permitir\u00e1 entusiasmar a la comunidad investigadora a abordar colectivamente esta crisis en ciernes\u201d. &#8211; <\/span><b>Rama Chellappa, profesor de ingenier\u00eda Minta Martin, Universidad de Maryland<\/b><\/p>\n<p><span style=\"font-weight:400\">\u201cPara impulsar cambios de manera efectiva y resolver problemas, creemos que es fundamental que la academia y la industria se unan en un entorno abierto y colaborativo. En Cornell Tech, nuestra investigaci\u00f3n se centra en cerrar esa brecha y abordar el impacto social de la tecnolog\u00eda en la era digital, y el Reto de la Detecci\u00f3n de Deepfakes es un ejemplo perfecto de esto. Trabajando con l\u00edderes de la industria tecnol\u00f3gica y acad\u00e9micos, estaremos desarrollando una fuente de datos integral que nos permitir\u00e1 identificar medios falsos y, en \u00faltima instancia, poder crear herramientas y soluciones para combatirlos. Nos enorgullece formar parte de este grupo y compartir la fuente de datos con el p\u00fablico, lo que permite que cualquiera pueda aprender y ampliar esta investigaci\u00f3n\u00bb. &#8211; <\/span><b>Serge Belongie, decano asociado y profesor de Cornell Tech.<\/b><\/p>\n<p><span style=\"font-weight:400\">\u00abLos medios manipulados que est\u00e1n en internet para crear falsas teor\u00edas conspirativas y para manipular a las personas con objetivos pol\u00edticos se est\u00e1 convirtiendo en un problema de relevancia global por tratarse de una amenaza fundamental para la democracia, y por lo tanto, para la libertad. Creo que necesitamos con urgencia contar con nuevas herramientas para detectar y caracterizar esta desinformaci\u00f3n, de manera que estoy contento de ser parte de esta iniciativa que pretende movilizar a la comunidad de investigadores para alcanzar metas como preservar la verdad mientras ampliamos las fronteras de la ciencia\u00bb. <\/span><b>Philip H. S. Torr, profesor del Departamento de Ciencias de la Ingenier\u00eda, Universidad de Oxford.<\/b><\/p>\n<p><span style=\"font-weight:400\">\u00abPese a que las deepfakes pueden parecer realistas, el hecho de que est\u00e1n generadas por un algoritmo y no por eventos reales captados por una c\u00e1mara significa que pueden ser detectados y que su procedencia puede ser corroborada. Hay varios m\u00e9todos promisorios en camino para identificar y mitigar los efectos nocivos de las deepfakes, incluyendo procedimientos para poner \u00abhuellas dactilares digitales\u00bb a los videos, que ayuden a verificar su autenticidad. Como todo problema complejo, requiere de un esfuerzo conjunto de la comunidad t\u00e9cnica, las agencias oficiales, los medios, las plataformas y de todos los usuarios online\u00bb. <\/span><b>Siwei Lyu, profesor de Ingenier\u00eda y Ciencias Aplicadas, Universidad de Nueva York.\u00a0<\/b><\/p>\n<p><span style=\"font-weight:400\">\u201cLa tecnolog\u00eda para manipular im\u00e1genes est\u00e1 avanzando m\u00e1s r\u00e1pido que nuestra capacidad de distinguir lo que es real y lo que no lo es. Un problema tan grande como este no lo resolver\u00e1 una sola persona. Competencias abiertas como esta estimulan la innovaci\u00f3n al enfocar el poder mental colectivo del mundo en una meta aparentemente imposible \u00ab.<\/span><b> Phillip Isola, profesor asistente de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica, en Bonnie &amp; Marty (1964) Tenenbaum CD, MIT.<\/b><\/p>\n","protected":false},"excerpt":{"rendered":"Escrito por Mike Schroepfer Las bases de datos espec\u00edficas y las estandarizaciones han sido algunas de las herramientas m\u00e1s efectivas para acelerar el progreso de la Inteligencia Artificial (IA). El renacimiento que experimenta actualmente el aprendizaje profundo fue impulsado por el est\u00e1ndar de ImageNet. Y los avances recientes en el procesamiento del lenguaje natural han mejorado gracias a los sistemas GLUE y SuperGLUE. Las t\u00e9cnicas de \u00abDeepfake\u00bb, que presentan videos realistas generados por IA de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la informaci\u00f3n en l\u00ednea. Sin embargo, la industria no cuenta con un gran base de datos o un sistema estandarizado para detectarlos. Queremos catalizar la investigaci\u00f3n y el desarrollo en esta \u00e1rea y asegurarnos que haya mejores herramientas de c\u00f3digo abierto para detectar deepfakes. Es por eso que Facebook, la Asociaci\u00f3n de IA, Microsoft y acad\u00e9micos de Cornell Tech, MIT, Oxford, UC Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY se unen para construir el Reto de la Detecci\u00f3n de Deepfakes (DFDC, por sus siglas en ingl\u00e9s). Ese reto incluir\u00e1 una base de datos y una clasificaci\u00f3n, junto con financiaci\u00f3n y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a trav\u00e9s de la IA se utilicen para enga\u00f1ar a otros. La administraci\u00f3n y supervisi\u00f3n de este reto,\u00a0 estar\u00e1 a cargo un Comit\u00e9 de Direcci\u00f3n de AI sobre Integridad de Medios e Inteligencia Artificial, formado por una amplia coalici\u00f3n intersectorial de organizaciones que incluyen Facebook, WITNESS, Microsoft y sociedad civil, as\u00ed como otras comunidades de tecnolog\u00eda, medios y academia. Es importante contar con datos que est\u00e9n disponibles gratuitamente para que la comunidad los use, con consentimiento expl\u00edcito de las partes, y pocas restricciones de uso. Es por esto que Facebook est\u00e1 comisionando una base de datos espec\u00edfica, que sea realista, y que utilizar\u00e1 actores rentados para que contribuyan a este reto una vez que otorguen el consentimiento necesario. Ning\u00fan dato de usuarios de Facebook ser\u00e1 utilizado en esta iniciativa. Tambi\u00e9n estaremos financiando premios y colaboraciones de investigaci\u00f3n por un m\u00e1s de 10 millones de d\u00f3lares para fomentar una mayor participaci\u00f3n en este proyecto de la industria. Para garantizar la calidad de la base de datos a construir y establecer los par\u00e1metros del reto se realizar\u00e1 una sesi\u00f3n de trabajo t\u00e9cnico para ponerlos a prueba durante la Conferencia Internacional sobre Visi\u00f3n por Computadora (ICCV por sus siglas en ingl\u00e9s), en octubre. El lanzamiento completo de la base y del DFDC ocurrir\u00e1 en la Conferencia sobre Sistemas de Procesamiento de Informaci\u00f3n Neural (NeurIPS) prevista para diciembre. Facebook tambi\u00e9n participar\u00e1 en este reto. Sin embargo, no recibir\u00e1 ning\u00fan tipo de retribuci\u00f3n financiera. Siga nuestro sitio web para ver actualizaciones peri\u00f3dicas. Este es un problema en constante evoluci\u00f3n, al igual que el spam y otros retos de la industria, y nuestra esperanza es que al ayudar a que la industria y la comunidad de inteligencia artificial se unan, podamos avanzar m\u00e1s r\u00e1pido. Hemos solicitado a especialistas externos que compartan su visi\u00f3n sobre este proyecto y sus respuestas est\u00e1n incluidas m\u00e1s adelante en el texto. Apoyo acad\u00e9mico \u201cPara pasar de la era de la informaci\u00f3n a la era del conocimiento, debemos hacer un mejor esfuerzo para distinguir lo real de lo falso, recompensar el contenido confiable sobre el no confiable y educar a la pr\u00f3xima generaci\u00f3n en los esfuerzos de investigaci\u00f3n de la industria \/ universidad \/ ONG para desarrollar y poner en funcionamiento tecnolog\u00eda que pueda distinguir de manera r\u00e1pida y precisa lo real de lo falso\u201d. &#8211; Hany Farid, profesor del departamento de Ingenier\u00eda El\u00e9ctrica y Ciencias de la Computaci\u00f3n, UC Berkeley. \u00abLa gente ha manipulado im\u00e1genes a lo largo de casi toda la historia de la fotograf\u00eda. Pero ahora es posible que pr\u00e1cticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las peque\u00f1as imperfecciones en un imagen manipulada y exponer su representaci\u00f3n fraudulenta de la realidad\u00bb. &#8211; Antonio Torralba, profesor de ingenier\u00eda el\u00e9ctrica y ciencias de la computaci\u00f3n y director de MIT Quest for Intelligence \u201cComo vivimos en una era multimedia, poder contar con informaci\u00f3n de calidad es crucial para nuestras vidas. Dados los recientes desarrollos que permiten producir informaci\u00f3n manipulada a escala (texto, im\u00e1genes, videos y audio), necesitamos la participaci\u00f3n total de la comunidad de investigaci\u00f3n en un entorno abierto para desarrollar m\u00e9todos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulaci\u00f3n de la multimedia. Al poner a disposici\u00f3n un gran conjunto de medios genuinos y manipulados, el reto permitir\u00e1 entusiasmar a la comunidad investigadora a abordar colectivamente esta crisis en ciernes\u201d. &#8211; Rama Chellappa, profesor de ingenier\u00eda Minta Martin, Universidad de Maryland \u201cPara impulsar cambios de manera efectiva y resolver problemas, creemos que es fundamental que la academia y la industria se unan en un entorno abierto y colaborativo. En Cornell Tech, nuestra investigaci\u00f3n se centra en cerrar esa brecha y abordar el impacto social de la tecnolog\u00eda en la era digital, y el Reto de la Detecci\u00f3n de Deepfakes es un ejemplo perfecto de esto. Trabajando con l\u00edderes de la industria tecnol\u00f3gica y acad\u00e9micos, estaremos desarrollando una fuente de datos integral que nos permitir\u00e1 identificar medios falsos y, en \u00faltima instancia, poder crear herramientas y soluciones para combatirlos. Nos enorgullece formar parte de este grupo y compartir la fuente de datos con el p\u00fablico, lo que permite que cualquiera pueda aprender y ampliar esta investigaci\u00f3n\u00bb. &#8211; Serge Belongie, decano asociado y profesor de Cornell Tech. \u00abLos medios manipulados que est\u00e1n en internet para crear falsas teor\u00edas conspirativas y para manipular a las personas con objetivos pol\u00edticos se est\u00e1 convirtiendo en un problema de relevancia global por tratarse de una amenaza fundamental para la democracia, y por lo tanto, para la libertad. Creo que necesitamos con urgencia contar con nuevas herramientas para detectar y caracterizar esta desinformaci\u00f3n, de manera que estoy contento de ser parte de esta iniciativa que pretende movilizar a la comunidad de investigadores para alcanzar metas como preservar la verdad mientras ampliamos las fronteras de la ciencia\u00bb. Philip H. S. Torr, profesor del Departamento de Ciencias de la Ingenier\u00eda, Universidad de Oxford. \u00abPese a que las deepfakes pueden parecer realistas, el hecho de que est\u00e1n generadas por un algoritmo y no por eventos reales captados por una c\u00e1mara significa que pueden ser detectados y que su procedencia puede ser corroborada. Hay varios m\u00e9todos promisorios en camino para identificar y mitigar los efectos nocivos de las deepfakes, incluyendo procedimientos para poner \u00abhuellas dactilares digitales\u00bb a los videos, que ayuden a verificar su autenticidad. Como todo problema complejo, requiere de un esfuerzo conjunto de la comunidad t\u00e9cnica, las agencias oficiales, los medios, las plataformas y de todos los usuarios online\u00bb. Siwei Lyu, profesor de Ingenier\u00eda y Ciencias Aplicadas, Universidad de Nueva York.\u00a0 \u201cLa tecnolog\u00eda para manipular im\u00e1genes est\u00e1 avanzando m\u00e1s r\u00e1pido que nuestra capacidad de distinguir lo que es real y lo que no lo es. Un problema tan grande como este no lo resolver\u00e1 una sola persona. Competencias abiertas como esta estimulan la innovaci\u00f3n al enfocar el poder mental colectivo del mundo en una meta aparentemente imposible \u00ab. Phillip Isola, profesor asistente de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica, en Bonnie &amp; Marty (1964) Tenenbaum CD, MIT.","protected":false},"author":154972825,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-7271","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Creando una base de datos y un reto para los deepfakes | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Creando una base de datos y un reto para los deepfakes | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Escrito por Mike Schroepfer Las bases de datos espec\u00edficas y las estandarizaciones han sido algunas de las herramientas m\u00e1s efectivas para acelerar el progreso de la Inteligencia Artificial (IA). El renacimiento que experimenta actualmente el aprendizaje profundo fue impulsado por el est\u00e1ndar de ImageNet. Y los avances recientes en el procesamiento del lenguaje natural han mejorado gracias a los sistemas GLUE y SuperGLUE. Las t\u00e9cnicas de \u00abDeepfake\u00bb, que presentan videos realistas generados por IA de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la informaci\u00f3n en l\u00ednea. Sin embargo, la industria no cuenta con un gran base de datos o un sistema estandarizado para detectarlos. Queremos catalizar la investigaci\u00f3n y el desarrollo en esta \u00e1rea y asegurarnos que haya mejores herramientas de c\u00f3digo abierto para detectar deepfakes. Es por eso que Facebook, la Asociaci\u00f3n de IA, Microsoft y acad\u00e9micos de Cornell Tech, MIT, Oxford, UC Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY se unen para construir el Reto de la Detecci\u00f3n de Deepfakes (DFDC, por sus siglas en ingl\u00e9s). Ese reto incluir\u00e1 una base de datos y una clasificaci\u00f3n, junto con financiaci\u00f3n y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a trav\u00e9s de la IA se utilicen para enga\u00f1ar a otros. La administraci\u00f3n y supervisi\u00f3n de este reto,\u00a0 estar\u00e1 a cargo un Comit\u00e9 de Direcci\u00f3n de AI sobre Integridad de Medios e Inteligencia Artificial, formado por una amplia coalici\u00f3n intersectorial de organizaciones que incluyen Facebook, WITNESS, Microsoft y sociedad civil, as\u00ed como otras comunidades de tecnolog\u00eda, medios y academia. Es importante contar con datos que est\u00e9n disponibles gratuitamente para que la comunidad los use, con consentimiento expl\u00edcito de las partes, y pocas restricciones de uso. Es por esto que Facebook est\u00e1 comisionando una base de datos espec\u00edfica, que sea realista, y que utilizar\u00e1 actores rentados para que contribuyan a este reto una vez que otorguen el consentimiento necesario. Ning\u00fan dato de usuarios de Facebook ser\u00e1 utilizado en esta iniciativa. Tambi\u00e9n estaremos financiando premios y colaboraciones de investigaci\u00f3n por un m\u00e1s de 10 millones de d\u00f3lares para fomentar una mayor participaci\u00f3n en este proyecto de la industria. Para garantizar la calidad de la base de datos a construir y establecer los par\u00e1metros del reto se realizar\u00e1 una sesi\u00f3n de trabajo t\u00e9cnico para ponerlos a prueba durante la Conferencia Internacional sobre Visi\u00f3n por Computadora (ICCV por sus siglas en ingl\u00e9s), en octubre. El lanzamiento completo de la base y del DFDC ocurrir\u00e1 en la Conferencia sobre Sistemas de Procesamiento de Informaci\u00f3n Neural (NeurIPS) prevista para diciembre. Facebook tambi\u00e9n participar\u00e1 en este reto. Sin embargo, no recibir\u00e1 ning\u00fan tipo de retribuci\u00f3n financiera. Siga nuestro sitio web para ver actualizaciones peri\u00f3dicas. Este es un problema en constante evoluci\u00f3n, al igual que el spam y otros retos de la industria, y nuestra esperanza es que al ayudar a que la industria y la comunidad de inteligencia artificial se unan, podamos avanzar m\u00e1s r\u00e1pido. Hemos solicitado a especialistas externos que compartan su visi\u00f3n sobre este proyecto y sus respuestas est\u00e1n incluidas m\u00e1s adelante en el texto. Apoyo acad\u00e9mico \u201cPara pasar de la era de la informaci\u00f3n a la era del conocimiento, debemos hacer un mejor esfuerzo para distinguir lo real de lo falso, recompensar el contenido confiable sobre el no confiable y educar a la pr\u00f3xima generaci\u00f3n en los esfuerzos de investigaci\u00f3n de la industria \/ universidad \/ ONG para desarrollar y poner en funcionamiento tecnolog\u00eda que pueda distinguir de manera r\u00e1pida y precisa lo real de lo falso\u201d. &#8211; Hany Farid, profesor del departamento de Ingenier\u00eda El\u00e9ctrica y Ciencias de la Computaci\u00f3n, UC Berkeley. \u00abLa gente ha manipulado im\u00e1genes a lo largo de casi toda la historia de la fotograf\u00eda. Pero ahora es posible que pr\u00e1cticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las peque\u00f1as imperfecciones en un imagen manipulada y exponer su representaci\u00f3n fraudulenta de la realidad\u00bb. &#8211; Antonio Torralba, profesor de ingenier\u00eda el\u00e9ctrica y ciencias de la computaci\u00f3n y director de MIT Quest for Intelligence \u201cComo vivimos en una era multimedia, poder contar con informaci\u00f3n de calidad es crucial para nuestras vidas. Dados los recientes desarrollos que permiten producir informaci\u00f3n manipulada a escala (texto, im\u00e1genes, videos y audio), necesitamos la participaci\u00f3n total de la comunidad de investigaci\u00f3n en un entorno abierto para desarrollar m\u00e9todos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulaci\u00f3n de la multimedia. Al poner a disposici\u00f3n un gran conjunto de medios genuinos y manipulados, el reto permitir\u00e1 entusiasmar a la comunidad investigadora a abordar colectivamente esta crisis en ciernes\u201d. &#8211; Rama Chellappa, profesor de ingenier\u00eda Minta Martin, Universidad de Maryland \u201cPara impulsar cambios de manera efectiva y resolver problemas, creemos que es fundamental que la academia y la industria se unan en un entorno abierto y colaborativo. En Cornell Tech, nuestra investigaci\u00f3n se centra en cerrar esa brecha y abordar el impacto social de la tecnolog\u00eda en la era digital, y el Reto de la Detecci\u00f3n de Deepfakes es un ejemplo perfecto de esto. Trabajando con l\u00edderes de la industria tecnol\u00f3gica y acad\u00e9micos, estaremos desarrollando una fuente de datos integral que nos permitir\u00e1 identificar medios falsos y, en \u00faltima instancia, poder crear herramientas y soluciones para combatirlos. Nos enorgullece formar parte de este grupo y compartir la fuente de datos con el p\u00fablico, lo que permite que cualquiera pueda aprender y ampliar esta investigaci\u00f3n\u00bb. &#8211; Serge Belongie, decano asociado y profesor de Cornell Tech. \u00abLos medios manipulados que est\u00e1n en internet para crear falsas teor\u00edas conspirativas y para manipular a las personas con objetivos pol\u00edticos se est\u00e1 convirtiendo en un problema de relevancia global por tratarse de una amenaza fundamental para la democracia, y por lo tanto, para la libertad. Creo que necesitamos con urgencia contar con nuevas herramientas para detectar y caracterizar esta desinformaci\u00f3n, de manera que estoy contento de ser parte de esta iniciativa que pretende movilizar a la comunidad de investigadores para alcanzar metas como preservar la verdad mientras ampliamos las fronteras de la ciencia\u00bb. Philip H. S. Torr, profesor del Departamento de Ciencias de la Ingenier\u00eda, Universidad de Oxford. \u00abPese a que las deepfakes pueden parecer realistas, el hecho de que est\u00e1n generadas por un algoritmo y no por eventos reales captados por una c\u00e1mara significa que pueden ser detectados y que su procedencia puede ser corroborada. Hay varios m\u00e9todos promisorios en camino para identificar y mitigar los efectos nocivos de las deepfakes, incluyendo procedimientos para poner \u00abhuellas dactilares digitales\u00bb a los videos, que ayuden a verificar su autenticidad. Como todo problema complejo, requiere de un esfuerzo conjunto de la comunidad t\u00e9cnica, las agencias oficiales, los medios, las plataformas y de todos los usuarios online\u00bb. Siwei Lyu, profesor de Ingenier\u00eda y Ciencias Aplicadas, Universidad de Nueva York.\u00a0 \u201cLa tecnolog\u00eda para manipular im\u00e1genes est\u00e1 avanzando m\u00e1s r\u00e1pido que nuestra capacidad de distinguir lo que es real y lo que no lo es. Un problema tan grande como este no lo resolver\u00e1 una sola persona. Competencias abiertas como esta estimulan la innovaci\u00f3n al enfocar el poder mental colectivo del mundo en una meta aparentemente imposible \u00ab. Phillip Isola, profesor asistente de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica, en Bonnie &amp; Marty (1964) Tenenbaum CD, MIT.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2019-09-05T17:26:58+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"carogarayzar\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\"},\"author\":\"Facebook company\",\"headline\":\"Creando una base de datos y un reto para los deepfakes\",\"datePublished\":\"2019-09-05T17:26:58+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\"},\"wordCount\":1325,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"articleSection\":[\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\",\"name\":\"Creando una base de datos y un reto para los deepfakes | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2019-09-05T17:26:58+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Creando una base de datos y un reto para los deepfakes\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Creando una base de datos y un reto para los deepfakes | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/","og_locale":"es_ES","og_type":"article","og_title":"Creando una base de datos y un reto para los deepfakes | Acerca de Meta","og_description":"Escrito por Mike Schroepfer Las bases de datos espec\u00edficas y las estandarizaciones han sido algunas de las herramientas m\u00e1s efectivas para acelerar el progreso de la Inteligencia Artificial (IA). El renacimiento que experimenta actualmente el aprendizaje profundo fue impulsado por el est\u00e1ndar de ImageNet. Y los avances recientes en el procesamiento del lenguaje natural han mejorado gracias a los sistemas GLUE y SuperGLUE. Las t\u00e9cnicas de \u00abDeepfake\u00bb, que presentan videos realistas generados por IA de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la informaci\u00f3n en l\u00ednea. Sin embargo, la industria no cuenta con un gran base de datos o un sistema estandarizado para detectarlos. Queremos catalizar la investigaci\u00f3n y el desarrollo en esta \u00e1rea y asegurarnos que haya mejores herramientas de c\u00f3digo abierto para detectar deepfakes. Es por eso que Facebook, la Asociaci\u00f3n de IA, Microsoft y acad\u00e9micos de Cornell Tech, MIT, Oxford, UC Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY se unen para construir el Reto de la Detecci\u00f3n de Deepfakes (DFDC, por sus siglas en ingl\u00e9s). Ese reto incluir\u00e1 una base de datos y una clasificaci\u00f3n, junto con financiaci\u00f3n y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a trav\u00e9s de la IA se utilicen para enga\u00f1ar a otros. La administraci\u00f3n y supervisi\u00f3n de este reto,\u00a0 estar\u00e1 a cargo un Comit\u00e9 de Direcci\u00f3n de AI sobre Integridad de Medios e Inteligencia Artificial, formado por una amplia coalici\u00f3n intersectorial de organizaciones que incluyen Facebook, WITNESS, Microsoft y sociedad civil, as\u00ed como otras comunidades de tecnolog\u00eda, medios y academia. Es importante contar con datos que est\u00e9n disponibles gratuitamente para que la comunidad los use, con consentimiento expl\u00edcito de las partes, y pocas restricciones de uso. Es por esto que Facebook est\u00e1 comisionando una base de datos espec\u00edfica, que sea realista, y que utilizar\u00e1 actores rentados para que contribuyan a este reto una vez que otorguen el consentimiento necesario. Ning\u00fan dato de usuarios de Facebook ser\u00e1 utilizado en esta iniciativa. Tambi\u00e9n estaremos financiando premios y colaboraciones de investigaci\u00f3n por un m\u00e1s de 10 millones de d\u00f3lares para fomentar una mayor participaci\u00f3n en este proyecto de la industria. Para garantizar la calidad de la base de datos a construir y establecer los par\u00e1metros del reto se realizar\u00e1 una sesi\u00f3n de trabajo t\u00e9cnico para ponerlos a prueba durante la Conferencia Internacional sobre Visi\u00f3n por Computadora (ICCV por sus siglas en ingl\u00e9s), en octubre. El lanzamiento completo de la base y del DFDC ocurrir\u00e1 en la Conferencia sobre Sistemas de Procesamiento de Informaci\u00f3n Neural (NeurIPS) prevista para diciembre. Facebook tambi\u00e9n participar\u00e1 en este reto. Sin embargo, no recibir\u00e1 ning\u00fan tipo de retribuci\u00f3n financiera. Siga nuestro sitio web para ver actualizaciones peri\u00f3dicas. Este es un problema en constante evoluci\u00f3n, al igual que el spam y otros retos de la industria, y nuestra esperanza es que al ayudar a que la industria y la comunidad de inteligencia artificial se unan, podamos avanzar m\u00e1s r\u00e1pido. Hemos solicitado a especialistas externos que compartan su visi\u00f3n sobre este proyecto y sus respuestas est\u00e1n incluidas m\u00e1s adelante en el texto. Apoyo acad\u00e9mico \u201cPara pasar de la era de la informaci\u00f3n a la era del conocimiento, debemos hacer un mejor esfuerzo para distinguir lo real de lo falso, recompensar el contenido confiable sobre el no confiable y educar a la pr\u00f3xima generaci\u00f3n en los esfuerzos de investigaci\u00f3n de la industria \/ universidad \/ ONG para desarrollar y poner en funcionamiento tecnolog\u00eda que pueda distinguir de manera r\u00e1pida y precisa lo real de lo falso\u201d. &#8211; Hany Farid, profesor del departamento de Ingenier\u00eda El\u00e9ctrica y Ciencias de la Computaci\u00f3n, UC Berkeley. \u00abLa gente ha manipulado im\u00e1genes a lo largo de casi toda la historia de la fotograf\u00eda. Pero ahora es posible que pr\u00e1cticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las peque\u00f1as imperfecciones en un imagen manipulada y exponer su representaci\u00f3n fraudulenta de la realidad\u00bb. &#8211; Antonio Torralba, profesor de ingenier\u00eda el\u00e9ctrica y ciencias de la computaci\u00f3n y director de MIT Quest for Intelligence \u201cComo vivimos en una era multimedia, poder contar con informaci\u00f3n de calidad es crucial para nuestras vidas. Dados los recientes desarrollos que permiten producir informaci\u00f3n manipulada a escala (texto, im\u00e1genes, videos y audio), necesitamos la participaci\u00f3n total de la comunidad de investigaci\u00f3n en un entorno abierto para desarrollar m\u00e9todos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulaci\u00f3n de la multimedia. Al poner a disposici\u00f3n un gran conjunto de medios genuinos y manipulados, el reto permitir\u00e1 entusiasmar a la comunidad investigadora a abordar colectivamente esta crisis en ciernes\u201d. &#8211; Rama Chellappa, profesor de ingenier\u00eda Minta Martin, Universidad de Maryland \u201cPara impulsar cambios de manera efectiva y resolver problemas, creemos que es fundamental que la academia y la industria se unan en un entorno abierto y colaborativo. En Cornell Tech, nuestra investigaci\u00f3n se centra en cerrar esa brecha y abordar el impacto social de la tecnolog\u00eda en la era digital, y el Reto de la Detecci\u00f3n de Deepfakes es un ejemplo perfecto de esto. Trabajando con l\u00edderes de la industria tecnol\u00f3gica y acad\u00e9micos, estaremos desarrollando una fuente de datos integral que nos permitir\u00e1 identificar medios falsos y, en \u00faltima instancia, poder crear herramientas y soluciones para combatirlos. Nos enorgullece formar parte de este grupo y compartir la fuente de datos con el p\u00fablico, lo que permite que cualquiera pueda aprender y ampliar esta investigaci\u00f3n\u00bb. &#8211; Serge Belongie, decano asociado y profesor de Cornell Tech. \u00abLos medios manipulados que est\u00e1n en internet para crear falsas teor\u00edas conspirativas y para manipular a las personas con objetivos pol\u00edticos se est\u00e1 convirtiendo en un problema de relevancia global por tratarse de una amenaza fundamental para la democracia, y por lo tanto, para la libertad. Creo que necesitamos con urgencia contar con nuevas herramientas para detectar y caracterizar esta desinformaci\u00f3n, de manera que estoy contento de ser parte de esta iniciativa que pretende movilizar a la comunidad de investigadores para alcanzar metas como preservar la verdad mientras ampliamos las fronteras de la ciencia\u00bb. Philip H. S. Torr, profesor del Departamento de Ciencias de la Ingenier\u00eda, Universidad de Oxford. \u00abPese a que las deepfakes pueden parecer realistas, el hecho de que est\u00e1n generadas por un algoritmo y no por eventos reales captados por una c\u00e1mara significa que pueden ser detectados y que su procedencia puede ser corroborada. Hay varios m\u00e9todos promisorios en camino para identificar y mitigar los efectos nocivos de las deepfakes, incluyendo procedimientos para poner \u00abhuellas dactilares digitales\u00bb a los videos, que ayuden a verificar su autenticidad. Como todo problema complejo, requiere de un esfuerzo conjunto de la comunidad t\u00e9cnica, las agencias oficiales, los medios, las plataformas y de todos los usuarios online\u00bb. Siwei Lyu, profesor de Ingenier\u00eda y Ciencias Aplicadas, Universidad de Nueva York.\u00a0 \u201cLa tecnolog\u00eda para manipular im\u00e1genes est\u00e1 avanzando m\u00e1s r\u00e1pido que nuestra capacidad de distinguir lo que es real y lo que no lo es. Un problema tan grande como este no lo resolver\u00e1 una sola persona. Competencias abiertas como esta estimulan la innovaci\u00f3n al enfocar el poder mental colectivo del mundo en una meta aparentemente imposible \u00ab. Phillip Isola, profesor asistente de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica, en Bonnie &amp; Marty (1964) Tenenbaum CD, MIT.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/","og_site_name":"Acerca de Meta","article_published_time":"2019-09-05T17:26:58+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"carogarayzar","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/"},"author":"Facebook company","headline":"Creando una base de datos y un reto para los deepfakes","datePublished":"2019-09-05T17:26:58+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/"},"wordCount":1325,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"articleSection":["Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/","url":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/","name":"Creando una base de datos y un reto para los deepfakes | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2019-09-05T17:26:58+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/09\/creando-una-base-de-datos-y-un-reto-para-los-deepfakes\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Creando una base de datos y un reto para los deepfakes"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/7271","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/154972825"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=7271"}],"version-history":[{"count":0,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/7271\/revisions"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=7271"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=7271"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=7271"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}