Meta

Nueva tecnología de código abierto para detectar coincidencias en fotos y videos

Por Antigone Davis, Responsable de Seguridad Global y Guy Rosen, VP de Integridad

En Facebook, confiamos en una combinación de tecnología y personas, para ayudar a mantener nuestras plataformas seguras. Cuando identificamos un contenido nocivo, como explotación infantil, propaganda terrorista, o violencia gráfica, la tecnología puede ayudarnos a encontrar duplicados de las mismas y evitar que se compartan.

Hoy, anunciamos el lanzamiento de dos tecnologías de código abierto que pueden detectar videos y fotos similares o casi idénticos, compartiendo así con otras personas que trabajan en mantener el internet seguro, parte de la tecnología que usamos para combatir abusos en nuestra plataforma.

Estos algoritmos serán de código abierto en GitHub para que nuestros socios de la industria, desarrolladores pequeños y organizaciones sin fines de lucro, puedan utilizarlos para identificar de manera más fácil contenido abusivo y compartir funciones hash o huellas digitales de diferentes tipos de contenido dañino. Para aquellos que ya utilizan su propia tecnología para detectar coincidencias, estas tecnologías que anunciamos hoy, son una capa adicional de defensa y permiten que los sistemas de intercambio de hash se comuniquen entre sí, lo que los hace mucho más poderosos. 

«En solo un año, hemos sido testigos de un aumento del 541% en la cantidad de videos de abuso sexual infantil reportados por la industria tecnológica a CyberTipline. Confiamos en que la generosa contribución de Facebook de esta tecnología de código abierto en última instancia conducirá a la identificación y rescate de más víctimas de abuso sexual infantil», dijo John Clark, presidente y CEO del Centro Nacional de Niños Desaparecidos y Explotados (NCMEC-por sus siglas en inglés).

A lo largo de los años, Facebook ha contribuido con cientos de proyectos de código abierto, compartiendo nuestra tecnología con la comunidad en general. Sin embargo, esta es la primera vez que compartimos una tecnología de comparación de fotos o videos. Aprovechando la generosa contribución de PhotoDNA de Microsoft para lucha contra la explotación infantil hace 10 años y el lanzamiento más reciente de la API de seguridad de contenido de Google, el anuncio de hoy también forma parte de un compromiso de toda la industria para construir un Internet más seguro.

Conocidas como PDQ y TMK + PDQF, estas tecnologías son parte de un conjunto de herramientas que utilizamos en Facebook para detectar contenido dañino. También, existen otros algoritmos e implementaciones disponibles para la industria como pHash, PhotoDNA, aHash y dHash de Microsoft. Nuestro algoritmo de coincidencia de fotos, PDQ, debe mucha de su inspiración a pHash, a pesar de haber sido creado desde cero como un algoritmo distinto con una implementación de software independiente. La tecnología de coincidencia de video, TMK + PDQF, fue desarrollada conjuntamente por el equipo de Investigación de Inteligencia Artificial de Facebook (FAIR) y académicos de la Universidad de Módena y Reggio Emilia en Italia.

Estas tecnologías crean una manera eficiente de almacenar archivos como hashes digitales cortos que pueden determinar si dos archivos son iguales o similares, incluso sin la imagen o el video original. Los hashes también se pueden compartir más fácilmente con otras compañías y organizaciones sin fines de lucro. Por ejemplo, cuando identificamos propaganda terrorista en nuestras plataformas, la eliminamos y la analizamos utilizando una variedad de técnicas, incluidos los algoritmos que compartimos hoy. Después, compartimos los hashes con socios de la industria, incluidas las empresas más pequeñas, a través de GIFCT para que también puedan eliminar el mismo contenido si aparece en alguno de sus servicios.

PDQ y TMK + PDQF fueron diseñados para operar a gran escala, admitiendo aplicaciones de video-hashing de cuadros y en tiempo real. Diseñamos estas tecnologías en función de nuestra experiencia con la detección de abusos en miles de millones de publicaciones en Facebook. Esperamos que al contribuir de nuevo a la comunidad, estaremos permitiendo que más compañías mantengan sus servicios seguros y empoderen a las organizaciones sin fines de lucro para que puedan trabajar en el espacio. Este trabajo se suma a nuestra investigación en curso en estas áreas, incluida nuestra asociación con la Universidad de Maryland, la Universidad de Cornell, el Instituto de Tecnología Massachusettes y la Universidad de California, Berkeley, para investigar nuevas técnicas de detección y manipulaciones intencionales de videos y fotos para evadir nuestros sistemas.

Estamos anunciando estas tecnologías al mismo tiempo que ocurre nuestro cuarto hackathon anual de seguridad infantil, que se realiza en la sede de Facebook en Menlo Park, California. El evento, de dos días, reúne cerca de 80 ingenieros y científicos de datos de empresas asociadas a Technology Coalition y otros para desarrollar nuevas tecnologías que ayuden a proteger a los niños y niñas.

El evento de este año se centra en el desarrollo de nuevas herramientas para ayudar a nuestros socios, NCMEC y Thorn, en su trabajo.Por ejemplo, algunos equipos crearán una característica que permita a las fuerzas del orden público utilizar la herramienta de administración de casos CyberTip del NCMEC para consultar las bases de datos de otras organizaciones sin fines de lucro de hashes conocidos e información clave relacionada con un CyberTip particular y recopilar y comparar
puntos de datos, ayudando en su esfuerzo por identificar a los niños en riesgo e identificar informes altamente procesables. El código fuente abierto publicado hoy también estará disponible para los equipos en el hackathon.

Los hackathons son una forma de reunir a personas de diferentes organizaciones con experiencia muy diversa para crear herramientas que resuelvan la explotación sexual infantil en internet. Todos los códigos y prototipos desarrollados en el evento serán donados a nuestros socios y utilizados en sus esfuerzos por la seguridad infantil.

Continuaremos expandiendo y mejorando nuestros propios productos y características para combatir este problema crítico. Te compartimos más acerca de cómo Facebook combate la explotación infantil a través de la tecnología en este link.

 



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies