<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Acerca de Meta</provider_name><provider_url>https://about.fb.com/ltam</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/ltam</author_url><title>Nueva tecnolog&#xED;a contra la explotaci&#xF3;n infantil | Acerca de Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="1Owbc827th"&gt;&lt;a href="https://about.fb.com/ltam/news/2018/10/nueva-tecnologia-contra-la-explotacion-infantil/"&gt;Nueva tecnolog&#xED;a contra la explotaci&#xF3;n infantil&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/ltam/news/2018/10/nueva-tecnologia-contra-la-explotacion-infantil/embed/#?secret=1Owbc827th" width="600" height="338" title="&#xAB;Nueva tecnolog&#xED;a contra la explotaci&#xF3;n infantil&#xBB; &#x2014; Acerca de Meta" data-secret="1Owbc827th" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/ltam/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><description>Por Antigone Davis, Jefe Global de Seguridad Una de nuestras responsabilidades fundamentales es que los ni&#xF1;os est&#xE9;n seguros en Facebook. No toleramos ning&#xFA;n comportamiento o contenido que se aproveche de ellos y desarrollamos programas de seguridad y recursos educativos junto a m&#xE1;s de 400 organizaciones en todo el mundo para ayudar a que Internet sea un lugar m&#xE1;s seguro para los menores. Hace a&#xF1;os que empleamos tecnolog&#xED;a de reconocimiento fotogr&#xE1;fico para evitar que las personas compartan im&#xE1;genes de explotaci&#xF3;n infantil que ya fueron identificadas y se puedan denunciar violaciones en el Centro Nacional para Ni&#xF1;os Desaparecidos y Explotados (NCMEC). Tambi&#xE9;n, exigimos que los ni&#xF1;os tengan al menos 13 a&#xF1;os para usar nuestros servicios y limitamos la cantidad de personas con las que los adolescentes pueden interactuar. Hoy estamos compartiendo parte del trabajo que hicimos durante el a&#xF1;o pasado para desarrollar nuevas tecnolog&#xED;as en la lucha contra la explotaci&#xF3;n infantil. Adem&#xE1;s del reconocimiento fotogr&#xE1;fico, utilizamos inteligencia artificial para detectar im&#xE1;genes nuevas de desnudez infantil y contenido abusivo cuando es subido. Usamos esas herramientas -y otras- para identificar m&#xE1;s r&#xE1;pidamente ese tipo de material, reportarlo al NCMEC y a las cuentas involucradas en interacciones potencialmente inapropiadas con ni&#xF1;os, y eliminarlas para evitar da&#xF1;os adicionales. Nuestras Normas Comunitarias proh&#xED;ben la explotaci&#xF3;n infantil y tambi&#xE9;n tomamos medidas en relaci&#xF3;n con el contenido que no es sexual, como fotos aparentemente benignas de ni&#xF1;os en la ba&#xF1;era, para evitar incluso cualquier potencial de abuso. Con este enfoque integral, solo en el &#xFA;ltimo trimestre, eliminamos 8,7 millones de piezas de contenido en Facebook que violaban las pol&#xED;ticas de desnudez o de explotaci&#xF3;n sexual de ni&#xF1;os, de las cuales el 99 por ciento fueron retiradas antes de ser siquiera reportadas. Tambi&#xE9;n eliminamos las cuentas que promueven este tipo de contenido. Tenemos equipos especialmente capacitados en asuntos legales, seguridad en l&#xED;nea, an&#xE1;lisis e investigaciones forenses, que revisan el contenido e informan los hallazgos al NCMEC. A su vez, el NCMEC investiga y trabaja con las agencias policiales de todo el mundo para ayudar a las v&#xED;ctimas. Estamos ayudando a la organizaci&#xF3;n a desarrollar un nuevo software que sirva para priorizar los reportes que comparte con la polic&#xED;a para abordar los casos m&#xE1;s graves primero. Tambi&#xE9;n colaboramos con expertos en seguridad, ONGs y otras empresas para eliminar y prevenir la explotaci&#xF3;n sexual de ni&#xF1;os a trav&#xE9;s de tecnolog&#xED;as en l&#xED;nea. Por ejemplo, trabajamos con la Coalici&#xF3;n Tecnol&#xF3;gica para erradicar la explotaci&#xF3;n infantil en l&#xED;nea, la Internet Watch Fundation y WePROTECT Global Alliance. Y el pr&#xF3;ximo mes, Facebook se unir&#xE1; a Microsoft y otros socios de la industria para comenzar a crear herramientas para compa&#xF1;&#xED;as m&#xE1;s peque&#xF1;as que sirvan para evitar el grooming online. M&#xE1;s informaci&#xF3;n sobre nuestro trabajo https://www.facebook.com/safety.</description><thumbnail_url>https://about.fb.com/ltam/wp-content/uploads/sites/14/2021/10/meta-social-16x9-1.jpg?resize=1024,576</thumbnail_url><thumbnail_width>1024</thumbnail_width><thumbnail_height>576</thumbnail_height></oembed>
