{"id":6971,"date":"2019-05-01T13:38:15","date_gmt":"2019-05-01T18:38:15","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6971"},"modified":"2020-03-11T11:08:03","modified_gmt":"2020-03-11T17:08:03","slug":"f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/","title":{"rendered":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s"},"content":{"rendered":"<p><span style=\"font-weight:400;\">El segundo d\u00eda de F8 se enfoc\u00f3 en las inversiones a largo plazo que estamos realizando en las \u00e1reas de inteligencia artificial, realidad aumentada y realidad virtual. Durante el discurso de apertura, el Director de Tecnolog\u00eda, Mike Schroepfer, habl\u00f3 sobre las herramientas de inteligencia artificial que utilizamos para abordar una serie de desaf\u00edos en nuestros productos, y explic\u00f3 las razones por las que es optimista sobre lo que vendr\u00e1 en el futuro.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Despu\u00e9s de Schroepfer, subieron al escenario Manohar Paluri y Joaqu\u00edn Quinonero Candela del \u00e1rea de inteligencia artificial, Margaret Stewart de Dise\u00f1o de Producto, y Lade Obamehinti, <\/span><span style=\"font-weight:400;\">Lindsay Young y Ronald Mallet del \u00e1rea de <\/span><span style=\"font-weight:400;\">realidad aumentada y realidad virtual. <\/span><\/p>\n<h2><b>Inteligencia Artificial<\/b><\/h2>\n<figure id=\"attachment_6982\" aria-describedby=\"caption-attachment-6982\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6982\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-03-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6982\" class=\"wp-caption-text\">Manohar Paluri<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">La inteligencia artificial es esencial para un amplio rango de productos e infraestructura en Facebook. Recientemente, esto ha incluido detectar proactivamente contenido que viole <\/span><a href=\"https:\/\/www.facebook.com\/communitystandards\/\"><span style=\"font-weight:400;\">nuestras pol\u00edticas<\/span><\/a><span style=\"font-weight:400;\">. Para ayudarnos a localizarlo, trabajamos para asegurarnos que nuestros sistemas de inteligencia artificial entiendan el contenido con la menor supervisi\u00f3n posible. Hemos logrado importantes avances, pero a\u00fan tenemos mucho trabajo por delante. Los <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/advances-in-content-understanding-self-supervision-to-protect-people\"><span style=\"font-weight:400;\">avances en el procesamiento de lenguajes naturales<\/span><\/a><span style=\"font-weight:400;\"> (NLP por sus siglas en ingl\u00e9s) nos han ayudado a crear un lenguaje com\u00fan para traducciones, y de esta forma detectar contenido problem\u00e1tico en m\u00e1s lenguajes. Tambi\u00e9n tenemos un nuevo acercamiento a reconocimiento de objetos llamado <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/improving-scene-understanding-through-panoptic-segmentation\/\"><span style=\"font-weight:400;\">Panoptic FPN<\/span><\/a><span style=\"font-weight:400;\">, el cual ayuda a nuestros sistemas impulsados por inteligencia artificial a entender el contexto, por el fondo de las fotos. Entrenar modelos que combinan se\u00f1ales visuales y auditivas han mejorado los resultados.<\/span><\/p>\n<figure id=\"attachment_6973\" aria-describedby=\"caption-attachment-6973\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"wp-image-6973 size-large\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-02-1.jpg?resize=960%2C751\" alt=\"\" width=\"960\" height=\"751\" \/><figcaption id=\"caption-attachment-6973\" class=\"wp-caption-text\">Tecnolog\u00edas como Panoptic FPN, aqu\u00ed ilustrado, ayudan a los sistemas impulsados por inteligencia artificial a entender el contexto de los fondos de las fotos.<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">Nuestro trabajo en el procesamiento de lenguajes naturales es importante, pero muchas t\u00e9cnicas funcionan mejor para los lenguajes m\u00e1s comunes. Por esto tambi\u00e9n necesitamos trabajar en apoyar los otros lenguajes donde no hay suficientes muestras para entrenar. <\/span><span style=\"font-weight:400;\">Aqu\u00ed es donde entran en juego las t\u00e9cnicas de aprendizaje con supervisi\u00f3n propia. \u00c9stas nos permiten entrenar modelos sin necesidad de curadur\u00eda con humanos para etiquetar grandes conjuntos de datos para esos nuevos lenguajes. Esto nos permite entender mejor el contenido relevante, incluyendo las violaciones a las pol\u00edticas de Facebook, sin traducir cada uno de los enunciados. Estas t\u00e9cnicas aseguran que todos nuestros clasificadores detecten el contenido problem\u00e1tico en m\u00e1s lenguajes de los que anteriormente era posible. <\/span><\/p>\n<figure id=\"attachment_6983\" aria-describedby=\"caption-attachment-6983\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6983\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-04-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6983\" class=\"wp-caption-text\">Joaquin Quinonero Candela<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos. Para abordar esto, estamos construyendo buenas pr\u00e1cticas para la imparcialidad \u2013asegur\u00e1ndonos de que la inteligencia artificial proteja a las personas y no las discrimine\u2013 en cada paso del desarrollo del producto.<\/span><span style=\"font-weight:400;\"><br \/>\n<\/span><\/p>\n<p><span style=\"font-weight:400;\">Cuando los modelos de inteligencia artificial son entrenados por humanos en conjuntos de datos que involucran a personas, existe un riesgo representativo inherente. Si los conjuntos de datos contienen limitaciones, fallas u otros problemas, los modelos resultantes pueden funcionar de manera diferente para diferentes personas. Para gestionar ese riesgo, desarrollamos un <\/span><a href=\"https:\/\/tech.fb.com\/building-inclusive-ai-at-facebook\/\"><span style=\"font-weight:400;\">nuevo proceso para inteligencia artificial inclusiva<\/span><\/a><span style=\"font-weight:400;\">. \u00c9ste proporciona pautas para ayudar a los investigadores y programadores a dise\u00f1ar conjuntos de datos, medir el rendimiento del producto y probar nuevos sistemas a trav\u00e9s de la lente de inclusi\u00f3n. Para la visi\u00f3n, esas dimensiones incluyen el tono de la piel, la edad y la presentaci\u00f3n de g\u00e9nero, y para la voz incluyen el dialecto, la edad y el g\u00e9nero. El marco inclusivo de inteligencia artificial ahora se usa en muchos equipos de producto en Facebook y se integra en el desarrollo de nuevas caracter\u00edsticas.<\/span><\/p>\n<figure id=\"attachment_6984\" aria-describedby=\"caption-attachment-6984\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6984\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-05-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6984\" class=\"wp-caption-text\">Margaret Stewart<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">Para una inmersi\u00f3n m\u00e1s profunda en todas las actualizaciones y avances de inteligencia artificial de hoy, consulte las publicaciones en nuestro <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/\"><span style=\"font-weight:400;\">blog de IA<\/span><\/a><span style=\"font-weight:400;\">.<\/span><\/p>\n<h2><b>Realidad aumentada y realidad virtual <\/b><\/h2>\n<figure id=\"attachment_6985\" aria-describedby=\"caption-attachment-6985\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6985\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-06-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6985\" class=\"wp-caption-text\">Lade Obamehinti<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">Una de las \u00e1reas en las que estamos utilizando el marco inclusivo de la inteligencia artificial es la realidad aumentada (AR). Los ingenieros de <\/span><a href=\"https:\/\/tech.fb.com\/spark-ar-expands-to-windows-and-announces-instagram-open-beta\/\"><span style=\"font-weight:400;\">Spark AR<\/span><\/a><span style=\"font-weight:400;\"> lo utilizan para garantizar que su software ofrezca efectos AR de calidad para todos. Por ejemplo, algunos de los efectos son provocados por un gesto de la mano, por lo que los datos de entrenamiento incluy\u00f3 varios tonos de piel bajo una variedad de condiciones de iluminaci\u00f3n para asegurar que el sistema siempre reconociera que hab\u00eda una mano frente a la c\u00e1mara. Los ingenieros de Oculus tambi\u00e9n utilizan este proceso para comandos de voz en VR, con datos representativos en dialectos, edades y g\u00e9neros.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Mientras trabajamos para asegurarnos de que nuestra tecnolog\u00eda no excluya a las personas, tambi\u00e9n nos aseguramos de que ayude a unir a las personas. Con la realidad virtual, vemos un futuro donde las gente pueden interactuar y unirse, sin importar la distancia f\u00edsica. Para lograr esto, las personas necesitan sentirse completamente presentes en la realidad virtual. Eso significa que necesitamos avatares realmente realistas, con gestos, expresiones faciales y tono de voz que agreguen matices a nuestras conversaciones.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Hemos demostrado un realismo innovador en los rostros de nuestros<\/span><a href=\"https:\/\/tech.fb.com\/codec-avatars-facebook-reality-labs\/\"> <span style=\"font-weight:400;\">Codec Avatars<\/span><\/a><span style=\"font-weight:400;\">, que permiten a las personas interactuar en tiempo real en la realidad virtual. Pero la comunicaci\u00f3n genuina requiere de todo el cuerpo. Es por eso que estamos desarrollando modelos totalmente adaptables basados en la f\u00edsica que reproducen un avatar 3D con datos de un n\u00famero limitado de sensores. Utilizamos un enfoque en capas que reproduce la anatom\u00eda humana y puede adaptarse autom\u00e1ticamente para coincidir perfectamente con la apariencia y el movimiento \u00fanico de cualquier individuo. Dise\u00f1amos estos modelos de adentro hacia afuera, desarrollando un esqueleto virtual y luego sumando por capas la estructura muscular, la piel y la ropa. El resultado: avatares realistas, hasta en el movimiento muscular y el drapeado de la ropa. Todav\u00eda tenemos un largo camino por recorrer antes de que los resultados de esta investigaci\u00f3n se conviertan en un producto, pero lo logrado hasta ahora nos alienta.<\/span><\/p>\n<figure id=\"attachment_6986\" aria-describedby=\"caption-attachment-6986\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6986\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-07-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6986\" class=\"wp-caption-text\">Ronald Mallet<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">Al igual que la realidad aumentada, queremos que la realidad virtual sea incluyente y segura para todos. Hemos construido sistemas preventivos \u2013como un c\u00f3digo de conducta para todos los que usan o construyen nuestros auriculares\u2013 que fomentan una cultura e interacciones respetuosas. Y hemos construido sistemas reactivos, que incluyen herramientas para reportar o bloquear a los usuarios que infrinjan las normas.<\/span><\/p>\n<p><span style=\"font-weight:400;\">Cuando lanzamos nuestras propias aplicaciones sociales de realidad virtual, incluyendo Spaces, Venues y Rooms, incorporamos la seguridad en el dise\u00f1o central de la experiencia. Un video de orientaci\u00f3n presenta a las personas algunas de las caracter\u00edsticas dise\u00f1adas para hacerlos sentir m\u00e1s c\u00f3modos al interactuar con un grupo grande de personas mientras est\u00e9n en la realidad virtual. Por ejemplo, la burbuja de seguridad es una funci\u00f3n que evita que personas u objetos se acerquen m\u00e1s de lo que te gustar\u00eda. Si un avatar entra en la burbuja de seguridad de otro, ambos avatares se vuelven invisibles entre s\u00ed. Tambi\u00e9n contamos con moderadores en vivo para ayudar a garantizar un buen comportamiento y revisar informes de comportamiento inapropiado.<\/span><\/p>\n<figure id=\"attachment_6987\" aria-describedby=\"caption-attachment-6987\" style=\"width: 960px\" class=\"wp-caption aligncenter\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-6987\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-08-1.jpg?resize=960%2C640\" alt=\"\" width=\"960\" height=\"640\" \/><figcaption id=\"caption-attachment-6987\" class=\"wp-caption-text\">Lindsay Young<\/figcaption><\/figure>\n<p><span style=\"font-weight:400;\">Las herramientas y los procesos que compartimos hoy son parte de c\u00f3mo nos estamos preparando para lo que viene. Para nosotros, este trabajo consiste en brindar la misma voz y la oportunidad a personas de todo el mundo, para ayudarlas a mantenerse conectadas entre s\u00ed. Para conocer m\u00e1s sobre los anuncios de ayer, lee nuestro <\/span><a href=\"https:\/\/about.fb.com\/ltam\/2019\/04\/dia-1-de-f8-2019-creando-nuevos-productos-y-herramientas-para-un-plataforma-social-enfocada-en-privacidad\/\">Resumen del D\u00eda 1<\/a><span style=\"font-weight:400;\">. Para obtener m\u00e1s detalles sobre las noticias de hoy, consulta nuestro blog de<\/span><a href=\"https:\/\/developers.facebook.com\/blog\/\"> <span style=\"font-weight:400;\">Desarrolladores<\/span><\/a><span style=\"font-weight:400;\">, el blog de<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/\"><span style=\"font-weight:400;\"> IA<\/span><\/a><span style=\"font-weight:400;\">, el blog de<\/span><a href=\"https:\/\/code.facebook.com\/\"> <span style=\"font-weight:400;\">Ingenier\u00eda<\/span><\/a><span style=\"font-weight:400;\">, el blog de<\/span><a href=\"https:\/\/www.oculus.com\/blog\/\"> <span style=\"font-weight:400;\">Oculus<\/span><\/a><span style=\"font-weight:400;\">, el<\/span><a href=\"https:\/\/instagram-press.com\/\"><span style=\"font-weight:400;\"> Newsroom de Instagram<\/span><\/a><span style=\"font-weight:400;\"> y el <\/span><a href=\"https:\/\/newsroom.fb.com\/\"><span style=\"font-weight:400;\">Newsroom de Facebook<\/span><\/a><span style=\"font-weight:400;\">. Tambi\u00e9n puedes ver todas las notas importantes sobre el F8 en la p\u00e1gina de<\/span><a href=\"https:\/\/www.facebook.com\/FacebookforDevelopers\/\"> <span style=\"font-weight:400;\">Facebook para Desarrolladores<\/span><\/a><span style=\"font-weight:400;\">.<\/span><\/p>\n<div class=\"fb-video\" data-allowfullscreen=\"true\" data-href=\"https:\/\/www.facebook.com\/FacebookforDevelopers\/videos\/336919593660160\/\" style=\"background-color: #fff; display: inline-block;\"><\/div>\n","protected":false},"excerpt":{"rendered":"El segundo d\u00eda de F8 se enfoc\u00f3 en las inversiones a largo plazo que estamos realizando en las \u00e1reas de inteligencia artificial, realidad aumentada y realidad virtual. Durante el discurso de apertura, el Director de Tecnolog\u00eda, Mike Schroepfer, habl\u00f3 sobre las herramientas de inteligencia artificial que utilizamos para abordar una serie de desaf\u00edos en nuestros productos, y explic\u00f3 las razones por las que es optimista sobre lo que vendr\u00e1 en el futuro. Despu\u00e9s de Schroepfer, subieron al escenario Manohar Paluri y Joaqu\u00edn Quinonero Candela del \u00e1rea de inteligencia artificial, Margaret Stewart de Dise\u00f1o de Producto, y Lade Obamehinti, Lindsay Young y Ronald Mallet del \u00e1rea de realidad aumentada y realidad virtual. Inteligencia Artificial La inteligencia artificial es esencial para un amplio rango de productos e infraestructura en Facebook. Recientemente, esto ha incluido detectar proactivamente contenido que viole nuestras pol\u00edticas. Para ayudarnos a localizarlo, trabajamos para asegurarnos que nuestros sistemas de inteligencia artificial entiendan el contenido con la menor supervisi\u00f3n posible. Hemos logrado importantes avances, pero a\u00fan tenemos mucho trabajo por delante. Los avances en el procesamiento de lenguajes naturales (NLP por sus siglas en ingl\u00e9s) nos han ayudado a crear un lenguaje com\u00fan para traducciones, y de esta forma detectar contenido problem\u00e1tico en m\u00e1s lenguajes. Tambi\u00e9n tenemos un nuevo acercamiento a reconocimiento de objetos llamado Panoptic FPN, el cual ayuda a nuestros sistemas impulsados por inteligencia artificial a entender el contexto, por el fondo de las fotos. Entrenar modelos que combinan se\u00f1ales visuales y auditivas han mejorado los resultados. Nuestro trabajo en el procesamiento de lenguajes naturales es importante, pero muchas t\u00e9cnicas funcionan mejor para los lenguajes m\u00e1s comunes. Por esto tambi\u00e9n necesitamos trabajar en apoyar los otros lenguajes donde no hay suficientes muestras para entrenar. Aqu\u00ed es donde entran en juego las t\u00e9cnicas de aprendizaje con supervisi\u00f3n propia. \u00c9stas nos permiten entrenar modelos sin necesidad de curadur\u00eda con humanos para etiquetar grandes conjuntos de datos para esos nuevos lenguajes. Esto nos permite entender mejor el contenido relevante, incluyendo las violaciones a las pol\u00edticas de Facebook, sin traducir cada uno de los enunciados. Estas t\u00e9cnicas aseguran que todos nuestros clasificadores detecten el contenido problem\u00e1tico en m\u00e1s lenguajes de los que anteriormente era posible. La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos. Para abordar esto, estamos construyendo buenas pr\u00e1cticas para la imparcialidad \u2013asegur\u00e1ndonos de que la inteligencia artificial proteja a las personas y no las discrimine\u2013 en cada paso del desarrollo del producto. Cuando los modelos de inteligencia artificial son entrenados por humanos en conjuntos de datos que involucran a personas, existe un riesgo representativo inherente. Si los conjuntos de datos contienen limitaciones, fallas u otros problemas, los modelos resultantes pueden funcionar de manera diferente para diferentes personas. Para gestionar ese riesgo, desarrollamos un nuevo proceso para inteligencia artificial inclusiva. \u00c9ste proporciona pautas para ayudar a los investigadores y programadores a dise\u00f1ar conjuntos de datos, medir el rendimiento del producto y probar nuevos sistemas a trav\u00e9s de la lente de inclusi\u00f3n. Para la visi\u00f3n, esas dimensiones incluyen el tono de la piel, la edad y la presentaci\u00f3n de g\u00e9nero, y para la voz incluyen el dialecto, la edad y el g\u00e9nero. El marco inclusivo de inteligencia artificial ahora se usa en muchos equipos de producto en Facebook y se integra en el desarrollo de nuevas caracter\u00edsticas. Para una inmersi\u00f3n m\u00e1s profunda en todas las actualizaciones y avances de inteligencia artificial de hoy, consulte las publicaciones en nuestro blog de IA. Realidad aumentada y realidad virtual Una de las \u00e1reas en las que estamos utilizando el marco inclusivo de la inteligencia artificial es la realidad aumentada (AR). Los ingenieros de Spark AR lo utilizan para garantizar que su software ofrezca efectos AR de calidad para todos. Por ejemplo, algunos de los efectos son provocados por un gesto de la mano, por lo que los datos de entrenamiento incluy\u00f3 varios tonos de piel bajo una variedad de condiciones de iluminaci\u00f3n para asegurar que el sistema siempre reconociera que hab\u00eda una mano frente a la c\u00e1mara. Los ingenieros de Oculus tambi\u00e9n utilizan este proceso para comandos de voz en VR, con datos representativos en dialectos, edades y g\u00e9neros. Mientras trabajamos para asegurarnos de que nuestra tecnolog\u00eda no excluya a las personas, tambi\u00e9n nos aseguramos de que ayude a unir a las personas. Con la realidad virtual, vemos un futuro donde las gente pueden interactuar y unirse, sin importar la distancia f\u00edsica. Para lograr esto, las personas necesitan sentirse completamente presentes en la realidad virtual. Eso significa que necesitamos avatares realmente realistas, con gestos, expresiones faciales y tono de voz que agreguen matices a nuestras conversaciones. Hemos demostrado un realismo innovador en los rostros de nuestros Codec Avatars, que permiten a las personas interactuar en tiempo real en la realidad virtual. Pero la comunicaci\u00f3n genuina requiere de todo el cuerpo. Es por eso que estamos desarrollando modelos totalmente adaptables basados en la f\u00edsica que reproducen un avatar 3D con datos de un n\u00famero limitado de sensores. Utilizamos un enfoque en capas que reproduce la anatom\u00eda humana y puede adaptarse autom\u00e1ticamente para coincidir perfectamente con la apariencia y el movimiento \u00fanico de cualquier individuo. Dise\u00f1amos estos modelos de adentro hacia afuera, desarrollando un esqueleto virtual y luego sumando por capas la estructura muscular, la piel y la ropa. El resultado: avatares realistas, hasta en el movimiento muscular y el drapeado de la ropa. Todav\u00eda tenemos un largo camino por recorrer antes de que los resultados de esta investigaci\u00f3n se conviertan en un producto, pero lo logrado hasta ahora nos alienta. Al igual que la realidad aumentada, queremos que la realidad virtual sea incluyente y segura para todos. Hemos construido sistemas preventivos \u2013como un c\u00f3digo de conducta para todos los que usan o construyen nuestros auriculares\u2013 que fomentan una cultura e interacciones respetuosas. Y hemos construido sistemas reactivos, que incluyen herramientas para reportar o bloquear a los usuarios que infrinjan las normas. Cuando lanzamos nuestras propias aplicaciones sociales de realidad virtual, incluyendo Spaces, Venues y Rooms, incorporamos la seguridad en el dise\u00f1o central de la experiencia. Un video de orientaci\u00f3n presenta a las personas algunas de las caracter\u00edsticas dise\u00f1adas para hacerlos sentir m\u00e1s c\u00f3modos al interactuar con un grupo grande de personas mientras est\u00e9n en la realidad virtual. Por ejemplo, la burbuja de seguridad es una funci\u00f3n que evita que personas u objetos se acerquen m\u00e1s de lo que te gustar\u00eda. Si un avatar entra en la burbuja de seguridad de otro, ambos avatares se vuelven invisibles entre s\u00ed. Tambi\u00e9n contamos con moderadores en vivo para ayudar a garantizar un buen comportamiento y revisar informes de comportamiento inapropiado. Las herramientas y los procesos que compartimos hoy son parte de c\u00f3mo nos estamos preparando para lo que viene. Para nosotros, este trabajo consiste en brindar la misma voz y la oportunidad a personas de todo el mundo, para ayudarlas a mantenerse conectadas entre s\u00ed. Para conocer m\u00e1s sobre los anuncios de ayer, lee nuestro Resumen del D\u00eda 1. Para obtener m\u00e1s detalles sobre las noticias de hoy, consulta nuestro blog de Desarrolladores, el blog de IA, el blog de Ingenier\u00eda, el blog de Oculus, el Newsroom de Instagram y el Newsroom de Facebook. Tambi\u00e9n puedes ver todas las notas importantes sobre el F8 en la p\u00e1gina de Facebook para Desarrolladores.","protected":false},"author":145013940,"featured_media":6972,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947986,237720135],"tags":[243947837,243947913,243948000,243947999],"class_list":["post-6971","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-innovacion","category-noticias-de-productos","tag-f8","tag-inteligencia-artificial","tag-realidad-aumentada","tag-realidad-virtual"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"El segundo d\u00eda de F8 se enfoc\u00f3 en las inversiones a largo plazo que estamos realizando en las \u00e1reas de inteligencia artificial, realidad aumentada y realidad virtual. Durante el discurso de apertura, el Director de Tecnolog\u00eda, Mike Schroepfer, habl\u00f3 sobre las herramientas de inteligencia artificial que utilizamos para abordar una serie de desaf\u00edos en nuestros productos, y explic\u00f3 las razones por las que es optimista sobre lo que vendr\u00e1 en el futuro. Despu\u00e9s de Schroepfer, subieron al escenario Manohar Paluri y Joaqu\u00edn Quinonero Candela del \u00e1rea de inteligencia artificial, Margaret Stewart de Dise\u00f1o de Producto, y Lade Obamehinti, Lindsay Young y Ronald Mallet del \u00e1rea de realidad aumentada y realidad virtual. Inteligencia Artificial La inteligencia artificial es esencial para un amplio rango de productos e infraestructura en Facebook. Recientemente, esto ha incluido detectar proactivamente contenido que viole nuestras pol\u00edticas. Para ayudarnos a localizarlo, trabajamos para asegurarnos que nuestros sistemas de inteligencia artificial entiendan el contenido con la menor supervisi\u00f3n posible. Hemos logrado importantes avances, pero a\u00fan tenemos mucho trabajo por delante. Los avances en el procesamiento de lenguajes naturales (NLP por sus siglas en ingl\u00e9s) nos han ayudado a crear un lenguaje com\u00fan para traducciones, y de esta forma detectar contenido problem\u00e1tico en m\u00e1s lenguajes. Tambi\u00e9n tenemos un nuevo acercamiento a reconocimiento de objetos llamado Panoptic FPN, el cual ayuda a nuestros sistemas impulsados por inteligencia artificial a entender el contexto, por el fondo de las fotos. Entrenar modelos que combinan se\u00f1ales visuales y auditivas han mejorado los resultados. Nuestro trabajo en el procesamiento de lenguajes naturales es importante, pero muchas t\u00e9cnicas funcionan mejor para los lenguajes m\u00e1s comunes. Por esto tambi\u00e9n necesitamos trabajar en apoyar los otros lenguajes donde no hay suficientes muestras para entrenar. Aqu\u00ed es donde entran en juego las t\u00e9cnicas de aprendizaje con supervisi\u00f3n propia. \u00c9stas nos permiten entrenar modelos sin necesidad de curadur\u00eda con humanos para etiquetar grandes conjuntos de datos para esos nuevos lenguajes. Esto nos permite entender mejor el contenido relevante, incluyendo las violaciones a las pol\u00edticas de Facebook, sin traducir cada uno de los enunciados. Estas t\u00e9cnicas aseguran que todos nuestros clasificadores detecten el contenido problem\u00e1tico en m\u00e1s lenguajes de los que anteriormente era posible. La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos. Para abordar esto, estamos construyendo buenas pr\u00e1cticas para la imparcialidad \u2013asegur\u00e1ndonos de que la inteligencia artificial proteja a las personas y no las discrimine\u2013 en cada paso del desarrollo del producto. Cuando los modelos de inteligencia artificial son entrenados por humanos en conjuntos de datos que involucran a personas, existe un riesgo representativo inherente. Si los conjuntos de datos contienen limitaciones, fallas u otros problemas, los modelos resultantes pueden funcionar de manera diferente para diferentes personas. Para gestionar ese riesgo, desarrollamos un nuevo proceso para inteligencia artificial inclusiva. \u00c9ste proporciona pautas para ayudar a los investigadores y programadores a dise\u00f1ar conjuntos de datos, medir el rendimiento del producto y probar nuevos sistemas a trav\u00e9s de la lente de inclusi\u00f3n. Para la visi\u00f3n, esas dimensiones incluyen el tono de la piel, la edad y la presentaci\u00f3n de g\u00e9nero, y para la voz incluyen el dialecto, la edad y el g\u00e9nero. El marco inclusivo de inteligencia artificial ahora se usa en muchos equipos de producto en Facebook y se integra en el desarrollo de nuevas caracter\u00edsticas. Para una inmersi\u00f3n m\u00e1s profunda en todas las actualizaciones y avances de inteligencia artificial de hoy, consulte las publicaciones en nuestro blog de IA. Realidad aumentada y realidad virtual Una de las \u00e1reas en las que estamos utilizando el marco inclusivo de la inteligencia artificial es la realidad aumentada (AR). Los ingenieros de Spark AR lo utilizan para garantizar que su software ofrezca efectos AR de calidad para todos. Por ejemplo, algunos de los efectos son provocados por un gesto de la mano, por lo que los datos de entrenamiento incluy\u00f3 varios tonos de piel bajo una variedad de condiciones de iluminaci\u00f3n para asegurar que el sistema siempre reconociera que hab\u00eda una mano frente a la c\u00e1mara. Los ingenieros de Oculus tambi\u00e9n utilizan este proceso para comandos de voz en VR, con datos representativos en dialectos, edades y g\u00e9neros. Mientras trabajamos para asegurarnos de que nuestra tecnolog\u00eda no excluya a las personas, tambi\u00e9n nos aseguramos de que ayude a unir a las personas. Con la realidad virtual, vemos un futuro donde las gente pueden interactuar y unirse, sin importar la distancia f\u00edsica. Para lograr esto, las personas necesitan sentirse completamente presentes en la realidad virtual. Eso significa que necesitamos avatares realmente realistas, con gestos, expresiones faciales y tono de voz que agreguen matices a nuestras conversaciones. Hemos demostrado un realismo innovador en los rostros de nuestros Codec Avatars, que permiten a las personas interactuar en tiempo real en la realidad virtual. Pero la comunicaci\u00f3n genuina requiere de todo el cuerpo. Es por eso que estamos desarrollando modelos totalmente adaptables basados en la f\u00edsica que reproducen un avatar 3D con datos de un n\u00famero limitado de sensores. Utilizamos un enfoque en capas que reproduce la anatom\u00eda humana y puede adaptarse autom\u00e1ticamente para coincidir perfectamente con la apariencia y el movimiento \u00fanico de cualquier individuo. Dise\u00f1amos estos modelos de adentro hacia afuera, desarrollando un esqueleto virtual y luego sumando por capas la estructura muscular, la piel y la ropa. El resultado: avatares realistas, hasta en el movimiento muscular y el drapeado de la ropa. Todav\u00eda tenemos un largo camino por recorrer antes de que los resultados de esta investigaci\u00f3n se conviertan en un producto, pero lo logrado hasta ahora nos alienta. Al igual que la realidad aumentada, queremos que la realidad virtual sea incluyente y segura para todos. Hemos construido sistemas preventivos \u2013como un c\u00f3digo de conducta para todos los que usan o construyen nuestros auriculares\u2013 que fomentan una cultura e interacciones respetuosas. Y hemos construido sistemas reactivos, que incluyen herramientas para reportar o bloquear a los usuarios que infrinjan las normas. Cuando lanzamos nuestras propias aplicaciones sociales de realidad virtual, incluyendo Spaces, Venues y Rooms, incorporamos la seguridad en el dise\u00f1o central de la experiencia. Un video de orientaci\u00f3n presenta a las personas algunas de las caracter\u00edsticas dise\u00f1adas para hacerlos sentir m\u00e1s c\u00f3modos al interactuar con un grupo grande de personas mientras est\u00e9n en la realidad virtual. Por ejemplo, la burbuja de seguridad es una funci\u00f3n que evita que personas u objetos se acerquen m\u00e1s de lo que te gustar\u00eda. Si un avatar entra en la burbuja de seguridad de otro, ambos avatares se vuelven invisibles entre s\u00ed. Tambi\u00e9n contamos con moderadores en vivo para ayudar a garantizar un buen comportamiento y revisar informes de comportamiento inapropiado. Las herramientas y los procesos que compartimos hoy son parte de c\u00f3mo nos estamos preparando para lo que viene. Para nosotros, este trabajo consiste en brindar la misma voz y la oportunidad a personas de todo el mundo, para ayudarlas a mantenerse conectadas entre s\u00ed. Para conocer m\u00e1s sobre los anuncios de ayer, lee nuestro Resumen del D\u00eda 1. Para obtener m\u00e1s detalles sobre las noticias de hoy, consulta nuestro blog de Desarrolladores, el blog de IA, el blog de Ingenier\u00eda, el blog de Oculus, el Newsroom de Instagram y el Newsroom de Facebook. Tambi\u00e9n puedes ver todas las notas importantes sobre el F8 en la p\u00e1gina de Facebook para Desarrolladores.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2019-05-01T18:38:15+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-03-11T17:08:03+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?resize=1024,683\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"683\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\"},\"author\":\"Facebook company\",\"headline\":\"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s\",\"datePublished\":\"2019-05-01T18:38:15+00:00\",\"dateModified\":\"2020-03-11T17:08:03+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\"},\"wordCount\":1396,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280\",\"keywords\":[\"F8\",\"Inteligencia Artificial\",\"realidad aumentada\",\"realidad virtual\"],\"articleSection\":[\"Innovaci\u00f3n\",\"Noticias de Productos\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\",\"name\":\"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280\",\"datePublished\":\"2019-05-01T18:38:15+00:00\",\"dateModified\":\"2020-03-11T17:08:03+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280\",\"width\":1920,\"height\":1280,\"caption\":\"Mike Schroepfer, Chief Technology Officer\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/","og_locale":"es_ES","og_type":"article","og_title":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta","og_description":"El segundo d\u00eda de F8 se enfoc\u00f3 en las inversiones a largo plazo que estamos realizando en las \u00e1reas de inteligencia artificial, realidad aumentada y realidad virtual. Durante el discurso de apertura, el Director de Tecnolog\u00eda, Mike Schroepfer, habl\u00f3 sobre las herramientas de inteligencia artificial que utilizamos para abordar una serie de desaf\u00edos en nuestros productos, y explic\u00f3 las razones por las que es optimista sobre lo que vendr\u00e1 en el futuro. Despu\u00e9s de Schroepfer, subieron al escenario Manohar Paluri y Joaqu\u00edn Quinonero Candela del \u00e1rea de inteligencia artificial, Margaret Stewart de Dise\u00f1o de Producto, y Lade Obamehinti, Lindsay Young y Ronald Mallet del \u00e1rea de realidad aumentada y realidad virtual. Inteligencia Artificial La inteligencia artificial es esencial para un amplio rango de productos e infraestructura en Facebook. Recientemente, esto ha incluido detectar proactivamente contenido que viole nuestras pol\u00edticas. Para ayudarnos a localizarlo, trabajamos para asegurarnos que nuestros sistemas de inteligencia artificial entiendan el contenido con la menor supervisi\u00f3n posible. Hemos logrado importantes avances, pero a\u00fan tenemos mucho trabajo por delante. Los avances en el procesamiento de lenguajes naturales (NLP por sus siglas en ingl\u00e9s) nos han ayudado a crear un lenguaje com\u00fan para traducciones, y de esta forma detectar contenido problem\u00e1tico en m\u00e1s lenguajes. Tambi\u00e9n tenemos un nuevo acercamiento a reconocimiento de objetos llamado Panoptic FPN, el cual ayuda a nuestros sistemas impulsados por inteligencia artificial a entender el contexto, por el fondo de las fotos. Entrenar modelos que combinan se\u00f1ales visuales y auditivas han mejorado los resultados. Nuestro trabajo en el procesamiento de lenguajes naturales es importante, pero muchas t\u00e9cnicas funcionan mejor para los lenguajes m\u00e1s comunes. Por esto tambi\u00e9n necesitamos trabajar en apoyar los otros lenguajes donde no hay suficientes muestras para entrenar. Aqu\u00ed es donde entran en juego las t\u00e9cnicas de aprendizaje con supervisi\u00f3n propia. \u00c9stas nos permiten entrenar modelos sin necesidad de curadur\u00eda con humanos para etiquetar grandes conjuntos de datos para esos nuevos lenguajes. Esto nos permite entender mejor el contenido relevante, incluyendo las violaciones a las pol\u00edticas de Facebook, sin traducir cada uno de los enunciados. Estas t\u00e9cnicas aseguran que todos nuestros clasificadores detecten el contenido problem\u00e1tico en m\u00e1s lenguajes de los que anteriormente era posible. La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos. Para abordar esto, estamos construyendo buenas pr\u00e1cticas para la imparcialidad \u2013asegur\u00e1ndonos de que la inteligencia artificial proteja a las personas y no las discrimine\u2013 en cada paso del desarrollo del producto. Cuando los modelos de inteligencia artificial son entrenados por humanos en conjuntos de datos que involucran a personas, existe un riesgo representativo inherente. Si los conjuntos de datos contienen limitaciones, fallas u otros problemas, los modelos resultantes pueden funcionar de manera diferente para diferentes personas. Para gestionar ese riesgo, desarrollamos un nuevo proceso para inteligencia artificial inclusiva. \u00c9ste proporciona pautas para ayudar a los investigadores y programadores a dise\u00f1ar conjuntos de datos, medir el rendimiento del producto y probar nuevos sistemas a trav\u00e9s de la lente de inclusi\u00f3n. Para la visi\u00f3n, esas dimensiones incluyen el tono de la piel, la edad y la presentaci\u00f3n de g\u00e9nero, y para la voz incluyen el dialecto, la edad y el g\u00e9nero. El marco inclusivo de inteligencia artificial ahora se usa en muchos equipos de producto en Facebook y se integra en el desarrollo de nuevas caracter\u00edsticas. Para una inmersi\u00f3n m\u00e1s profunda en todas las actualizaciones y avances de inteligencia artificial de hoy, consulte las publicaciones en nuestro blog de IA. Realidad aumentada y realidad virtual Una de las \u00e1reas en las que estamos utilizando el marco inclusivo de la inteligencia artificial es la realidad aumentada (AR). Los ingenieros de Spark AR lo utilizan para garantizar que su software ofrezca efectos AR de calidad para todos. Por ejemplo, algunos de los efectos son provocados por un gesto de la mano, por lo que los datos de entrenamiento incluy\u00f3 varios tonos de piel bajo una variedad de condiciones de iluminaci\u00f3n para asegurar que el sistema siempre reconociera que hab\u00eda una mano frente a la c\u00e1mara. Los ingenieros de Oculus tambi\u00e9n utilizan este proceso para comandos de voz en VR, con datos representativos en dialectos, edades y g\u00e9neros. Mientras trabajamos para asegurarnos de que nuestra tecnolog\u00eda no excluya a las personas, tambi\u00e9n nos aseguramos de que ayude a unir a las personas. Con la realidad virtual, vemos un futuro donde las gente pueden interactuar y unirse, sin importar la distancia f\u00edsica. Para lograr esto, las personas necesitan sentirse completamente presentes en la realidad virtual. Eso significa que necesitamos avatares realmente realistas, con gestos, expresiones faciales y tono de voz que agreguen matices a nuestras conversaciones. Hemos demostrado un realismo innovador en los rostros de nuestros Codec Avatars, que permiten a las personas interactuar en tiempo real en la realidad virtual. Pero la comunicaci\u00f3n genuina requiere de todo el cuerpo. Es por eso que estamos desarrollando modelos totalmente adaptables basados en la f\u00edsica que reproducen un avatar 3D con datos de un n\u00famero limitado de sensores. Utilizamos un enfoque en capas que reproduce la anatom\u00eda humana y puede adaptarse autom\u00e1ticamente para coincidir perfectamente con la apariencia y el movimiento \u00fanico de cualquier individuo. Dise\u00f1amos estos modelos de adentro hacia afuera, desarrollando un esqueleto virtual y luego sumando por capas la estructura muscular, la piel y la ropa. El resultado: avatares realistas, hasta en el movimiento muscular y el drapeado de la ropa. Todav\u00eda tenemos un largo camino por recorrer antes de que los resultados de esta investigaci\u00f3n se conviertan en un producto, pero lo logrado hasta ahora nos alienta. Al igual que la realidad aumentada, queremos que la realidad virtual sea incluyente y segura para todos. Hemos construido sistemas preventivos \u2013como un c\u00f3digo de conducta para todos los que usan o construyen nuestros auriculares\u2013 que fomentan una cultura e interacciones respetuosas. Y hemos construido sistemas reactivos, que incluyen herramientas para reportar o bloquear a los usuarios que infrinjan las normas. Cuando lanzamos nuestras propias aplicaciones sociales de realidad virtual, incluyendo Spaces, Venues y Rooms, incorporamos la seguridad en el dise\u00f1o central de la experiencia. Un video de orientaci\u00f3n presenta a las personas algunas de las caracter\u00edsticas dise\u00f1adas para hacerlos sentir m\u00e1s c\u00f3modos al interactuar con un grupo grande de personas mientras est\u00e9n en la realidad virtual. Por ejemplo, la burbuja de seguridad es una funci\u00f3n que evita que personas u objetos se acerquen m\u00e1s de lo que te gustar\u00eda. Si un avatar entra en la burbuja de seguridad de otro, ambos avatares se vuelven invisibles entre s\u00ed. Tambi\u00e9n contamos con moderadores en vivo para ayudar a garantizar un buen comportamiento y revisar informes de comportamiento inapropiado. Las herramientas y los procesos que compartimos hoy son parte de c\u00f3mo nos estamos preparando para lo que viene. Para nosotros, este trabajo consiste en brindar la misma voz y la oportunidad a personas de todo el mundo, para ayudarlas a mantenerse conectadas entre s\u00ed. Para conocer m\u00e1s sobre los anuncios de ayer, lee nuestro Resumen del D\u00eda 1. Para obtener m\u00e1s detalles sobre las noticias de hoy, consulta nuestro blog de Desarrolladores, el blog de IA, el blog de Ingenier\u00eda, el blog de Oculus, el Newsroom de Instagram y el Newsroom de Facebook. Tambi\u00e9n puedes ver todas las notas importantes sobre el F8 en la p\u00e1gina de Facebook para Desarrolladores.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/","og_site_name":"Acerca de Meta","article_published_time":"2019-05-01T18:38:15+00:00","article_modified_time":"2020-03-11T17:08:03+00:00","og_image":[{"width":1024,"height":683,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?resize=1024,683","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/"},"author":"Facebook company","headline":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s","datePublished":"2019-05-01T18:38:15+00:00","dateModified":"2020-03-11T17:08:03+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/"},"wordCount":1396,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280","keywords":["F8","Inteligencia Artificial","realidad aumentada","realidad virtual"],"articleSection":["Innovaci\u00f3n","Noticias de Productos"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/","url":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/","name":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280","datePublished":"2019-05-01T18:38:15+00:00","dateModified":"2020-03-11T17:08:03+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280","width":1920,"height":1280,"caption":"Mike Schroepfer, Chief Technology Officer"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/05\/f8-2019-avances-en-vision-artificial-inteligencia-artificial-inclusiva-y-mas-del-dia-2\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"D\u00eda 2 de F8 2019: Avances en visi\u00f3n artificial, inteligencia artificial inclusiva y m\u00e1s"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2019\/05\/f8b-01.jpg?fit=1920%2C1280","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6971","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/145013940"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6971"}],"version-history":[{"count":8,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6971\/revisions"}],"predecessor-version":[{"id":7546,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6971\/revisions\/7546"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/6972"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6971"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6971"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6971"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}