{"id":22425,"date":"2021-01-20T08:07:09","date_gmt":"2021-01-20T14:07:09","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=22425"},"modified":"2021-01-20T08:07:45","modified_gmt":"2021-01-20T14:07:45","slug":"como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/","title":{"rendered":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Cuando las personas en Facebook navegan por su Feed de noticias, encuentran todo tipo de contenidos \u2014art\u00edculos, comentarios de amigos, invitaciones a eventos y, por supuesto, fotos. La mayor\u00eda de las personas pueden ver instant\u00e1neamente lo que hay en estas im\u00e1genes, ya sea su nuevo nieto, un bote en un r\u00edo o la imagen borrosa de una banda en el escenario. Muchos usuarios ciegos y con discapacidad visual tambi\u00e9n pueden experimentar esas im\u00e1genes, siempre y cuando est\u00e9n etiquetadas correctamente con texto alternativo (o \u201calt text\u201d). Un lector de pantalla puede describir el contenido de estas im\u00e1genes utilizando una voz sint\u00e9tica, y permitir que las personas con discapacidad visual comprendan las im\u00e1genes en su Feed de Facebook.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desafortunadamente, muchas fotos se publican sin texto alternativo, por lo que en 2016 presentamos una nueva tecnolog\u00eda llamada <\/span><a href=\"https:\/\/engineering.fb.com\/2016\/04\/04\/ios\/under-the-hood-building-accessibility-tools-for-the-visually-impaired-on-facebook\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Texto Alternativo Autom\u00e1tico<\/span><\/a><span style=\"font-weight: 400\"> (AAT por sus siglas en ingl\u00e9s). AAT \u2014 que fue reconocido en 2018 con el premio <\/span><a href=\"https:\/\/www.afb.org\/press-room\/press-release-archive\/announcing-2018-helen-keller-achievement-award-winners\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Helen Keller Achievement Award<\/span><\/a><span style=\"font-weight: 400\"> de la <\/span><i><span style=\"font-weight: 400\">American Foundation for the Blind<\/span><\/i><span style=\"font-weight: 400\"> \u2014 utiliza el reconocimiento de objetos para generar descripciones de fotos a pedido para que las personas ciegas o con discapacidad visual puedan disfrutar m\u00e1s plenamente de su Feed de noticias. Desde entonces, lo hemos estado mejorando y estamos contentos de presentar la pr\u00f3xima generaci\u00f3n de AAT.<\/span><\/p>\n<p><span style=\"font-weight: 400\">La evoluci\u00f3n de ATT representa m\u00faltiples avances tecnol\u00f3gicos que mejoran la experiencia fotogr\u00e1fica de nuestros usuarios. En primer lugar, ampliamos m\u00e1s de 10 veces la cantidad de objetos que AAT puede detectar e identificar de manera confiable en una foto, lo que a su vez significa menos fotos sin descripci\u00f3n. Adem\u00e1s, las descripciones son m\u00e1s detalladas, con la capacidad de identificar actividades, puntos de referencia, tipos de animales, y mucho m\u00e1s \u2014 como <\/span><i><span style=\"font-weight: 400\">\u201cPuede ser una selfie de 2 personas, al aire libre, en la Torre de Pisa\u201d.<\/span><\/i><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22427\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=890&#038;resize=890%2C501\" alt=\"\" width=\"890\" height=\"501\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=890 890w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline1.jpg?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Somos la primera empresa de la industria que ser\u00e1 capaz de incluir informaci\u00f3n sobre la ubicaci\u00f3n posicional y el tama\u00f1o relativo de los elementos en una foto. En lugar de describir el contenido de una foto como <\/span><i><span style=\"font-weight: 400\">\u201cPuede ser una imagen de 5 personas\u201d,<\/span><\/i><span style=\"font-weight: 400\"> podemos especificar que hay dos personas en el centro de la foto y otras tres hacia los m\u00e1rgenes, lo que implica que las dos en el centro son el foco. O en lugar de simplemente describir un paisaje encantador como <\/span><i><span style=\"font-weight: 400\">\u201cPuede ser una casa y una monta\u00f1a\u201d<\/span><\/i><span style=\"font-weight: 400\">, podemos resaltar que la monta\u00f1a es el objeto principal en una escena seg\u00fan lo grande que parece en comparaci\u00f3n con la casa en su base.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En conjunto, estos avances ayudan a los usuarios con discapacidad visual a comprender mejor el contenido de las fotos publicadas por familiares y amigos \u2014 y sus propias fotos \u2014\u00a0 al proporcionar m\u00e1s informaci\u00f3n, m\u00e1s detallada.<\/span><\/p>\n<p><b>D\u00f3nde empezamos<\/b><\/p>\n<p><span style=\"font-weight: 400\">El concepto de \u201ctexto alternativo\u201d se remonta a los primeros d\u00edas de Internet, cuando era una alternativa de texto a la descarga de im\u00e1genes para conexiones lentas. Por supuesto, el texto alternativo tambi\u00e9n ayud\u00f3 a las personas con discapacidad visual a navegar por Internet, ya que el software de lectura de pantalla puede usarse para generar descripciones de im\u00e1genes en audio. Desafortunadamente, las r\u00e1pidas velocidades de Internet hicieron que el texto alternativo deje de ser una prioridad para varios usuarios. Y dado que estas descripciones deb\u00edan ser agregadas manualmente por quien cargaba la imagen, muchas fotos dejaron de incluir el texto alternativo, dejando sin el recurso a las personas que utilizaban la herramienta.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Hace casi cinco a\u00f1os aprovechamos la experiencia en visi\u00f3n computacional de Facebook para ayudar a resolver este problema. La primera versi\u00f3n de AAT se desarroll\u00f3 utilizando datos etiquetados por humanos, con los que entrenamos una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada. Nuestro modelo completo de AAT pudo reconocer 100 conceptos comunes, como \u201c\u00e1rbol\u201d, \u201cmonta\u00f1a\u201d y \u201cal aire libre\u201d. Y dado que los usuarios de Facebook a menudo comparten fotos de amigos y familiares, nuestras descripciones de AAT utilizaron modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento expl\u00edcito). Para los usuarios con discapacidad visual, este fue un gran paso.<\/span><\/p>\n<p><b>Ver m\u00e1s del mundo<\/b><\/p>\n<p><span style=\"font-weight: 400\">Pero sab\u00edamos que el AAT pod\u00eda hacer m\u00e1s, y el siguiente paso l\u00f3gico era ampliar el n\u00famero de objetos reconocibles y perfeccionar la forma en que eran descritos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para lograr esto, nos alejamos del aprendizaje completamente supervisado con datos etiquetados por humanos. Si bien este m\u00e9todo ofrece precisi\u00f3n, el tiempo y esfuerzo involucrados en el etiquetado de datos es extremadamente alto \u2014 y por eso nuestro modelo AAT original s\u00f3lo reconoci\u00f3 100 objetos de manera confiable. Como ese enfoque no era escalable, necesit\u00e1bamos un nuevo camino para seguir.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para la \u00faltima versi\u00f3n de AAT, aprovechamos un <\/span><a href=\"https:\/\/engineering.fb.com\/2018\/05\/02\/ml-applications\/advancing-state-of-the-art-image-recognition-with-deep-learning-on-hashtags\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">modelo entrenado con datos supervisados parcialmente<\/span><\/a><span style=\"font-weight: 400\">, utilizando miles de millones de im\u00e1genes p\u00fablicas de Instagram y sus hashtags. Para que nuestros modelos funcionen mejor para todos, los ajustamos para que los datos fueran muestreados a partir de im\u00e1genes en todas las geograf\u00edas, y utilizando traducciones de hashtags en muchos idiomas. Tambi\u00e9n evaluamos nuestros conceptos en los ejes de g\u00e9nero, tono de piel y edad. Los modelos resultantes son m\u00e1s precisos e inclusivos a nivel cultural y demogr\u00e1fico \u2014 por ejemplo, pueden identificar casamientos en todo el mundo bas\u00e1ndose (en parte) en atuendos tradicionales en lugar de etiquetar solo fotos con vestidos de novia blancos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n nos brind\u00f3 la capacidad de reutilizar m\u00e1s f\u00e1cilmente los modelos de aprendizaje autom\u00e1tico como punto de partida para la capacitaci\u00f3n en nuevas tareas \u2014 un proceso conocido como <\/span><a href=\"https:\/\/machinelearningmastery.com\/transfer-learning-for-deep-learning\/#:~:text=Transfer%20learning%20is%20a%20machine%20learning%20method%20where,point%20for%20a%20model%20on%20a%20second%20task.\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">aprendizaje por transferencia<\/span><\/a><span style=\"font-weight: 400\">. Esto nos permiti\u00f3 crear modelos que identifican conceptos como monumentos nacionales, tipos de alimentos (como arroz frito y papas fritas) y selfies. Todo este proceso no hubiera sido posible en el pasado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para obtener informaci\u00f3n m\u00e1s rica, como posici\u00f3n y recuento en la imagen, tambi\u00e9n entrenamos a un detector de objetos de dos etapas, Faster R-CNN, utilizando <\/span><a href=\"https:\/\/ai.facebook.com\/blog\/-detectron2-a-pytorch-based-modular-object-detection-library-\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Detectron2<\/span><\/a><span style=\"font-weight: 400\">, una plataforma de c\u00f3digo abierto para la detecci\u00f3n y segmentaci\u00f3n de objetos desarrollada por Facebook AI Research. Entrenamos los modelos para predecir ubicaciones y etiquetas sem\u00e1nticas de los objetos dentro de una imagen. Las t\u00e9cnicas de entrenamiento de m\u00faltiples etiquetas y conjuntos de datos ayudaron a que nuestro modelo fuera m\u00e1s confiable con m\u00e1s espacio para etiquetas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">El AAT mejorado reconoce de manera confiable m\u00e1s de 1200 conceptos \u2014 10 veces m\u00e1s que la versi\u00f3n original que lanzamos en 2016. Cuando consultamos con los usuarios de lectores de pantalla sobre AAT y la mejor manera de perfeccionarlo, dejaron en claro que la precisi\u00f3n es primordial. Con ese fin, solo hemos incluido conceptos en los que podr\u00edamos garantizar modelos bien entrenados que cumplieran con un cierto umbral de precisi\u00f3n. Si bien existe un margen de error, raz\u00f3n por la cual comenzamos cada descripci\u00f3n con <\/span><i><span style=\"font-weight: 400\">\u00abPuede ser\u00bb<\/span><\/i><span style=\"font-weight: 400\">, elevado el umbral de precisi\u00f3n y omitimos intencionalmente conceptos que no pudimos identificar de manera confiable.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Queremos brindarles a nuestros usuarios con discapacidad visual y ciegos tanta informaci\u00f3n como sea posible sobre el contenido de una foto, y asegurar que sea informaci\u00f3n <\/span><i><span style=\"font-weight: 400\">correcta.<\/span><\/i><\/p>\n<p><b>Brindar detalles<\/b><\/p>\n<p><span style=\"font-weight: 400\">Habiendo aumentado el n\u00famero de objetos reconocidos con un alto nivel de precisi\u00f3n, centramos nuestra atenci\u00f3n en descubrir c\u00f3mo describir mejor lo que encontramos en una foto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Le preguntamos a los usuarios que dependen de los lectores de pantalla cu\u00e1nta informaci\u00f3n quer\u00edan escuchar y cu\u00e1ndo quer\u00edan escucharla. Quer\u00edan m\u00e1s informaci\u00f3n cuando una imagen es de amigos o familiares, y menos cuando no lo es. Dise\u00f1amos el nuevo AAT para proporcionar una descripci\u00f3n precisa de todas las fotos de forma predeterminada, pero ofrecemos una manera f\u00e1cil de solicitar detalles mejorados sobre las fotos de inter\u00e9s.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-22428\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=890&#038;resize=890%2C501\" alt=\"\" width=\"890\" height=\"501\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=890 890w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_inline3.jpg?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Cuando los usuarios seleccionan esta \u00faltima opci\u00f3n, se presenta un panel que proporciona una descripci\u00f3n m\u00e1s completa del contenido de una foto, incluido un recuento de los elementos de la foto, algunos de los cuales pueden no haber sido mencionados en la descripci\u00f3n predeterminada. Las descripciones detalladas tambi\u00e9n incluyen informaci\u00f3n posicional simple \u2014 superior\/medio\/inferior o izquierda\/centro\/derecha de una imagen \u2014 y una comparaci\u00f3n de la prominencia relativa de los objetos, descritos como \u201cprimarios\u201d, \u201csecundarios\u201d o \u201cmenores\u201d en la imagen. Estas palabras fueron elegidas espec\u00edficamente para minimizar la ambig\u00fcedad. Feedbacks durante el desarrollo de la herramienta mostraron que usar una palabra como \u201cgrande\u201d para describir un objeto podr\u00eda resultar confuso porque no est\u00e1 claro si la referencia es a su tama\u00f1o real o su tama\u00f1o en relaci\u00f3n con otros objetos en una imagen. \u00a1Incluso un chihuahua se ve grande si se saca una fotograf\u00eda de cerca!<\/span><\/p>\n<p><span style=\"font-weight: 400\">El AAT usa una redacci\u00f3n simple para brindar descripciones precisas predeterminadas, en lugar de una oraci\u00f3n larga. No es po\u00e9tico, pero es muy funcional. Nuestros usuarios pueden obtener la descripci\u00f3n r\u00e1pidamente \u2014 y nos permite traducir f\u00e1cil y r\u00e1pidamente nuestras descripciones de texto alternativo a 45 idiomas diferentes, incluso a espa\u00f1ol, lo que garantiza que AAT sea \u00fatil para personas de todo el mundo.<\/span><\/p>\n<p><b>Facebook es para todos<\/b><\/p>\n<p><span style=\"font-weight: 400\">Todos los d\u00edas, nuestros usuarios comparten miles de millones de fotos. La ubicuidad de c\u00e1maras econ\u00f3micas en los tel\u00e9fonos m\u00f3viles, las conexiones inal\u00e1mbricas r\u00e1pidas y los productos de redes sociales como Instagram y Facebook han facilitado la captura y el intercambio de fotograf\u00edas, una de las formas m\u00e1s populares de comunicarse \u2014 incluso para las personas con discapacidad visual. Si bien deseamos que todos los que hayan subido una foto incluyan una descripci\u00f3n de texto alternativo, reconocemos que esto no suele suceder. Creamos AAT para cerrar esta brecha, y el impacto que ha tenido en quienes lo necesitan es inconmensurable. La inteligencia artificial promete avances extraordinarios, y nos entusiasma la oportunidad de llevar estos avances a las comunidades que los necesitan.<\/span><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"Cuando las personas en Facebook navegan por su Feed de noticias, encuentran todo tipo de contenidos \u2014art\u00edculos, comentarios de amigos, invitaciones a eventos y, por supuesto, fotos. La mayor\u00eda de las personas pueden ver instant\u00e1neamente lo que hay en estas im\u00e1genes, ya sea su nuevo nieto, un bote en un r\u00edo o la imagen borrosa de una banda en el escenario. Muchos usuarios ciegos y con discapacidad visual tambi\u00e9n pueden experimentar esas im\u00e1genes, siempre y cuando est\u00e9n etiquetadas correctamente con texto alternativo (o \u201calt text\u201d). Un lector de pantalla puede describir el contenido de estas im\u00e1genes utilizando una voz sint\u00e9tica, y permitir que las personas con discapacidad visual comprendan las im\u00e1genes en su Feed de Facebook.\u00a0 Desafortunadamente, muchas fotos se publican sin texto alternativo, por lo que en 2016 presentamos una nueva tecnolog\u00eda llamada Texto Alternativo Autom\u00e1tico (AAT por sus siglas en ingl\u00e9s). AAT \u2014 que fue reconocido en 2018 con el premio Helen Keller Achievement Award de la American Foundation for the Blind \u2014 utiliza el reconocimiento de objetos para generar descripciones de fotos a pedido para que las personas ciegas o con discapacidad visual puedan disfrutar m\u00e1s plenamente de su Feed de noticias. Desde entonces, lo hemos estado mejorando y estamos contentos de presentar la pr\u00f3xima generaci\u00f3n de AAT. La evoluci\u00f3n de ATT representa m\u00faltiples avances tecnol\u00f3gicos que mejoran la experiencia fotogr\u00e1fica de nuestros usuarios. En primer lugar, ampliamos m\u00e1s de 10 veces la cantidad de objetos que AAT puede detectar e identificar de manera confiable en una foto, lo que a su vez significa menos fotos sin descripci\u00f3n. Adem\u00e1s, las descripciones son m\u00e1s detalladas, con la capacidad de identificar actividades, puntos de referencia, tipos de animales, y mucho m\u00e1s \u2014 como \u201cPuede ser una selfie de 2 personas, al aire libre, en la Torre de Pisa\u201d. Somos la primera empresa de la industria que ser\u00e1 capaz de incluir informaci\u00f3n sobre la ubicaci\u00f3n posicional y el tama\u00f1o relativo de los elementos en una foto. En lugar de describir el contenido de una foto como \u201cPuede ser una imagen de 5 personas\u201d, podemos especificar que hay dos personas en el centro de la foto y otras tres hacia los m\u00e1rgenes, lo que implica que las dos en el centro son el foco. O en lugar de simplemente describir un paisaje encantador como \u201cPuede ser una casa y una monta\u00f1a\u201d, podemos resaltar que la monta\u00f1a es el objeto principal en una escena seg\u00fan lo grande que parece en comparaci\u00f3n con la casa en su base. En conjunto, estos avances ayudan a los usuarios con discapacidad visual a comprender mejor el contenido de las fotos publicadas por familiares y amigos \u2014 y sus propias fotos \u2014\u00a0 al proporcionar m\u00e1s informaci\u00f3n, m\u00e1s detallada. D\u00f3nde empezamos El concepto de \u201ctexto alternativo\u201d se remonta a los primeros d\u00edas de Internet, cuando era una alternativa de texto a la descarga de im\u00e1genes para conexiones lentas. Por supuesto, el texto alternativo tambi\u00e9n ayud\u00f3 a las personas con discapacidad visual a navegar por Internet, ya que el software de lectura de pantalla puede usarse para generar descripciones de im\u00e1genes en audio. Desafortunadamente, las r\u00e1pidas velocidades de Internet hicieron que el texto alternativo deje de ser una prioridad para varios usuarios. Y dado que estas descripciones deb\u00edan ser agregadas manualmente por quien cargaba la imagen, muchas fotos dejaron de incluir el texto alternativo, dejando sin el recurso a las personas que utilizaban la herramienta. Hace casi cinco a\u00f1os aprovechamos la experiencia en visi\u00f3n computacional de Facebook para ayudar a resolver este problema. La primera versi\u00f3n de AAT se desarroll\u00f3 utilizando datos etiquetados por humanos, con los que entrenamos una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada. Nuestro modelo completo de AAT pudo reconocer 100 conceptos comunes, como \u201c\u00e1rbol\u201d, \u201cmonta\u00f1a\u201d y \u201cal aire libre\u201d. Y dado que los usuarios de Facebook a menudo comparten fotos de amigos y familiares, nuestras descripciones de AAT utilizaron modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento expl\u00edcito). Para los usuarios con discapacidad visual, este fue un gran paso. Ver m\u00e1s del mundo Pero sab\u00edamos que el AAT pod\u00eda hacer m\u00e1s, y el siguiente paso l\u00f3gico era ampliar el n\u00famero de objetos reconocibles y perfeccionar la forma en que eran descritos. Para lograr esto, nos alejamos del aprendizaje completamente supervisado con datos etiquetados por humanos. Si bien este m\u00e9todo ofrece precisi\u00f3n, el tiempo y esfuerzo involucrados en el etiquetado de datos es extremadamente alto \u2014 y por eso nuestro modelo AAT original s\u00f3lo reconoci\u00f3 100 objetos de manera confiable. Como ese enfoque no era escalable, necesit\u00e1bamos un nuevo camino para seguir. Para la \u00faltima versi\u00f3n de AAT, aprovechamos un modelo entrenado con datos supervisados parcialmente, utilizando miles de millones de im\u00e1genes p\u00fablicas de Instagram y sus hashtags. Para que nuestros modelos funcionen mejor para todos, los ajustamos para que los datos fueran muestreados a partir de im\u00e1genes en todas las geograf\u00edas, y utilizando traducciones de hashtags en muchos idiomas. Tambi\u00e9n evaluamos nuestros conceptos en los ejes de g\u00e9nero, tono de piel y edad. Los modelos resultantes son m\u00e1s precisos e inclusivos a nivel cultural y demogr\u00e1fico \u2014 por ejemplo, pueden identificar casamientos en todo el mundo bas\u00e1ndose (en parte) en atuendos tradicionales en lugar de etiquetar solo fotos con vestidos de novia blancos. Tambi\u00e9n nos brind\u00f3 la capacidad de reutilizar m\u00e1s f\u00e1cilmente los modelos de aprendizaje autom\u00e1tico como punto de partida para la capacitaci\u00f3n en nuevas tareas \u2014 un proceso conocido como aprendizaje por transferencia. Esto nos permiti\u00f3 crear modelos que identifican conceptos como monumentos nacionales, tipos de alimentos (como arroz frito y papas fritas) y selfies. Todo este proceso no hubiera sido posible en el pasado. Para obtener informaci\u00f3n m\u00e1s rica, como posici\u00f3n y recuento en la imagen, tambi\u00e9n entrenamos a un detector de objetos de dos etapas, Faster R-CNN, utilizando Detectron2, una plataforma de c\u00f3digo abierto para la detecci\u00f3n y segmentaci\u00f3n de objetos desarrollada por Facebook AI Research. Entrenamos los modelos para predecir ubicaciones y etiquetas sem\u00e1nticas de los objetos dentro de una imagen. Las t\u00e9cnicas de entrenamiento de m\u00faltiples etiquetas y conjuntos de datos ayudaron a que nuestro modelo fuera m\u00e1s confiable con m\u00e1s espacio para etiquetas. El AAT mejorado reconoce de manera confiable m\u00e1s de 1200 conceptos \u2014 10 veces m\u00e1s que la versi\u00f3n original que lanzamos en 2016. Cuando consultamos con los usuarios de lectores de pantalla sobre AAT y la mejor manera de perfeccionarlo, dejaron en claro que la precisi\u00f3n es primordial. Con ese fin, solo hemos incluido conceptos en los que podr\u00edamos garantizar modelos bien entrenados que cumplieran con un cierto umbral de precisi\u00f3n. Si bien existe un margen de error, raz\u00f3n por la cual comenzamos cada descripci\u00f3n con \u00abPuede ser\u00bb, elevado el umbral de precisi\u00f3n y omitimos intencionalmente conceptos que no pudimos identificar de manera confiable. Queremos brindarles a nuestros usuarios con discapacidad visual y ciegos tanta informaci\u00f3n como sea posible sobre el contenido de una foto, y asegurar que sea informaci\u00f3n correcta. Brindar detalles Habiendo aumentado el n\u00famero de objetos reconocidos con un alto nivel de precisi\u00f3n, centramos nuestra atenci\u00f3n en descubrir c\u00f3mo describir mejor lo que encontramos en una foto. Le preguntamos a los usuarios que dependen de los lectores de pantalla cu\u00e1nta informaci\u00f3n quer\u00edan escuchar y cu\u00e1ndo quer\u00edan escucharla. Quer\u00edan m\u00e1s informaci\u00f3n cuando una imagen es de amigos o familiares, y menos cuando no lo es. Dise\u00f1amos el nuevo AAT para proporcionar una descripci\u00f3n precisa de todas las fotos de forma predeterminada, pero ofrecemos una manera f\u00e1cil de solicitar detalles mejorados sobre las fotos de inter\u00e9s. Cuando los usuarios seleccionan esta \u00faltima opci\u00f3n, se presenta un panel que proporciona una descripci\u00f3n m\u00e1s completa del contenido de una foto, incluido un recuento de los elementos de la foto, algunos de los cuales pueden no haber sido mencionados en la descripci\u00f3n predeterminada. Las descripciones detalladas tambi\u00e9n incluyen informaci\u00f3n posicional simple \u2014 superior\/medio\/inferior o izquierda\/centro\/derecha de una imagen \u2014 y una comparaci\u00f3n de la prominencia relativa de los objetos, descritos como \u201cprimarios\u201d, \u201csecundarios\u201d o \u201cmenores\u201d en la imagen. Estas palabras fueron elegidas espec\u00edficamente para minimizar la ambig\u00fcedad. Feedbacks durante el desarrollo de la herramienta mostraron que usar una palabra como \u201cgrande\u201d para describir un objeto podr\u00eda resultar confuso porque no est\u00e1 claro si la referencia es a su tama\u00f1o real o su tama\u00f1o en relaci\u00f3n con otros objetos en una imagen. \u00a1Incluso un chihuahua se ve grande si se saca una fotograf\u00eda de cerca! El AAT usa una redacci\u00f3n simple para brindar descripciones precisas predeterminadas, en lugar de una oraci\u00f3n larga. No es po\u00e9tico, pero es muy funcional. Nuestros usuarios pueden obtener la descripci\u00f3n r\u00e1pidamente \u2014 y nos permite traducir f\u00e1cil y r\u00e1pidamente nuestras descripciones de texto alternativo a 45 idiomas diferentes, incluso a espa\u00f1ol, lo que garantiza que AAT sea \u00fatil para personas de todo el mundo. Facebook es para todos Todos los d\u00edas, nuestros usuarios comparten miles de millones de fotos. La ubicuidad de c\u00e1maras econ\u00f3micas en los tel\u00e9fonos m\u00f3viles, las conexiones inal\u00e1mbricas r\u00e1pidas y los productos de redes sociales como Instagram y Facebook han facilitado la captura y el intercambio de fotograf\u00edas, una de las formas m\u00e1s populares de comunicarse \u2014 incluso para las personas con discapacidad visual. Si bien deseamos que todos los que hayan subido una foto incluyan una descripci\u00f3n de texto alternativo, reconocemos que esto no suele suceder. Creamos AAT para cerrar esta brecha, y el impacto que ha tenido en quienes lo necesitan es inconmensurable. La inteligencia artificial promete avances extraordinarios, y nos entusiasma la oportunidad de llevar estos avances a las comunidades que los necesitan. &nbsp;","protected":false},"author":155592861,"featured_media":22426,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948038,243948039,243948037,237720135],"tags":[243948115,243947913,243948023],"class_list":["post-22425","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-facebook-app","category-instagram","category-meta","category-noticias-de-productos","tag-accesibilidad","tag-inteligencia-artificial","tag-machine-learning"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Cuando las personas en Facebook navegan por su Feed de noticias, encuentran todo tipo de contenidos \u2014art\u00edculos, comentarios de amigos, invitaciones a eventos y, por supuesto, fotos. La mayor\u00eda de las personas pueden ver instant\u00e1neamente lo que hay en estas im\u00e1genes, ya sea su nuevo nieto, un bote en un r\u00edo o la imagen borrosa de una banda en el escenario. Muchos usuarios ciegos y con discapacidad visual tambi\u00e9n pueden experimentar esas im\u00e1genes, siempre y cuando est\u00e9n etiquetadas correctamente con texto alternativo (o \u201calt text\u201d). Un lector de pantalla puede describir el contenido de estas im\u00e1genes utilizando una voz sint\u00e9tica, y permitir que las personas con discapacidad visual comprendan las im\u00e1genes en su Feed de Facebook.\u00a0 Desafortunadamente, muchas fotos se publican sin texto alternativo, por lo que en 2016 presentamos una nueva tecnolog\u00eda llamada Texto Alternativo Autom\u00e1tico (AAT por sus siglas en ingl\u00e9s). AAT \u2014 que fue reconocido en 2018 con el premio Helen Keller Achievement Award de la American Foundation for the Blind \u2014 utiliza el reconocimiento de objetos para generar descripciones de fotos a pedido para que las personas ciegas o con discapacidad visual puedan disfrutar m\u00e1s plenamente de su Feed de noticias. Desde entonces, lo hemos estado mejorando y estamos contentos de presentar la pr\u00f3xima generaci\u00f3n de AAT. La evoluci\u00f3n de ATT representa m\u00faltiples avances tecnol\u00f3gicos que mejoran la experiencia fotogr\u00e1fica de nuestros usuarios. En primer lugar, ampliamos m\u00e1s de 10 veces la cantidad de objetos que AAT puede detectar e identificar de manera confiable en una foto, lo que a su vez significa menos fotos sin descripci\u00f3n. Adem\u00e1s, las descripciones son m\u00e1s detalladas, con la capacidad de identificar actividades, puntos de referencia, tipos de animales, y mucho m\u00e1s \u2014 como \u201cPuede ser una selfie de 2 personas, al aire libre, en la Torre de Pisa\u201d. Somos la primera empresa de la industria que ser\u00e1 capaz de incluir informaci\u00f3n sobre la ubicaci\u00f3n posicional y el tama\u00f1o relativo de los elementos en una foto. En lugar de describir el contenido de una foto como \u201cPuede ser una imagen de 5 personas\u201d, podemos especificar que hay dos personas en el centro de la foto y otras tres hacia los m\u00e1rgenes, lo que implica que las dos en el centro son el foco. O en lugar de simplemente describir un paisaje encantador como \u201cPuede ser una casa y una monta\u00f1a\u201d, podemos resaltar que la monta\u00f1a es el objeto principal en una escena seg\u00fan lo grande que parece en comparaci\u00f3n con la casa en su base. En conjunto, estos avances ayudan a los usuarios con discapacidad visual a comprender mejor el contenido de las fotos publicadas por familiares y amigos \u2014 y sus propias fotos \u2014\u00a0 al proporcionar m\u00e1s informaci\u00f3n, m\u00e1s detallada. D\u00f3nde empezamos El concepto de \u201ctexto alternativo\u201d se remonta a los primeros d\u00edas de Internet, cuando era una alternativa de texto a la descarga de im\u00e1genes para conexiones lentas. Por supuesto, el texto alternativo tambi\u00e9n ayud\u00f3 a las personas con discapacidad visual a navegar por Internet, ya que el software de lectura de pantalla puede usarse para generar descripciones de im\u00e1genes en audio. Desafortunadamente, las r\u00e1pidas velocidades de Internet hicieron que el texto alternativo deje de ser una prioridad para varios usuarios. Y dado que estas descripciones deb\u00edan ser agregadas manualmente por quien cargaba la imagen, muchas fotos dejaron de incluir el texto alternativo, dejando sin el recurso a las personas que utilizaban la herramienta. Hace casi cinco a\u00f1os aprovechamos la experiencia en visi\u00f3n computacional de Facebook para ayudar a resolver este problema. La primera versi\u00f3n de AAT se desarroll\u00f3 utilizando datos etiquetados por humanos, con los que entrenamos una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada. Nuestro modelo completo de AAT pudo reconocer 100 conceptos comunes, como \u201c\u00e1rbol\u201d, \u201cmonta\u00f1a\u201d y \u201cal aire libre\u201d. Y dado que los usuarios de Facebook a menudo comparten fotos de amigos y familiares, nuestras descripciones de AAT utilizaron modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento expl\u00edcito). Para los usuarios con discapacidad visual, este fue un gran paso. Ver m\u00e1s del mundo Pero sab\u00edamos que el AAT pod\u00eda hacer m\u00e1s, y el siguiente paso l\u00f3gico era ampliar el n\u00famero de objetos reconocibles y perfeccionar la forma en que eran descritos. Para lograr esto, nos alejamos del aprendizaje completamente supervisado con datos etiquetados por humanos. Si bien este m\u00e9todo ofrece precisi\u00f3n, el tiempo y esfuerzo involucrados en el etiquetado de datos es extremadamente alto \u2014 y por eso nuestro modelo AAT original s\u00f3lo reconoci\u00f3 100 objetos de manera confiable. Como ese enfoque no era escalable, necesit\u00e1bamos un nuevo camino para seguir. Para la \u00faltima versi\u00f3n de AAT, aprovechamos un modelo entrenado con datos supervisados parcialmente, utilizando miles de millones de im\u00e1genes p\u00fablicas de Instagram y sus hashtags. Para que nuestros modelos funcionen mejor para todos, los ajustamos para que los datos fueran muestreados a partir de im\u00e1genes en todas las geograf\u00edas, y utilizando traducciones de hashtags en muchos idiomas. Tambi\u00e9n evaluamos nuestros conceptos en los ejes de g\u00e9nero, tono de piel y edad. Los modelos resultantes son m\u00e1s precisos e inclusivos a nivel cultural y demogr\u00e1fico \u2014 por ejemplo, pueden identificar casamientos en todo el mundo bas\u00e1ndose (en parte) en atuendos tradicionales en lugar de etiquetar solo fotos con vestidos de novia blancos. Tambi\u00e9n nos brind\u00f3 la capacidad de reutilizar m\u00e1s f\u00e1cilmente los modelos de aprendizaje autom\u00e1tico como punto de partida para la capacitaci\u00f3n en nuevas tareas \u2014 un proceso conocido como aprendizaje por transferencia. Esto nos permiti\u00f3 crear modelos que identifican conceptos como monumentos nacionales, tipos de alimentos (como arroz frito y papas fritas) y selfies. Todo este proceso no hubiera sido posible en el pasado. Para obtener informaci\u00f3n m\u00e1s rica, como posici\u00f3n y recuento en la imagen, tambi\u00e9n entrenamos a un detector de objetos de dos etapas, Faster R-CNN, utilizando Detectron2, una plataforma de c\u00f3digo abierto para la detecci\u00f3n y segmentaci\u00f3n de objetos desarrollada por Facebook AI Research. Entrenamos los modelos para predecir ubicaciones y etiquetas sem\u00e1nticas de los objetos dentro de una imagen. Las t\u00e9cnicas de entrenamiento de m\u00faltiples etiquetas y conjuntos de datos ayudaron a que nuestro modelo fuera m\u00e1s confiable con m\u00e1s espacio para etiquetas. El AAT mejorado reconoce de manera confiable m\u00e1s de 1200 conceptos \u2014 10 veces m\u00e1s que la versi\u00f3n original que lanzamos en 2016. Cuando consultamos con los usuarios de lectores de pantalla sobre AAT y la mejor manera de perfeccionarlo, dejaron en claro que la precisi\u00f3n es primordial. Con ese fin, solo hemos incluido conceptos en los que podr\u00edamos garantizar modelos bien entrenados que cumplieran con un cierto umbral de precisi\u00f3n. Si bien existe un margen de error, raz\u00f3n por la cual comenzamos cada descripci\u00f3n con \u00abPuede ser\u00bb, elevado el umbral de precisi\u00f3n y omitimos intencionalmente conceptos que no pudimos identificar de manera confiable. Queremos brindarles a nuestros usuarios con discapacidad visual y ciegos tanta informaci\u00f3n como sea posible sobre el contenido de una foto, y asegurar que sea informaci\u00f3n correcta. Brindar detalles Habiendo aumentado el n\u00famero de objetos reconocidos con un alto nivel de precisi\u00f3n, centramos nuestra atenci\u00f3n en descubrir c\u00f3mo describir mejor lo que encontramos en una foto. Le preguntamos a los usuarios que dependen de los lectores de pantalla cu\u00e1nta informaci\u00f3n quer\u00edan escuchar y cu\u00e1ndo quer\u00edan escucharla. Quer\u00edan m\u00e1s informaci\u00f3n cuando una imagen es de amigos o familiares, y menos cuando no lo es. Dise\u00f1amos el nuevo AAT para proporcionar una descripci\u00f3n precisa de todas las fotos de forma predeterminada, pero ofrecemos una manera f\u00e1cil de solicitar detalles mejorados sobre las fotos de inter\u00e9s. Cuando los usuarios seleccionan esta \u00faltima opci\u00f3n, se presenta un panel que proporciona una descripci\u00f3n m\u00e1s completa del contenido de una foto, incluido un recuento de los elementos de la foto, algunos de los cuales pueden no haber sido mencionados en la descripci\u00f3n predeterminada. Las descripciones detalladas tambi\u00e9n incluyen informaci\u00f3n posicional simple \u2014 superior\/medio\/inferior o izquierda\/centro\/derecha de una imagen \u2014 y una comparaci\u00f3n de la prominencia relativa de los objetos, descritos como \u201cprimarios\u201d, \u201csecundarios\u201d o \u201cmenores\u201d en la imagen. Estas palabras fueron elegidas espec\u00edficamente para minimizar la ambig\u00fcedad. Feedbacks durante el desarrollo de la herramienta mostraron que usar una palabra como \u201cgrande\u201d para describir un objeto podr\u00eda resultar confuso porque no est\u00e1 claro si la referencia es a su tama\u00f1o real o su tama\u00f1o en relaci\u00f3n con otros objetos en una imagen. \u00a1Incluso un chihuahua se ve grande si se saca una fotograf\u00eda de cerca! El AAT usa una redacci\u00f3n simple para brindar descripciones precisas predeterminadas, en lugar de una oraci\u00f3n larga. No es po\u00e9tico, pero es muy funcional. Nuestros usuarios pueden obtener la descripci\u00f3n r\u00e1pidamente \u2014 y nos permite traducir f\u00e1cil y r\u00e1pidamente nuestras descripciones de texto alternativo a 45 idiomas diferentes, incluso a espa\u00f1ol, lo que garantiza que AAT sea \u00fatil para personas de todo el mundo. Facebook es para todos Todos los d\u00edas, nuestros usuarios comparten miles de millones de fotos. La ubicuidad de c\u00e1maras econ\u00f3micas en los tel\u00e9fonos m\u00f3viles, las conexiones inal\u00e1mbricas r\u00e1pidas y los productos de redes sociales como Instagram y Facebook han facilitado la captura y el intercambio de fotograf\u00edas, una de las formas m\u00e1s populares de comunicarse \u2014 incluso para las personas con discapacidad visual. Si bien deseamos que todos los que hayan subido una foto incluyan una descripci\u00f3n de texto alternativo, reconocemos que esto no suele suceder. Creamos AAT para cerrar esta brecha, y el impacto que ha tenido en quienes lo necesitan es inconmensurable. La inteligencia artificial promete avances extraordinarios, y nos entusiasma la oportunidad de llevar estos avances a las comunidades que los necesitan. &nbsp;\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2021-01-20T14:07:09+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-01-20T14:07:45+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\"},\"author\":\"Facebook company\",\"headline\":\"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual\",\"datePublished\":\"2021-01-20T14:07:09+00:00\",\"dateModified\":\"2021-01-20T14:07:45+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\"},\"wordCount\":1732,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080\",\"keywords\":[\"Accesibilidad\",\"Inteligencia Artificial\",\"Machine Learning\"],\"articleSection\":[\"Facebook\",\"Instagram\",\"Meta\",\"Noticias de Productos\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\",\"name\":\"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080\",\"datePublished\":\"2021-01-20T14:07:09+00:00\",\"dateModified\":\"2021-01-20T14:07:45+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/","og_locale":"es_ES","og_type":"article","og_title":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta","og_description":"Cuando las personas en Facebook navegan por su Feed de noticias, encuentran todo tipo de contenidos \u2014art\u00edculos, comentarios de amigos, invitaciones a eventos y, por supuesto, fotos. La mayor\u00eda de las personas pueden ver instant\u00e1neamente lo que hay en estas im\u00e1genes, ya sea su nuevo nieto, un bote en un r\u00edo o la imagen borrosa de una banda en el escenario. Muchos usuarios ciegos y con discapacidad visual tambi\u00e9n pueden experimentar esas im\u00e1genes, siempre y cuando est\u00e9n etiquetadas correctamente con texto alternativo (o \u201calt text\u201d). Un lector de pantalla puede describir el contenido de estas im\u00e1genes utilizando una voz sint\u00e9tica, y permitir que las personas con discapacidad visual comprendan las im\u00e1genes en su Feed de Facebook.\u00a0 Desafortunadamente, muchas fotos se publican sin texto alternativo, por lo que en 2016 presentamos una nueva tecnolog\u00eda llamada Texto Alternativo Autom\u00e1tico (AAT por sus siglas en ingl\u00e9s). AAT \u2014 que fue reconocido en 2018 con el premio Helen Keller Achievement Award de la American Foundation for the Blind \u2014 utiliza el reconocimiento de objetos para generar descripciones de fotos a pedido para que las personas ciegas o con discapacidad visual puedan disfrutar m\u00e1s plenamente de su Feed de noticias. Desde entonces, lo hemos estado mejorando y estamos contentos de presentar la pr\u00f3xima generaci\u00f3n de AAT. La evoluci\u00f3n de ATT representa m\u00faltiples avances tecnol\u00f3gicos que mejoran la experiencia fotogr\u00e1fica de nuestros usuarios. En primer lugar, ampliamos m\u00e1s de 10 veces la cantidad de objetos que AAT puede detectar e identificar de manera confiable en una foto, lo que a su vez significa menos fotos sin descripci\u00f3n. Adem\u00e1s, las descripciones son m\u00e1s detalladas, con la capacidad de identificar actividades, puntos de referencia, tipos de animales, y mucho m\u00e1s \u2014 como \u201cPuede ser una selfie de 2 personas, al aire libre, en la Torre de Pisa\u201d. Somos la primera empresa de la industria que ser\u00e1 capaz de incluir informaci\u00f3n sobre la ubicaci\u00f3n posicional y el tama\u00f1o relativo de los elementos en una foto. En lugar de describir el contenido de una foto como \u201cPuede ser una imagen de 5 personas\u201d, podemos especificar que hay dos personas en el centro de la foto y otras tres hacia los m\u00e1rgenes, lo que implica que las dos en el centro son el foco. O en lugar de simplemente describir un paisaje encantador como \u201cPuede ser una casa y una monta\u00f1a\u201d, podemos resaltar que la monta\u00f1a es el objeto principal en una escena seg\u00fan lo grande que parece en comparaci\u00f3n con la casa en su base. En conjunto, estos avances ayudan a los usuarios con discapacidad visual a comprender mejor el contenido de las fotos publicadas por familiares y amigos \u2014 y sus propias fotos \u2014\u00a0 al proporcionar m\u00e1s informaci\u00f3n, m\u00e1s detallada. D\u00f3nde empezamos El concepto de \u201ctexto alternativo\u201d se remonta a los primeros d\u00edas de Internet, cuando era una alternativa de texto a la descarga de im\u00e1genes para conexiones lentas. Por supuesto, el texto alternativo tambi\u00e9n ayud\u00f3 a las personas con discapacidad visual a navegar por Internet, ya que el software de lectura de pantalla puede usarse para generar descripciones de im\u00e1genes en audio. Desafortunadamente, las r\u00e1pidas velocidades de Internet hicieron que el texto alternativo deje de ser una prioridad para varios usuarios. Y dado que estas descripciones deb\u00edan ser agregadas manualmente por quien cargaba la imagen, muchas fotos dejaron de incluir el texto alternativo, dejando sin el recurso a las personas que utilizaban la herramienta. Hace casi cinco a\u00f1os aprovechamos la experiencia en visi\u00f3n computacional de Facebook para ayudar a resolver este problema. La primera versi\u00f3n de AAT se desarroll\u00f3 utilizando datos etiquetados por humanos, con los que entrenamos una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada. Nuestro modelo completo de AAT pudo reconocer 100 conceptos comunes, como \u201c\u00e1rbol\u201d, \u201cmonta\u00f1a\u201d y \u201cal aire libre\u201d. Y dado que los usuarios de Facebook a menudo comparten fotos de amigos y familiares, nuestras descripciones de AAT utilizaron modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento expl\u00edcito). Para los usuarios con discapacidad visual, este fue un gran paso. Ver m\u00e1s del mundo Pero sab\u00edamos que el AAT pod\u00eda hacer m\u00e1s, y el siguiente paso l\u00f3gico era ampliar el n\u00famero de objetos reconocibles y perfeccionar la forma en que eran descritos. Para lograr esto, nos alejamos del aprendizaje completamente supervisado con datos etiquetados por humanos. Si bien este m\u00e9todo ofrece precisi\u00f3n, el tiempo y esfuerzo involucrados en el etiquetado de datos es extremadamente alto \u2014 y por eso nuestro modelo AAT original s\u00f3lo reconoci\u00f3 100 objetos de manera confiable. Como ese enfoque no era escalable, necesit\u00e1bamos un nuevo camino para seguir. Para la \u00faltima versi\u00f3n de AAT, aprovechamos un modelo entrenado con datos supervisados parcialmente, utilizando miles de millones de im\u00e1genes p\u00fablicas de Instagram y sus hashtags. Para que nuestros modelos funcionen mejor para todos, los ajustamos para que los datos fueran muestreados a partir de im\u00e1genes en todas las geograf\u00edas, y utilizando traducciones de hashtags en muchos idiomas. Tambi\u00e9n evaluamos nuestros conceptos en los ejes de g\u00e9nero, tono de piel y edad. Los modelos resultantes son m\u00e1s precisos e inclusivos a nivel cultural y demogr\u00e1fico \u2014 por ejemplo, pueden identificar casamientos en todo el mundo bas\u00e1ndose (en parte) en atuendos tradicionales en lugar de etiquetar solo fotos con vestidos de novia blancos. Tambi\u00e9n nos brind\u00f3 la capacidad de reutilizar m\u00e1s f\u00e1cilmente los modelos de aprendizaje autom\u00e1tico como punto de partida para la capacitaci\u00f3n en nuevas tareas \u2014 un proceso conocido como aprendizaje por transferencia. Esto nos permiti\u00f3 crear modelos que identifican conceptos como monumentos nacionales, tipos de alimentos (como arroz frito y papas fritas) y selfies. Todo este proceso no hubiera sido posible en el pasado. Para obtener informaci\u00f3n m\u00e1s rica, como posici\u00f3n y recuento en la imagen, tambi\u00e9n entrenamos a un detector de objetos de dos etapas, Faster R-CNN, utilizando Detectron2, una plataforma de c\u00f3digo abierto para la detecci\u00f3n y segmentaci\u00f3n de objetos desarrollada por Facebook AI Research. Entrenamos los modelos para predecir ubicaciones y etiquetas sem\u00e1nticas de los objetos dentro de una imagen. Las t\u00e9cnicas de entrenamiento de m\u00faltiples etiquetas y conjuntos de datos ayudaron a que nuestro modelo fuera m\u00e1s confiable con m\u00e1s espacio para etiquetas. El AAT mejorado reconoce de manera confiable m\u00e1s de 1200 conceptos \u2014 10 veces m\u00e1s que la versi\u00f3n original que lanzamos en 2016. Cuando consultamos con los usuarios de lectores de pantalla sobre AAT y la mejor manera de perfeccionarlo, dejaron en claro que la precisi\u00f3n es primordial. Con ese fin, solo hemos incluido conceptos en los que podr\u00edamos garantizar modelos bien entrenados que cumplieran con un cierto umbral de precisi\u00f3n. Si bien existe un margen de error, raz\u00f3n por la cual comenzamos cada descripci\u00f3n con \u00abPuede ser\u00bb, elevado el umbral de precisi\u00f3n y omitimos intencionalmente conceptos que no pudimos identificar de manera confiable. Queremos brindarles a nuestros usuarios con discapacidad visual y ciegos tanta informaci\u00f3n como sea posible sobre el contenido de una foto, y asegurar que sea informaci\u00f3n correcta. Brindar detalles Habiendo aumentado el n\u00famero de objetos reconocidos con un alto nivel de precisi\u00f3n, centramos nuestra atenci\u00f3n en descubrir c\u00f3mo describir mejor lo que encontramos en una foto. Le preguntamos a los usuarios que dependen de los lectores de pantalla cu\u00e1nta informaci\u00f3n quer\u00edan escuchar y cu\u00e1ndo quer\u00edan escucharla. Quer\u00edan m\u00e1s informaci\u00f3n cuando una imagen es de amigos o familiares, y menos cuando no lo es. Dise\u00f1amos el nuevo AAT para proporcionar una descripci\u00f3n precisa de todas las fotos de forma predeterminada, pero ofrecemos una manera f\u00e1cil de solicitar detalles mejorados sobre las fotos de inter\u00e9s. Cuando los usuarios seleccionan esta \u00faltima opci\u00f3n, se presenta un panel que proporciona una descripci\u00f3n m\u00e1s completa del contenido de una foto, incluido un recuento de los elementos de la foto, algunos de los cuales pueden no haber sido mencionados en la descripci\u00f3n predeterminada. Las descripciones detalladas tambi\u00e9n incluyen informaci\u00f3n posicional simple \u2014 superior\/medio\/inferior o izquierda\/centro\/derecha de una imagen \u2014 y una comparaci\u00f3n de la prominencia relativa de los objetos, descritos como \u201cprimarios\u201d, \u201csecundarios\u201d o \u201cmenores\u201d en la imagen. Estas palabras fueron elegidas espec\u00edficamente para minimizar la ambig\u00fcedad. Feedbacks durante el desarrollo de la herramienta mostraron que usar una palabra como \u201cgrande\u201d para describir un objeto podr\u00eda resultar confuso porque no est\u00e1 claro si la referencia es a su tama\u00f1o real o su tama\u00f1o en relaci\u00f3n con otros objetos en una imagen. \u00a1Incluso un chihuahua se ve grande si se saca una fotograf\u00eda de cerca! El AAT usa una redacci\u00f3n simple para brindar descripciones precisas predeterminadas, en lugar de una oraci\u00f3n larga. No es po\u00e9tico, pero es muy funcional. Nuestros usuarios pueden obtener la descripci\u00f3n r\u00e1pidamente \u2014 y nos permite traducir f\u00e1cil y r\u00e1pidamente nuestras descripciones de texto alternativo a 45 idiomas diferentes, incluso a espa\u00f1ol, lo que garantiza que AAT sea \u00fatil para personas de todo el mundo. Facebook es para todos Todos los d\u00edas, nuestros usuarios comparten miles de millones de fotos. La ubicuidad de c\u00e1maras econ\u00f3micas en los tel\u00e9fonos m\u00f3viles, las conexiones inal\u00e1mbricas r\u00e1pidas y los productos de redes sociales como Instagram y Facebook han facilitado la captura y el intercambio de fotograf\u00edas, una de las formas m\u00e1s populares de comunicarse \u2014 incluso para las personas con discapacidad visual. Si bien deseamos que todos los que hayan subido una foto incluyan una descripci\u00f3n de texto alternativo, reconocemos que esto no suele suceder. Creamos AAT para cerrar esta brecha, y el impacto que ha tenido en quienes lo necesitan es inconmensurable. La inteligencia artificial promete avances extraordinarios, y nos entusiasma la oportunidad de llevar estos avances a las comunidades que los necesitan. &nbsp;","og_url":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/","og_site_name":"Acerca de Meta","article_published_time":"2021-01-20T14:07:09+00:00","article_modified_time":"2021-01-20T14:07:45+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"9 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/"},"author":"Facebook company","headline":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual","datePublished":"2021-01-20T14:07:09+00:00","dateModified":"2021-01-20T14:07:45+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/"},"wordCount":1732,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080","keywords":["Accesibilidad","Inteligencia Artificial","Machine Learning"],"articleSection":["Facebook","Instagram","Meta","Noticias de Productos"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/","url":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/","name":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080","datePublished":"2021-01-20T14:07:09+00:00","dateModified":"2021-01-20T14:07:45+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/01\/como-facebook-utiliza-la-inteligencia-artificial-para-mejorar-las-descripciones-de-las-fotos-para-las-personas-ciegas-y-con-discapacidad-visual\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Inteligencia artificial para mejorar las descripciones de las fotos para las personas ciegas y con discapacidad visual"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/01\/NRP-CROSS_POST_Using_Ai_to_Improve_Photo_Descriptions_for_the_Blind_banner-2.jpg?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22425","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=22425"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22425\/revisions"}],"predecessor-version":[{"id":22430,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22425\/revisions\/22430"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/22426"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=22425"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=22425"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=22425"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}