{"id":25687,"date":"2025-02-07T09:18:42","date_gmt":"2025-02-07T15:18:42","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25687"},"modified":"2025-02-07T10:25:32","modified_gmt":"2025-02-07T16:25:32","slug":"avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/","title":{"rendered":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano"},"content":{"rendered":"<p><span style=\"font-weight: 400\">El equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental de Meta (FAIR) se centra en lograr <\/span><i><span style=\"font-weight: 400\">machine intelligence <\/span><\/i><span style=\"font-weight: 400\">de avanzada (AMI) y utilizarla para impulsar productos e innovaci\u00f3n en beneficio de todos. Hoy, estamos encantados de compartir algunas de nuestras investigaciones y modelos m\u00e1s recientes que apoyan nuestro objetivo de lograr AMI, y nuestro compromiso de larga trayectoria de compartir ciencia abierta y reproducible.<\/span><\/p>\n<p><strong>Meta PARTNR: Desbloqueando la colaboraci\u00f3n entre humanos y robots<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Imagina un mundo en el que los robots sean compa\u00f1eros intuitivos en nuestra vida cotidiana. Limpian, recogen entregas y ayudan a cocinar, al tiempo que comprenden nuestras necesidades y se adaptan al entorno din\u00e1mico de un hogar atareado. Hoy nos complace presentar PARTNR, un marco de investigaci\u00f3n que nos acerca a esta realidad impulsando la investigaci\u00f3n sobre la colaboraci\u00f3n fluida entre humanos y robots. La mayor\u00eda de los robots actuales funcionan de forma aislada, lo que limita su potencial como \u00fatiles agentes de asistencia del futuro. Con PARTNR, pretendemos cambiar el statu quo abriendo un sistema de referencia, un conjunto de datos y un modelo a gran escala para estudiar la colaboraci\u00f3n entre humanos y robots en tareas cotidianas. En esencia, PARTNR ofrece un mecanismo para entrenar robots sociales mediante simulaciones a gran escala, seguidas de su despliegue en el mundo real.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25687-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4?_=1\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">PARTNR se apoya en trabajos anteriores de gran impacto que se han compartido con la comunidad de c\u00f3digo abierto. Se basa en los avances logrados con <\/span><a href=\"https:\/\/ai.meta.com\/blog\/open-sourcing-ai-habitat-a-simulation-platform-for-embodied-ai-research\/\"><span style=\"font-weight: 400\">Habitat 1.0<\/span><\/a><span style=\"font-weight: 400\"> que entren\u00f3 a robots virtuales para navegar por escaneados 3D de casas reales, y <\/span><a href=\"https:\/\/ai.meta.com\/blog\/habitat-20-training-home-assistant-robots-with-faster-simulation-and-new-benchmarks\/\"><span style=\"font-weight: 400\">Habitat 2.0<\/span><\/a><span style=\"font-weight: 400\">\u00a0 que entren\u00f3 a robots virtuales para limpiar casas reordenando objetos. Con <\/span><a href=\"https:\/\/ai.meta.com\/blog\/habitat-3-socially-intelligent-robots-siro\/\"><span style=\"font-weight: 400\">Habitat 3.0<\/span><\/a><span style=\"font-weight: 400\">, un simulador dise\u00f1ado para entrenar modelos de colaboraci\u00f3n entre humanos y robots, hemos dado otro salto adelante. Habitat 3.0 permiti\u00f3 entrenar modelos de colaboraci\u00f3n humano-robot a gran escala, lo que no es factible en el mundo real por cuestiones de seguridad y escalabilidad.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n presentamos la prueba de referencia PARTNR, cuyo objetivo es evaluar los robots colaborativos y garantizar su rendimiento tanto en entornos simulados como en el mundo real. Nuestra prueba consta de 100.000 tareas, incluidas tareas dom\u00e9sticas como la limpieza de platos y juguetes. Tambi\u00e9n publicamos el conjunto de datos PARTNR, que consiste en demostraciones humanas de las tareas de PARTNR en simulaci\u00f3n, y que puede utilizarse para entrenar modelos de IA incorporados. La prueba de referencia PARTNR pone en evidencia las principales deficiencias de los modelos actuales, como la escasa coordinaci\u00f3n y los fallos en el seguimiento de las tareas y la recuperaci\u00f3n tras los errores. Animamos a la comunidad acad\u00e9mica a seguir avanzando a partir de nuestro trabajo e impulsar el progreso en el campo de la colaboraci\u00f3n entre humanos y robots.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n hemos avanzado en modelos que pueden colaborar con humanos tanto en entornos de simulaci\u00f3n como en el mundo real. Utilizando datos de simulaci\u00f3n a gran escala, hemos entrenado un modelo de planificaci\u00f3n a gran escala que supera a los modelos de referencia m\u00e1s avanzados tanto en velocidad como en rendimiento. Este modelo multiplica por 8,6 su velocidad y permite a los humanos completar tareas con un 24% m\u00e1s de eficacia que los modelos de alto rendimiento existentes. Es capaz de interpretar instrucciones de largo alcance, descomponer tareas complejas en pasos procesables y proporcionar una asistencia significativa a los usuarios humanos. Hemos desplegado con \u00e9xito este modelo en el Spot de Boston Dynamics, demostrando su capacidad para trabajar junto a los humanos en entornos reales. Para aumentar la transparencia y la confianza, tambi\u00e9n hemos desarrollado una interfaz de realidad mixta que visualiza las acciones y los procesos de pensamiento del robot, ofreciendo una ventana a su toma de decisiones.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">El potencial de innovaci\u00f3n y desarrollo en el campo de la colaboraci\u00f3n entre humanos y robots es enorme. Con PARTNR, queremos reimaginar los robots como futuros socios, y no solo como agentes, e impulsar la investigaci\u00f3n en este apasionante campo.\u00a0\u00a0\u00a0<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/partnr-planner\" target=\"_blank\" rel=\"noopener\">Descarga el c\u00f3digo<\/a><\/p>\n<p><a href=\"https:\/\/huggingface.co\/datasets\/ai-habitat\/partnr_episodes\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Descarga el conjunto de datos<\/span><\/a><\/p>\n<p><a href=\"https:\/\/ai.meta.com\/research\/publications\/partnr-a-benchmark-for-planning-and-reasoning-in-embodied-multi-agent-tasks\/\" target=\"_blank\" rel=\"noopener\">Lee el Paper<\/a><\/p>\n<p><strong>Democratizando la tecnolog\u00eda de lenguaje para el Decenio Internacional de las Lenguas Ind\u00edgenas<\/strong><\/p>\n<p><span style=\"font-weight: 400\">El lenguaje es una parte fundamental de lo que somos y, sin embargo, muchas personas en todo el mundo est\u00e1n excluidas de la conversaci\u00f3n digital porque su lenguaje no est\u00e1 soportado por la tecnolog\u00eda. Para ayudar a reducir esta brecha, invitamos a la comunidad ling\u00fc\u00edstica a asociarse con nosotros para colaborar en la mejora y ampliaci\u00f3n de la cobertura de las tecnolog\u00edas de lenguaje de c\u00f3digo abierto de Meta, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25687-2\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4?_=2\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-PARTNR.mp4<\/a><\/video><\/div>\n<p><b>Programa de socios de tecnolog\u00edas de lenguaje<\/b><\/p>\n<p><span style=\"font-weight: 400\">Buscamos socios que colaboren con nosotros en el avance de las tecnolog\u00edas de lenguaje, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Nuestros esfuerzos se centran especialmente en las lenguas insuficientemente atendidas, en apoyo de la labor de la UNESCO y como parte de la contribuci\u00f3n del sector privado a la capacitaci\u00f3n digital en el marco del Decenio Internacional de las Lenguas Ind\u00edgenas. Buscamos socios que puedan contribuir con m\u00e1s de 10 horas de grabaciones de voz con transcripciones, grandes corpus de texto escrito (m\u00e1s de 200 frases) y conjuntos de frases traducidas en diversos lenguajes. Los socios trabajar\u00e1n con nuestros equipos para ayudar a integrar estos lenguajes en modelos de reconocimiento del habla y traducci\u00f3n autom\u00e1tica basados en IA, que pretendemos convertir en c\u00f3digo abierto y poner a disposici\u00f3n de la comunidad. Como socio, tambi\u00e9n tendr\u00e1 acceso a talleres dirigidos por nuestros equipos de investigaci\u00f3n, en los que aprender\u00e1 a aprovechar nuestros modelos de c\u00f3digo abierto para crear tecnolog\u00edas de lenguaje. Nos complace que el Gobierno de Nunavut (Canad\u00e1) haya aceptado colaborar con nosotros en esta interesante iniciativa.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para unirse a nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, <a href=\"https:\/\/docs.google.com\/forms\/d\/e\/1FAIpQLSdzcRdtkQCuTrXw727DgJgWbOPKDj5v0bArgGfQUTT6sEopFw\/viewform\" target=\"_blank\" rel=\"noopener\">ingresa aqu\u00ed<\/a><\/span><\/p>\n<p><b>Referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto<\/b><\/p>\n<p><span style=\"font-weight: 400\">Adem\u00e1s de nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, estamos lanzando una referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto de frases cuidadosamente elaboradas por expertos ling\u00fc\u00edsticos para mostrar la diversidad del lenguaje humano. Le invitamos a acceder a esta referencia en siete idiomas y a contribuir con traducciones que ser\u00e1n de c\u00f3digo abierto para otros. Nuestro objetivo es construir colectivamente una referencia de traducci\u00f3n autom\u00e1tica multiling\u00fce sin precedentes para la comunidad.\u00a0\u00a0<\/span><\/p>\n<p><a href=\"https:\/\/huggingface.co\/spaces\/facebook\/bouquet\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">M\u00e1s informaci\u00f3n<\/span><span style=\"font-weight: 400\"> aqu\u00ed<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400\">Nuestro compromiso de apoyar m\u00e1s lenguajes y desarrollar tecnolog\u00edas de c\u00f3digo abierto para ellas es constante. En 2022, lanzamos <\/span><a href=\"https:\/\/ai.meta.com\/blog\/nllb-200-high-quality-machine-translation\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">No Language Left Behind<\/span><\/a><span style=\"font-weight: 400\"> (NLLB), un innovador motor de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto que sent\u00f3 las bases para futuras investigaciones y desarrollos en este campo. Al ser el primer modelo neuronal de traducci\u00f3n autom\u00e1tica para muchos idiomas, NLLB allan\u00f3 el camino para futuras innovaciones. Desde su lanzamiento, la comunidad de c\u00f3digo abierto se ha basado en este trabajo, ampliando sus capacidades para soportar docenas de lenguajes adicionales. Tambi\u00e9n nos complace que la UNESCO y Hugging Face hayan colaborado con nosotros para construir un <\/span><a href=\"https:\/\/huggingface.co\/spaces\/UNESCO\/nllb\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">traductor de lenguajes basado en NLLB<\/span><\/a><span style=\"font-weight: 400\">, que <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/09\/meta-at-unga-2024\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">anunciamos<\/span><\/a><span style=\"font-weight: 400\"> durante la semana de la Asamblea General de las Naciones Unidas el pasado mes de septiembre. Mientras seguimos desarrollando esta tecnolog\u00eda, nos entusiasma colaborar con las comunidades ling\u00fc\u00edsticas para mejorar y ampliar la traducci\u00f3n autom\u00e1tica y otras tecnolog\u00edas del lenguaje.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para apoyar la capacitaci\u00f3n digital, que es un \u00e1rea tem\u00e1tica clave del Plan de Acci\u00f3n Mundial del Decenio Internacional de las Lenguas Ind\u00edgenas, hemos introducido recientemente el proyecto de <\/span><a href=\"https:\/\/huggingface.co\/spaces\/mms-meta\/MMS\"><span style=\"font-weight: 400\">Habla Multiling\u00fce Masiva<\/span><\/a><span style=\"font-weight: 400\"> (MMS), que ampl\u00eda la transcripci\u00f3n de audio a m\u00e1s de 1.100 idiomas. Hemos seguido mejorando y ampliando sus capacidades, incluida la incorporaci\u00f3n del reconocimiento de voz sin disparo, que permite al modelo transcribir audio en idiomas que nunca ha visto antes sin formaci\u00f3n previa. Estas tecnolog\u00edas tienen importantes implicaciones para el apoyo del lenguaje y la accesibilidad, sobre todo para las comunidades m\u00e1s desfavorecidas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Al promover la aplicaci\u00f3n del Decenio Internacional de las Lenguas Ind\u00edgenas, pretendemos hacer frente a los retos que plantea la proliferaci\u00f3n de modelos de lenguaje en ingl\u00e9s y trabajar por la igualdad de representaci\u00f3n de todas las lenguas, contribuyendo as\u00ed a la consecuci\u00f3n de los Objetivos de Desarrollo Sostenible de las Naciones Unidas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Adem\u00e1s de su impacto potencial en el apoyo del lenguaje y la accesibilidad, nuestro trabajo tambi\u00e9n tiene implicaciones m\u00e1s amplias para el desarrollo de AMI. Al trabajar con problemas multiling\u00fces y lenguas insuficientemente atendidas, el modelo demuestra la capacidad de aprender a partir de datos m\u00ednimos. Estos avances suponen un paso crucial hacia la creaci\u00f3n de sistemas inteligentes capaces de adaptarse a nuevas situaciones y aprender de la experiencia.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En \u00faltima instancia, nuestro objetivo es crear sistemas inteligentes capaces de comprender y responder a necesidades humanas complejas, independientemente de la lengua o el entorno cultural, y construir una tecnolog\u00eda que incluya las lenguas y culturas de nuestro mundo.<\/span><\/p>\n<p><strong>Est\u00e9tica de Meta Audiobox: Un nuevo est\u00e1ndar para el procesamiento de audio<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Tradicionalmente, medir la est\u00e9tica del audio ha sido una tarea compleja debido a su naturaleza subjetiva. A diferencia de m\u00e9tricas objetivas como la respuesta en frecuencia o la relaci\u00f3n se\u00f1al\/ruido, la est\u00e9tica del audio requiere una comprensi\u00f3n matizada de la percepci\u00f3n humana. Hoy nos complace presentar Est\u00e9tica de Meta Audiobox, un modelo que permite la evaluaci\u00f3n autom\u00e1tica de la est\u00e9tica del audio y proporciona una valoraci\u00f3n exhaustiva de la calidad del audio en el habla, la m\u00fasica y el sonido. El modelo realiza predicciones que analizan el disfrute, la utilidad, la complejidad y la calidad de la producci\u00f3n. Afrontar los desaf\u00edos que plantea la evaluaci\u00f3n subjetiva del audio conduce a mejorar la calidad de los contenidos de audio y a desarrollar modelos generativos de audio m\u00e1s avanzados.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25690\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=960&#038;resize=960%2C925\" alt=\"\" width=\"960\" height=\"925\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=415 415w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=1121 1121w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Meta-Audiobox-Aesthetics.jpg?w=623 623w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Los m\u00e9todos de evaluaci\u00f3n existentes suelen ofrecer resultados espec\u00edficos de submodalidades con instrucciones vagas y dif\u00edciles de interpretar. Audiobox Aesthetics supera estas limitaciones ofreciendo un enfoque estructurado de la evaluaci\u00f3n del audio.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para desarrollar Audiobox Aesthetics, dise\u00f1amos un exhaustivo protocolo de anotaci\u00f3n que permiti\u00f3 recopilar 562 horas de datos est\u00e9ticos de audio. Nuestro conjunto de datos fue anotado por evaluadores profesionales para garantizar la calidad de los datos. El proceso de anotaci\u00f3n consisti\u00f3 en evaluar muestras de audio en una escala del uno al diez en cuatro par\u00e1metros definidos: calidad de la producci\u00f3n, complejidad de la producci\u00f3n, disfrute del contenido y utilidad del contenido. Este proceso permiti\u00f3 crear una puntuaci\u00f3n est\u00e9tica unificada y calibrada para las distintas modalidades de audio, lo que garantiz\u00f3 la coherencia y fiabilidad de las predicciones del modelo.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-25691\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=960&#038;resize=960%2C769\" alt=\"\" width=\"960\" height=\"769\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=1732 1732w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=499 499w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=1348 1348w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/forecasts.png?w=749 749w\" sizes=\"auto, (max-width: 960px) 100vw, 960px\" \/><\/p>\n<p>Leyenda: \u25b2 Cuanto m\u00e1s alto, mejor. En las cuatro dimensiones de evaluaci\u00f3n de la calidad, Audiobox Aesthetics muestra una mejor correlaci\u00f3n con el juicio humano que sus competidores en voz, sonido y m\u00fasica.<\/p>\n<p><span style=\"font-weight: 400\">Extensos experimentos demostraron que Audiobox Aesthetics superaba a trabajos anteriores con mayor correlaci\u00f3n con el juicio humano, demostrando su eficacia como m\u00e9trica autom\u00e1tica para la evaluaci\u00f3n de la calidad. El modelo, que se publica con una licencia CC-BY 4.0, tambi\u00e9n mejora la calidad de varios modelos de generaci\u00f3n de audio mediante el filtrado de datos y el fomento de la calidad, logrando mejoras significativas en aplicaciones de texto a voz, texto a m\u00fasica y texto a sonido.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Audiobox Aesthetics ya se ha aprovechado para mejorar <\/span><a href=\"https:\/\/ai.meta.com\/blog\/movie-gen-media-foundation-models-generative-ai-video\/\"><span style=\"font-weight: 400\">Meta Movie Gen<\/span><\/a><span style=\"font-weight: 400\">, ayudando a facilitar contenidos multimedia de alta calidad, impulsando a\u00fan m\u00e1s el progreso y la innovaci\u00f3n en la industria. Esperamos que este trabajo sirva para mejorar la calidad de los contenidos de audio y apoyar el desarrollo de modelos generativos de audio m\u00e1s sofisticados.<\/span><\/p>\n<p><a href=\"https:\/\/github.com\/facebookresearch\/audiobox-aesthetics\"><span style=\"font-weight: 400\">Descargar los pesos y el c\u00f3digo del modelo<\/span><\/a><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\"><a href=\"https:\/\/ai.meta.com\/research\/publications\/meta-audiobox-aesthetics-unified-automatic-quality-assessment-for-speech-music-and-sound\/\" target=\"_blank\" rel=\"noopener\">Lee el art\u00edculo<\/a>\u00a0<\/span><\/p>\n<p><strong>Transcripciones de mensajes de voz de WhatsApp: Desbloqueando comunicaci\u00f3n fluida<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Mientras seguimos construyendo el futuro de la conexi\u00f3n humana y la tecnolog\u00eda que la hace posible, <\/span><a href=\"https:\/\/blog.whatsapp.com\/introducing-voice-message-transcripts\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">lanzamos<\/span><\/a><span style=\"font-weight: 400\"> una actualizaci\u00f3n en WhatsApp para que la comunicaci\u00f3n sea a\u00fan m\u00e1s fluida. Las transcripciones de mensajes de voz utilizan tecnolog\u00eda avanzada en el dispositivo para generar transcripciones de mensajes de audio de forma local y segura, garantizando que los mensajes de voz personales est\u00e9n cifrados de extremo a extremo. Actualmente, esta funci\u00f3n est\u00e1 disponible en ingl\u00e9s, espa\u00f1ol, portugu\u00e9s y ruso, lo que ampl\u00eda su alcance a diversas comunidades.<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-25687-3\" width=\"960\" height=\"960\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/WhatsApp-Voice-Transcript.mp4?_=3\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/WhatsApp-Voice-Transcript.mp4\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/WhatsApp-Voice-Transcript.mp4<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">El desarrollo de las transcripciones de mensajes de voz ha sido posible gracias a los resultados de la investigaci\u00f3n Meta FAIR <\/span><a href=\"https:\/\/ai.meta.com\/research\/seamless-communication\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Seamless Communication<\/span><\/a><span style=\"font-weight: 400\">. WhatsApp puede seguir innovando y mejorando sus servicios utilizando esta investigaci\u00f3n, lo que en \u00faltima instancia impulsar\u00e1 el progreso hacia el objetivo de lograr AMI con capacidades multiling\u00fces. Hemos explorado, desarrollado y compartido ampliamente las mejores pr\u00e1cticas para el ajuste de modelos con la comunidad investigadora para las versiones p\u00fablicas de los modelos Seamless M4T. Estas t\u00e9cnicas se aplicaron y mejoraron a\u00fan m\u00e1s, junto con la destilaci\u00f3n, para ajustarlas al g\u00e9nero de los mensajes de voz de WhatsApp.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Este avance mejora la experiencia de las personas al tiempo que protege la mensajer\u00eda privada, y sienta las bases para futuras innovaciones en la comunicaci\u00f3n multiling\u00fce.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"El equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental de Meta (FAIR) se centra en lograr machine intelligence de avanzada (AMI) y utilizarla para impulsar productos e innovaci\u00f3n en beneficio de todos. Hoy, estamos encantados de compartir algunas de nuestras investigaciones y modelos m\u00e1s recientes que apoyan nuestro objetivo de lograr AMI, y nuestro compromiso de larga trayectoria de compartir ciencia abierta y reproducible. Meta PARTNR: Desbloqueando la colaboraci\u00f3n entre humanos y robots Imagina un mundo en el que los robots sean compa\u00f1eros intuitivos en nuestra vida cotidiana. Limpian, recogen entregas y ayudan a cocinar, al tiempo que comprenden nuestras necesidades y se adaptan al entorno din\u00e1mico de un hogar atareado. Hoy nos complace presentar PARTNR, un marco de investigaci\u00f3n que nos acerca a esta realidad impulsando la investigaci\u00f3n sobre la colaboraci\u00f3n fluida entre humanos y robots. La mayor\u00eda de los robots actuales funcionan de forma aislada, lo que limita su potencial como \u00fatiles agentes de asistencia del futuro. Con PARTNR, pretendemos cambiar el statu quo abriendo un sistema de referencia, un conjunto de datos y un modelo a gran escala para estudiar la colaboraci\u00f3n entre humanos y robots en tareas cotidianas. En esencia, PARTNR ofrece un mecanismo para entrenar robots sociales mediante simulaciones a gran escala, seguidas de su despliegue en el mundo real. PARTNR se apoya en trabajos anteriores de gran impacto que se han compartido con la comunidad de c\u00f3digo abierto. Se basa en los avances logrados con Habitat 1.0 que entren\u00f3 a robots virtuales para navegar por escaneados 3D de casas reales, y Habitat 2.0\u00a0 que entren\u00f3 a robots virtuales para limpiar casas reordenando objetos. Con Habitat 3.0, un simulador dise\u00f1ado para entrenar modelos de colaboraci\u00f3n entre humanos y robots, hemos dado otro salto adelante. Habitat 3.0 permiti\u00f3 entrenar modelos de colaboraci\u00f3n humano-robot a gran escala, lo que no es factible en el mundo real por cuestiones de seguridad y escalabilidad. Tambi\u00e9n presentamos la prueba de referencia PARTNR, cuyo objetivo es evaluar los robots colaborativos y garantizar su rendimiento tanto en entornos simulados como en el mundo real. Nuestra prueba consta de 100.000 tareas, incluidas tareas dom\u00e9sticas como la limpieza de platos y juguetes. Tambi\u00e9n publicamos el conjunto de datos PARTNR, que consiste en demostraciones humanas de las tareas de PARTNR en simulaci\u00f3n, y que puede utilizarse para entrenar modelos de IA incorporados. La prueba de referencia PARTNR pone en evidencia las principales deficiencias de los modelos actuales, como la escasa coordinaci\u00f3n y los fallos en el seguimiento de las tareas y la recuperaci\u00f3n tras los errores. Animamos a la comunidad acad\u00e9mica a seguir avanzando a partir de nuestro trabajo e impulsar el progreso en el campo de la colaboraci\u00f3n entre humanos y robots. Tambi\u00e9n hemos avanzado en modelos que pueden colaborar con humanos tanto en entornos de simulaci\u00f3n como en el mundo real. Utilizando datos de simulaci\u00f3n a gran escala, hemos entrenado un modelo de planificaci\u00f3n a gran escala que supera a los modelos de referencia m\u00e1s avanzados tanto en velocidad como en rendimiento. Este modelo multiplica por 8,6 su velocidad y permite a los humanos completar tareas con un 24% m\u00e1s de eficacia que los modelos de alto rendimiento existentes. Es capaz de interpretar instrucciones de largo alcance, descomponer tareas complejas en pasos procesables y proporcionar una asistencia significativa a los usuarios humanos. Hemos desplegado con \u00e9xito este modelo en el Spot de Boston Dynamics, demostrando su capacidad para trabajar junto a los humanos en entornos reales. Para aumentar la transparencia y la confianza, tambi\u00e9n hemos desarrollado una interfaz de realidad mixta que visualiza las acciones y los procesos de pensamiento del robot, ofreciendo una ventana a su toma de decisiones.\u00a0 El potencial de innovaci\u00f3n y desarrollo en el campo de la colaboraci\u00f3n entre humanos y robots es enorme. Con PARTNR, queremos reimaginar los robots como futuros socios, y no solo como agentes, e impulsar la investigaci\u00f3n en este apasionante campo.\u00a0\u00a0\u00a0 Descarga el c\u00f3digo Descarga el conjunto de datos Lee el Paper Democratizando la tecnolog\u00eda de lenguaje para el Decenio Internacional de las Lenguas Ind\u00edgenas El lenguaje es una parte fundamental de lo que somos y, sin embargo, muchas personas en todo el mundo est\u00e1n excluidas de la conversaci\u00f3n digital porque su lenguaje no est\u00e1 soportado por la tecnolog\u00eda. Para ayudar a reducir esta brecha, invitamos a la comunidad ling\u00fc\u00edstica a asociarse con nosotros para colaborar en la mejora y ampliaci\u00f3n de la cobertura de las tecnolog\u00edas de lenguaje de c\u00f3digo abierto de Meta, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Programa de socios de tecnolog\u00edas de lenguaje Buscamos socios que colaboren con nosotros en el avance de las tecnolog\u00edas de lenguaje, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Nuestros esfuerzos se centran especialmente en las lenguas insuficientemente atendidas, en apoyo de la labor de la UNESCO y como parte de la contribuci\u00f3n del sector privado a la capacitaci\u00f3n digital en el marco del Decenio Internacional de las Lenguas Ind\u00edgenas. Buscamos socios que puedan contribuir con m\u00e1s de 10 horas de grabaciones de voz con transcripciones, grandes corpus de texto escrito (m\u00e1s de 200 frases) y conjuntos de frases traducidas en diversos lenguajes. Los socios trabajar\u00e1n con nuestros equipos para ayudar a integrar estos lenguajes en modelos de reconocimiento del habla y traducci\u00f3n autom\u00e1tica basados en IA, que pretendemos convertir en c\u00f3digo abierto y poner a disposici\u00f3n de la comunidad. Como socio, tambi\u00e9n tendr\u00e1 acceso a talleres dirigidos por nuestros equipos de investigaci\u00f3n, en los que aprender\u00e1 a aprovechar nuestros modelos de c\u00f3digo abierto para crear tecnolog\u00edas de lenguaje. Nos complace que el Gobierno de Nunavut (Canad\u00e1) haya aceptado colaborar con nosotros en esta interesante iniciativa. Para unirse a nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, ingresa aqu\u00ed Referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto Adem\u00e1s de nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, estamos lanzando una referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto de frases cuidadosamente elaboradas por expertos ling\u00fc\u00edsticos para mostrar la diversidad del lenguaje humano. Le invitamos a acceder a esta referencia en siete idiomas y a contribuir con traducciones que ser\u00e1n de c\u00f3digo abierto para otros. Nuestro objetivo es construir colectivamente una referencia de traducci\u00f3n autom\u00e1tica multiling\u00fce sin precedentes para la comunidad.\u00a0\u00a0 M\u00e1s informaci\u00f3n aqu\u00ed Nuestro compromiso de apoyar m\u00e1s lenguajes y desarrollar tecnolog\u00edas de c\u00f3digo abierto para ellas es constante. En 2022, lanzamos No Language Left Behind (NLLB), un innovador motor de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto que sent\u00f3 las bases para futuras investigaciones y desarrollos en este campo. Al ser el primer modelo neuronal de traducci\u00f3n autom\u00e1tica para muchos idiomas, NLLB allan\u00f3 el camino para futuras innovaciones. Desde su lanzamiento, la comunidad de c\u00f3digo abierto se ha basado en este trabajo, ampliando sus capacidades para soportar docenas de lenguajes adicionales. Tambi\u00e9n nos complace que la UNESCO y Hugging Face hayan colaborado con nosotros para construir un traductor de lenguajes basado en NLLB, que anunciamos durante la semana de la Asamblea General de las Naciones Unidas el pasado mes de septiembre. Mientras seguimos desarrollando esta tecnolog\u00eda, nos entusiasma colaborar con las comunidades ling\u00fc\u00edsticas para mejorar y ampliar la traducci\u00f3n autom\u00e1tica y otras tecnolog\u00edas del lenguaje. Para apoyar la capacitaci\u00f3n digital, que es un \u00e1rea tem\u00e1tica clave del Plan de Acci\u00f3n Mundial del Decenio Internacional de las Lenguas Ind\u00edgenas, hemos introducido recientemente el proyecto de Habla Multiling\u00fce Masiva (MMS), que ampl\u00eda la transcripci\u00f3n de audio a m\u00e1s de 1.100 idiomas. Hemos seguido mejorando y ampliando sus capacidades, incluida la incorporaci\u00f3n del reconocimiento de voz sin disparo, que permite al modelo transcribir audio en idiomas que nunca ha visto antes sin formaci\u00f3n previa. Estas tecnolog\u00edas tienen importantes implicaciones para el apoyo del lenguaje y la accesibilidad, sobre todo para las comunidades m\u00e1s desfavorecidas. Al promover la aplicaci\u00f3n del Decenio Internacional de las Lenguas Ind\u00edgenas, pretendemos hacer frente a los retos que plantea la proliferaci\u00f3n de modelos de lenguaje en ingl\u00e9s y trabajar por la igualdad de representaci\u00f3n de todas las lenguas, contribuyendo as\u00ed a la consecuci\u00f3n de los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Adem\u00e1s de su impacto potencial en el apoyo del lenguaje y la accesibilidad, nuestro trabajo tambi\u00e9n tiene implicaciones m\u00e1s amplias para el desarrollo de AMI. Al trabajar con problemas multiling\u00fces y lenguas insuficientemente atendidas, el modelo demuestra la capacidad de aprender a partir de datos m\u00ednimos. Estos avances suponen un paso crucial hacia la creaci\u00f3n de sistemas inteligentes capaces de adaptarse a nuevas situaciones y aprender de la experiencia. En \u00faltima instancia, nuestro objetivo es crear sistemas inteligentes capaces de comprender y responder a necesidades humanas complejas, independientemente de la lengua o el entorno cultural, y construir una tecnolog\u00eda que incluya las lenguas y culturas de nuestro mundo. Est\u00e9tica de Meta Audiobox: Un nuevo est\u00e1ndar para el procesamiento de audio Tradicionalmente, medir la est\u00e9tica del audio ha sido una tarea compleja debido a su naturaleza subjetiva. A diferencia de m\u00e9tricas objetivas como la respuesta en frecuencia o la relaci\u00f3n se\u00f1al\/ruido, la est\u00e9tica del audio requiere una comprensi\u00f3n matizada de la percepci\u00f3n humana. Hoy nos complace presentar Est\u00e9tica de Meta Audiobox, un modelo que permite la evaluaci\u00f3n autom\u00e1tica de la est\u00e9tica del audio y proporciona una valoraci\u00f3n exhaustiva de la calidad del audio en el habla, la m\u00fasica y el sonido. El modelo realiza predicciones que analizan el disfrute, la utilidad, la complejidad y la calidad de la producci\u00f3n. Afrontar los desaf\u00edos que plantea la evaluaci\u00f3n subjetiva del audio conduce a mejorar la calidad de los contenidos de audio y a desarrollar modelos generativos de audio m\u00e1s avanzados. Los m\u00e9todos de evaluaci\u00f3n existentes suelen ofrecer resultados espec\u00edficos de submodalidades con instrucciones vagas y dif\u00edciles de interpretar. Audiobox Aesthetics supera estas limitaciones ofreciendo un enfoque estructurado de la evaluaci\u00f3n del audio. Para desarrollar Audiobox Aesthetics, dise\u00f1amos un exhaustivo protocolo de anotaci\u00f3n que permiti\u00f3 recopilar 562 horas de datos est\u00e9ticos de audio. Nuestro conjunto de datos fue anotado por evaluadores profesionales para garantizar la calidad de los datos. El proceso de anotaci\u00f3n consisti\u00f3 en evaluar muestras de audio en una escala del uno al diez en cuatro par\u00e1metros definidos: calidad de la producci\u00f3n, complejidad de la producci\u00f3n, disfrute del contenido y utilidad del contenido. Este proceso permiti\u00f3 crear una puntuaci\u00f3n est\u00e9tica unificada y calibrada para las distintas modalidades de audio, lo que garantiz\u00f3 la coherencia y fiabilidad de las predicciones del modelo. Leyenda: \u25b2 Cuanto m\u00e1s alto, mejor. En las cuatro dimensiones de evaluaci\u00f3n de la calidad, Audiobox Aesthetics muestra una mejor correlaci\u00f3n con el juicio humano que sus competidores en voz, sonido y m\u00fasica. Extensos experimentos demostraron que Audiobox Aesthetics superaba a trabajos anteriores con mayor correlaci\u00f3n con el juicio humano, demostrando su eficacia como m\u00e9trica autom\u00e1tica para la evaluaci\u00f3n de la calidad. El modelo, que se publica con una licencia CC-BY 4.0, tambi\u00e9n mejora la calidad de varios modelos de generaci\u00f3n de audio mediante el filtrado de datos y el fomento de la calidad, logrando mejoras significativas en aplicaciones de texto a voz, texto a m\u00fasica y texto a sonido. Audiobox Aesthetics ya se ha aprovechado para mejorar Meta Movie Gen, ayudando a facilitar contenidos multimedia de alta calidad, impulsando a\u00fan m\u00e1s el progreso y la innovaci\u00f3n en la industria. Esperamos que este trabajo sirva para mejorar la calidad de los contenidos de audio y apoyar el desarrollo de modelos generativos de audio m\u00e1s sofisticados. Descargar los pesos y el c\u00f3digo del modelo\u00a0 Lee el art\u00edculo\u00a0 Transcripciones de mensajes de voz de WhatsApp: Desbloqueando comunicaci\u00f3n fluida Mientras seguimos construyendo el futuro de la conexi\u00f3n humana y la tecnolog\u00eda que la hace posible, lanzamos una actualizaci\u00f3n en WhatsApp para que la comunicaci\u00f3n sea a\u00fan m\u00e1s fluida. Las transcripciones de mensajes de voz utilizan tecnolog\u00eda avanzada en el dispositivo para generar transcripciones de mensajes de audio de forma local y segura, garantizando que los mensajes de voz personales est\u00e9n cifrados de extremo a extremo. Actualmente, esta funci\u00f3n est\u00e1 disponible en ingl\u00e9s, espa\u00f1ol, portugu\u00e9s y ruso, lo que ampl\u00eda su alcance a diversas comunidades. El desarrollo de las transcripciones de mensajes de voz ha sido posible gracias a los resultados de la investigaci\u00f3n Meta FAIR Seamless Communication. WhatsApp puede seguir innovando y mejorando sus servicios utilizando esta investigaci\u00f3n, lo que en \u00faltima instancia impulsar\u00e1 el progreso hacia el objetivo de lograr AMI con capacidades multiling\u00fces. Hemos explorado, desarrollado y compartido ampliamente las mejores pr\u00e1cticas para el ajuste de modelos con la comunidad investigadora para las versiones p\u00fablicas de los modelos Seamless M4T. Estas t\u00e9cnicas se aplicaron y mejoraron a\u00fan m\u00e1s, junto con la destilaci\u00f3n, para ajustarlas al g\u00e9nero de los mensajes de voz de WhatsApp.\u00a0\u00a0 Este avance mejora la experiencia de las personas al tiempo que protege la mensajer\u00eda privada, y sienta las bases para futuras innovaciones en la comunicaci\u00f3n multiling\u00fce.","protected":false},"author":155592861,"featured_media":25688,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948037],"tags":[],"class_list":["post-25687","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"El equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental de Meta (FAIR) se centra en lograr machine intelligence de avanzada (AMI) y utilizarla para impulsar productos e innovaci\u00f3n en beneficio de todos. Hoy, estamos encantados de compartir algunas de nuestras investigaciones y modelos m\u00e1s recientes que apoyan nuestro objetivo de lograr AMI, y nuestro compromiso de larga trayectoria de compartir ciencia abierta y reproducible. Meta PARTNR: Desbloqueando la colaboraci\u00f3n entre humanos y robots Imagina un mundo en el que los robots sean compa\u00f1eros intuitivos en nuestra vida cotidiana. Limpian, recogen entregas y ayudan a cocinar, al tiempo que comprenden nuestras necesidades y se adaptan al entorno din\u00e1mico de un hogar atareado. Hoy nos complace presentar PARTNR, un marco de investigaci\u00f3n que nos acerca a esta realidad impulsando la investigaci\u00f3n sobre la colaboraci\u00f3n fluida entre humanos y robots. La mayor\u00eda de los robots actuales funcionan de forma aislada, lo que limita su potencial como \u00fatiles agentes de asistencia del futuro. Con PARTNR, pretendemos cambiar el statu quo abriendo un sistema de referencia, un conjunto de datos y un modelo a gran escala para estudiar la colaboraci\u00f3n entre humanos y robots en tareas cotidianas. En esencia, PARTNR ofrece un mecanismo para entrenar robots sociales mediante simulaciones a gran escala, seguidas de su despliegue en el mundo real. PARTNR se apoya en trabajos anteriores de gran impacto que se han compartido con la comunidad de c\u00f3digo abierto. Se basa en los avances logrados con Habitat 1.0 que entren\u00f3 a robots virtuales para navegar por escaneados 3D de casas reales, y Habitat 2.0\u00a0 que entren\u00f3 a robots virtuales para limpiar casas reordenando objetos. Con Habitat 3.0, un simulador dise\u00f1ado para entrenar modelos de colaboraci\u00f3n entre humanos y robots, hemos dado otro salto adelante. Habitat 3.0 permiti\u00f3 entrenar modelos de colaboraci\u00f3n humano-robot a gran escala, lo que no es factible en el mundo real por cuestiones de seguridad y escalabilidad. Tambi\u00e9n presentamos la prueba de referencia PARTNR, cuyo objetivo es evaluar los robots colaborativos y garantizar su rendimiento tanto en entornos simulados como en el mundo real. Nuestra prueba consta de 100.000 tareas, incluidas tareas dom\u00e9sticas como la limpieza de platos y juguetes. Tambi\u00e9n publicamos el conjunto de datos PARTNR, que consiste en demostraciones humanas de las tareas de PARTNR en simulaci\u00f3n, y que puede utilizarse para entrenar modelos de IA incorporados. La prueba de referencia PARTNR pone en evidencia las principales deficiencias de los modelos actuales, como la escasa coordinaci\u00f3n y los fallos en el seguimiento de las tareas y la recuperaci\u00f3n tras los errores. Animamos a la comunidad acad\u00e9mica a seguir avanzando a partir de nuestro trabajo e impulsar el progreso en el campo de la colaboraci\u00f3n entre humanos y robots. Tambi\u00e9n hemos avanzado en modelos que pueden colaborar con humanos tanto en entornos de simulaci\u00f3n como en el mundo real. Utilizando datos de simulaci\u00f3n a gran escala, hemos entrenado un modelo de planificaci\u00f3n a gran escala que supera a los modelos de referencia m\u00e1s avanzados tanto en velocidad como en rendimiento. Este modelo multiplica por 8,6 su velocidad y permite a los humanos completar tareas con un 24% m\u00e1s de eficacia que los modelos de alto rendimiento existentes. Es capaz de interpretar instrucciones de largo alcance, descomponer tareas complejas en pasos procesables y proporcionar una asistencia significativa a los usuarios humanos. Hemos desplegado con \u00e9xito este modelo en el Spot de Boston Dynamics, demostrando su capacidad para trabajar junto a los humanos en entornos reales. Para aumentar la transparencia y la confianza, tambi\u00e9n hemos desarrollado una interfaz de realidad mixta que visualiza las acciones y los procesos de pensamiento del robot, ofreciendo una ventana a su toma de decisiones.\u00a0 El potencial de innovaci\u00f3n y desarrollo en el campo de la colaboraci\u00f3n entre humanos y robots es enorme. Con PARTNR, queremos reimaginar los robots como futuros socios, y no solo como agentes, e impulsar la investigaci\u00f3n en este apasionante campo.\u00a0\u00a0\u00a0 Descarga el c\u00f3digo Descarga el conjunto de datos Lee el Paper Democratizando la tecnolog\u00eda de lenguaje para el Decenio Internacional de las Lenguas Ind\u00edgenas El lenguaje es una parte fundamental de lo que somos y, sin embargo, muchas personas en todo el mundo est\u00e1n excluidas de la conversaci\u00f3n digital porque su lenguaje no est\u00e1 soportado por la tecnolog\u00eda. Para ayudar a reducir esta brecha, invitamos a la comunidad ling\u00fc\u00edstica a asociarse con nosotros para colaborar en la mejora y ampliaci\u00f3n de la cobertura de las tecnolog\u00edas de lenguaje de c\u00f3digo abierto de Meta, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Programa de socios de tecnolog\u00edas de lenguaje Buscamos socios que colaboren con nosotros en el avance de las tecnolog\u00edas de lenguaje, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Nuestros esfuerzos se centran especialmente en las lenguas insuficientemente atendidas, en apoyo de la labor de la UNESCO y como parte de la contribuci\u00f3n del sector privado a la capacitaci\u00f3n digital en el marco del Decenio Internacional de las Lenguas Ind\u00edgenas. Buscamos socios que puedan contribuir con m\u00e1s de 10 horas de grabaciones de voz con transcripciones, grandes corpus de texto escrito (m\u00e1s de 200 frases) y conjuntos de frases traducidas en diversos lenguajes. Los socios trabajar\u00e1n con nuestros equipos para ayudar a integrar estos lenguajes en modelos de reconocimiento del habla y traducci\u00f3n autom\u00e1tica basados en IA, que pretendemos convertir en c\u00f3digo abierto y poner a disposici\u00f3n de la comunidad. Como socio, tambi\u00e9n tendr\u00e1 acceso a talleres dirigidos por nuestros equipos de investigaci\u00f3n, en los que aprender\u00e1 a aprovechar nuestros modelos de c\u00f3digo abierto para crear tecnolog\u00edas de lenguaje. Nos complace que el Gobierno de Nunavut (Canad\u00e1) haya aceptado colaborar con nosotros en esta interesante iniciativa. Para unirse a nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, ingresa aqu\u00ed Referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto Adem\u00e1s de nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, estamos lanzando una referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto de frases cuidadosamente elaboradas por expertos ling\u00fc\u00edsticos para mostrar la diversidad del lenguaje humano. Le invitamos a acceder a esta referencia en siete idiomas y a contribuir con traducciones que ser\u00e1n de c\u00f3digo abierto para otros. Nuestro objetivo es construir colectivamente una referencia de traducci\u00f3n autom\u00e1tica multiling\u00fce sin precedentes para la comunidad.\u00a0\u00a0 M\u00e1s informaci\u00f3n aqu\u00ed Nuestro compromiso de apoyar m\u00e1s lenguajes y desarrollar tecnolog\u00edas de c\u00f3digo abierto para ellas es constante. En 2022, lanzamos No Language Left Behind (NLLB), un innovador motor de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto que sent\u00f3 las bases para futuras investigaciones y desarrollos en este campo. Al ser el primer modelo neuronal de traducci\u00f3n autom\u00e1tica para muchos idiomas, NLLB allan\u00f3 el camino para futuras innovaciones. Desde su lanzamiento, la comunidad de c\u00f3digo abierto se ha basado en este trabajo, ampliando sus capacidades para soportar docenas de lenguajes adicionales. Tambi\u00e9n nos complace que la UNESCO y Hugging Face hayan colaborado con nosotros para construir un traductor de lenguajes basado en NLLB, que anunciamos durante la semana de la Asamblea General de las Naciones Unidas el pasado mes de septiembre. Mientras seguimos desarrollando esta tecnolog\u00eda, nos entusiasma colaborar con las comunidades ling\u00fc\u00edsticas para mejorar y ampliar la traducci\u00f3n autom\u00e1tica y otras tecnolog\u00edas del lenguaje. Para apoyar la capacitaci\u00f3n digital, que es un \u00e1rea tem\u00e1tica clave del Plan de Acci\u00f3n Mundial del Decenio Internacional de las Lenguas Ind\u00edgenas, hemos introducido recientemente el proyecto de Habla Multiling\u00fce Masiva (MMS), que ampl\u00eda la transcripci\u00f3n de audio a m\u00e1s de 1.100 idiomas. Hemos seguido mejorando y ampliando sus capacidades, incluida la incorporaci\u00f3n del reconocimiento de voz sin disparo, que permite al modelo transcribir audio en idiomas que nunca ha visto antes sin formaci\u00f3n previa. Estas tecnolog\u00edas tienen importantes implicaciones para el apoyo del lenguaje y la accesibilidad, sobre todo para las comunidades m\u00e1s desfavorecidas. Al promover la aplicaci\u00f3n del Decenio Internacional de las Lenguas Ind\u00edgenas, pretendemos hacer frente a los retos que plantea la proliferaci\u00f3n de modelos de lenguaje en ingl\u00e9s y trabajar por la igualdad de representaci\u00f3n de todas las lenguas, contribuyendo as\u00ed a la consecuci\u00f3n de los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Adem\u00e1s de su impacto potencial en el apoyo del lenguaje y la accesibilidad, nuestro trabajo tambi\u00e9n tiene implicaciones m\u00e1s amplias para el desarrollo de AMI. Al trabajar con problemas multiling\u00fces y lenguas insuficientemente atendidas, el modelo demuestra la capacidad de aprender a partir de datos m\u00ednimos. Estos avances suponen un paso crucial hacia la creaci\u00f3n de sistemas inteligentes capaces de adaptarse a nuevas situaciones y aprender de la experiencia. En \u00faltima instancia, nuestro objetivo es crear sistemas inteligentes capaces de comprender y responder a necesidades humanas complejas, independientemente de la lengua o el entorno cultural, y construir una tecnolog\u00eda que incluya las lenguas y culturas de nuestro mundo. Est\u00e9tica de Meta Audiobox: Un nuevo est\u00e1ndar para el procesamiento de audio Tradicionalmente, medir la est\u00e9tica del audio ha sido una tarea compleja debido a su naturaleza subjetiva. A diferencia de m\u00e9tricas objetivas como la respuesta en frecuencia o la relaci\u00f3n se\u00f1al\/ruido, la est\u00e9tica del audio requiere una comprensi\u00f3n matizada de la percepci\u00f3n humana. Hoy nos complace presentar Est\u00e9tica de Meta Audiobox, un modelo que permite la evaluaci\u00f3n autom\u00e1tica de la est\u00e9tica del audio y proporciona una valoraci\u00f3n exhaustiva de la calidad del audio en el habla, la m\u00fasica y el sonido. El modelo realiza predicciones que analizan el disfrute, la utilidad, la complejidad y la calidad de la producci\u00f3n. Afrontar los desaf\u00edos que plantea la evaluaci\u00f3n subjetiva del audio conduce a mejorar la calidad de los contenidos de audio y a desarrollar modelos generativos de audio m\u00e1s avanzados. Los m\u00e9todos de evaluaci\u00f3n existentes suelen ofrecer resultados espec\u00edficos de submodalidades con instrucciones vagas y dif\u00edciles de interpretar. Audiobox Aesthetics supera estas limitaciones ofreciendo un enfoque estructurado de la evaluaci\u00f3n del audio. Para desarrollar Audiobox Aesthetics, dise\u00f1amos un exhaustivo protocolo de anotaci\u00f3n que permiti\u00f3 recopilar 562 horas de datos est\u00e9ticos de audio. Nuestro conjunto de datos fue anotado por evaluadores profesionales para garantizar la calidad de los datos. El proceso de anotaci\u00f3n consisti\u00f3 en evaluar muestras de audio en una escala del uno al diez en cuatro par\u00e1metros definidos: calidad de la producci\u00f3n, complejidad de la producci\u00f3n, disfrute del contenido y utilidad del contenido. Este proceso permiti\u00f3 crear una puntuaci\u00f3n est\u00e9tica unificada y calibrada para las distintas modalidades de audio, lo que garantiz\u00f3 la coherencia y fiabilidad de las predicciones del modelo. Leyenda: \u25b2 Cuanto m\u00e1s alto, mejor. En las cuatro dimensiones de evaluaci\u00f3n de la calidad, Audiobox Aesthetics muestra una mejor correlaci\u00f3n con el juicio humano que sus competidores en voz, sonido y m\u00fasica. Extensos experimentos demostraron que Audiobox Aesthetics superaba a trabajos anteriores con mayor correlaci\u00f3n con el juicio humano, demostrando su eficacia como m\u00e9trica autom\u00e1tica para la evaluaci\u00f3n de la calidad. El modelo, que se publica con una licencia CC-BY 4.0, tambi\u00e9n mejora la calidad de varios modelos de generaci\u00f3n de audio mediante el filtrado de datos y el fomento de la calidad, logrando mejoras significativas en aplicaciones de texto a voz, texto a m\u00fasica y texto a sonido. Audiobox Aesthetics ya se ha aprovechado para mejorar Meta Movie Gen, ayudando a facilitar contenidos multimedia de alta calidad, impulsando a\u00fan m\u00e1s el progreso y la innovaci\u00f3n en la industria. Esperamos que este trabajo sirva para mejorar la calidad de los contenidos de audio y apoyar el desarrollo de modelos generativos de audio m\u00e1s sofisticados. Descargar los pesos y el c\u00f3digo del modelo\u00a0 Lee el art\u00edculo\u00a0 Transcripciones de mensajes de voz de WhatsApp: Desbloqueando comunicaci\u00f3n fluida Mientras seguimos construyendo el futuro de la conexi\u00f3n humana y la tecnolog\u00eda que la hace posible, lanzamos una actualizaci\u00f3n en WhatsApp para que la comunicaci\u00f3n sea a\u00fan m\u00e1s fluida. Las transcripciones de mensajes de voz utilizan tecnolog\u00eda avanzada en el dispositivo para generar transcripciones de mensajes de audio de forma local y segura, garantizando que los mensajes de voz personales est\u00e9n cifrados de extremo a extremo. Actualmente, esta funci\u00f3n est\u00e1 disponible en ingl\u00e9s, espa\u00f1ol, portugu\u00e9s y ruso, lo que ampl\u00eda su alcance a diversas comunidades. El desarrollo de las transcripciones de mensajes de voz ha sido posible gracias a los resultados de la investigaci\u00f3n Meta FAIR Seamless Communication. WhatsApp puede seguir innovando y mejorando sus servicios utilizando esta investigaci\u00f3n, lo que en \u00faltima instancia impulsar\u00e1 el progreso hacia el objetivo de lograr AMI con capacidades multiling\u00fces. Hemos explorado, desarrollado y compartido ampliamente las mejores pr\u00e1cticas para el ajuste de modelos con la comunidad investigadora para las versiones p\u00fablicas de los modelos Seamless M4T. Estas t\u00e9cnicas se aplicaron y mejoraron a\u00fan m\u00e1s, junto con la destilaci\u00f3n, para ajustarlas al g\u00e9nero de los mensajes de voz de WhatsApp.\u00a0\u00a0 Este avance mejora la experiencia de las personas al tiempo que protege la mensajer\u00eda privada, y sienta las bases para futuras innovaciones en la comunicaci\u00f3n multiling\u00fce.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2025-02-07T15:18:42+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-02-07T16:25:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?resize=1024,577\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"577\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"12 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\"},\"author\":\"Facebook company\",\"headline\":\"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano\",\"datePublished\":\"2025-02-07T15:18:42+00:00\",\"dateModified\":\"2025-02-07T16:25:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\"},\"wordCount\":2350,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978\",\"articleSection\":[\"Meta\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\",\"name\":\"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978\",\"datePublished\":\"2025-02-07T15:18:42+00:00\",\"dateModified\":\"2025-02-07T16:25:32+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978\",\"width\":1736,\"height\":978},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/","og_locale":"es_ES","og_type":"article","og_title":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta","og_description":"El equipo de Investigaci\u00f3n sobre Inteligencia Artificial Fundamental de Meta (FAIR) se centra en lograr machine intelligence de avanzada (AMI) y utilizarla para impulsar productos e innovaci\u00f3n en beneficio de todos. Hoy, estamos encantados de compartir algunas de nuestras investigaciones y modelos m\u00e1s recientes que apoyan nuestro objetivo de lograr AMI, y nuestro compromiso de larga trayectoria de compartir ciencia abierta y reproducible. Meta PARTNR: Desbloqueando la colaboraci\u00f3n entre humanos y robots Imagina un mundo en el que los robots sean compa\u00f1eros intuitivos en nuestra vida cotidiana. Limpian, recogen entregas y ayudan a cocinar, al tiempo que comprenden nuestras necesidades y se adaptan al entorno din\u00e1mico de un hogar atareado. Hoy nos complace presentar PARTNR, un marco de investigaci\u00f3n que nos acerca a esta realidad impulsando la investigaci\u00f3n sobre la colaboraci\u00f3n fluida entre humanos y robots. La mayor\u00eda de los robots actuales funcionan de forma aislada, lo que limita su potencial como \u00fatiles agentes de asistencia del futuro. Con PARTNR, pretendemos cambiar el statu quo abriendo un sistema de referencia, un conjunto de datos y un modelo a gran escala para estudiar la colaboraci\u00f3n entre humanos y robots en tareas cotidianas. En esencia, PARTNR ofrece un mecanismo para entrenar robots sociales mediante simulaciones a gran escala, seguidas de su despliegue en el mundo real. PARTNR se apoya en trabajos anteriores de gran impacto que se han compartido con la comunidad de c\u00f3digo abierto. Se basa en los avances logrados con Habitat 1.0 que entren\u00f3 a robots virtuales para navegar por escaneados 3D de casas reales, y Habitat 2.0\u00a0 que entren\u00f3 a robots virtuales para limpiar casas reordenando objetos. Con Habitat 3.0, un simulador dise\u00f1ado para entrenar modelos de colaboraci\u00f3n entre humanos y robots, hemos dado otro salto adelante. Habitat 3.0 permiti\u00f3 entrenar modelos de colaboraci\u00f3n humano-robot a gran escala, lo que no es factible en el mundo real por cuestiones de seguridad y escalabilidad. Tambi\u00e9n presentamos la prueba de referencia PARTNR, cuyo objetivo es evaluar los robots colaborativos y garantizar su rendimiento tanto en entornos simulados como en el mundo real. Nuestra prueba consta de 100.000 tareas, incluidas tareas dom\u00e9sticas como la limpieza de platos y juguetes. Tambi\u00e9n publicamos el conjunto de datos PARTNR, que consiste en demostraciones humanas de las tareas de PARTNR en simulaci\u00f3n, y que puede utilizarse para entrenar modelos de IA incorporados. La prueba de referencia PARTNR pone en evidencia las principales deficiencias de los modelos actuales, como la escasa coordinaci\u00f3n y los fallos en el seguimiento de las tareas y la recuperaci\u00f3n tras los errores. Animamos a la comunidad acad\u00e9mica a seguir avanzando a partir de nuestro trabajo e impulsar el progreso en el campo de la colaboraci\u00f3n entre humanos y robots. Tambi\u00e9n hemos avanzado en modelos que pueden colaborar con humanos tanto en entornos de simulaci\u00f3n como en el mundo real. Utilizando datos de simulaci\u00f3n a gran escala, hemos entrenado un modelo de planificaci\u00f3n a gran escala que supera a los modelos de referencia m\u00e1s avanzados tanto en velocidad como en rendimiento. Este modelo multiplica por 8,6 su velocidad y permite a los humanos completar tareas con un 24% m\u00e1s de eficacia que los modelos de alto rendimiento existentes. Es capaz de interpretar instrucciones de largo alcance, descomponer tareas complejas en pasos procesables y proporcionar una asistencia significativa a los usuarios humanos. Hemos desplegado con \u00e9xito este modelo en el Spot de Boston Dynamics, demostrando su capacidad para trabajar junto a los humanos en entornos reales. Para aumentar la transparencia y la confianza, tambi\u00e9n hemos desarrollado una interfaz de realidad mixta que visualiza las acciones y los procesos de pensamiento del robot, ofreciendo una ventana a su toma de decisiones.\u00a0 El potencial de innovaci\u00f3n y desarrollo en el campo de la colaboraci\u00f3n entre humanos y robots es enorme. Con PARTNR, queremos reimaginar los robots como futuros socios, y no solo como agentes, e impulsar la investigaci\u00f3n en este apasionante campo.\u00a0\u00a0\u00a0 Descarga el c\u00f3digo Descarga el conjunto de datos Lee el Paper Democratizando la tecnolog\u00eda de lenguaje para el Decenio Internacional de las Lenguas Ind\u00edgenas El lenguaje es una parte fundamental de lo que somos y, sin embargo, muchas personas en todo el mundo est\u00e1n excluidas de la conversaci\u00f3n digital porque su lenguaje no est\u00e1 soportado por la tecnolog\u00eda. Para ayudar a reducir esta brecha, invitamos a la comunidad ling\u00fc\u00edstica a asociarse con nosotros para colaborar en la mejora y ampliaci\u00f3n de la cobertura de las tecnolog\u00edas de lenguaje de c\u00f3digo abierto de Meta, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Programa de socios de tecnolog\u00edas de lenguaje Buscamos socios que colaboren con nosotros en el avance de las tecnolog\u00edas de lenguaje, incluidos el reconocimiento de voz y la traducci\u00f3n autom\u00e1tica. Nuestros esfuerzos se centran especialmente en las lenguas insuficientemente atendidas, en apoyo de la labor de la UNESCO y como parte de la contribuci\u00f3n del sector privado a la capacitaci\u00f3n digital en el marco del Decenio Internacional de las Lenguas Ind\u00edgenas. Buscamos socios que puedan contribuir con m\u00e1s de 10 horas de grabaciones de voz con transcripciones, grandes corpus de texto escrito (m\u00e1s de 200 frases) y conjuntos de frases traducidas en diversos lenguajes. Los socios trabajar\u00e1n con nuestros equipos para ayudar a integrar estos lenguajes en modelos de reconocimiento del habla y traducci\u00f3n autom\u00e1tica basados en IA, que pretendemos convertir en c\u00f3digo abierto y poner a disposici\u00f3n de la comunidad. Como socio, tambi\u00e9n tendr\u00e1 acceso a talleres dirigidos por nuestros equipos de investigaci\u00f3n, en los que aprender\u00e1 a aprovechar nuestros modelos de c\u00f3digo abierto para crear tecnolog\u00edas de lenguaje. Nos complace que el Gobierno de Nunavut (Canad\u00e1) haya aceptado colaborar con nosotros en esta interesante iniciativa. Para unirse a nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, ingresa aqu\u00ed Referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto Adem\u00e1s de nuestro Programa de Socios de Tecnolog\u00eda de Lenguaje, estamos lanzando una referencia de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto de frases cuidadosamente elaboradas por expertos ling\u00fc\u00edsticos para mostrar la diversidad del lenguaje humano. Le invitamos a acceder a esta referencia en siete idiomas y a contribuir con traducciones que ser\u00e1n de c\u00f3digo abierto para otros. Nuestro objetivo es construir colectivamente una referencia de traducci\u00f3n autom\u00e1tica multiling\u00fce sin precedentes para la comunidad.\u00a0\u00a0 M\u00e1s informaci\u00f3n aqu\u00ed Nuestro compromiso de apoyar m\u00e1s lenguajes y desarrollar tecnolog\u00edas de c\u00f3digo abierto para ellas es constante. En 2022, lanzamos No Language Left Behind (NLLB), un innovador motor de traducci\u00f3n autom\u00e1tica de c\u00f3digo abierto que sent\u00f3 las bases para futuras investigaciones y desarrollos en este campo. Al ser el primer modelo neuronal de traducci\u00f3n autom\u00e1tica para muchos idiomas, NLLB allan\u00f3 el camino para futuras innovaciones. Desde su lanzamiento, la comunidad de c\u00f3digo abierto se ha basado en este trabajo, ampliando sus capacidades para soportar docenas de lenguajes adicionales. Tambi\u00e9n nos complace que la UNESCO y Hugging Face hayan colaborado con nosotros para construir un traductor de lenguajes basado en NLLB, que anunciamos durante la semana de la Asamblea General de las Naciones Unidas el pasado mes de septiembre. Mientras seguimos desarrollando esta tecnolog\u00eda, nos entusiasma colaborar con las comunidades ling\u00fc\u00edsticas para mejorar y ampliar la traducci\u00f3n autom\u00e1tica y otras tecnolog\u00edas del lenguaje. Para apoyar la capacitaci\u00f3n digital, que es un \u00e1rea tem\u00e1tica clave del Plan de Acci\u00f3n Mundial del Decenio Internacional de las Lenguas Ind\u00edgenas, hemos introducido recientemente el proyecto de Habla Multiling\u00fce Masiva (MMS), que ampl\u00eda la transcripci\u00f3n de audio a m\u00e1s de 1.100 idiomas. Hemos seguido mejorando y ampliando sus capacidades, incluida la incorporaci\u00f3n del reconocimiento de voz sin disparo, que permite al modelo transcribir audio en idiomas que nunca ha visto antes sin formaci\u00f3n previa. Estas tecnolog\u00edas tienen importantes implicaciones para el apoyo del lenguaje y la accesibilidad, sobre todo para las comunidades m\u00e1s desfavorecidas. Al promover la aplicaci\u00f3n del Decenio Internacional de las Lenguas Ind\u00edgenas, pretendemos hacer frente a los retos que plantea la proliferaci\u00f3n de modelos de lenguaje en ingl\u00e9s y trabajar por la igualdad de representaci\u00f3n de todas las lenguas, contribuyendo as\u00ed a la consecuci\u00f3n de los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Adem\u00e1s de su impacto potencial en el apoyo del lenguaje y la accesibilidad, nuestro trabajo tambi\u00e9n tiene implicaciones m\u00e1s amplias para el desarrollo de AMI. Al trabajar con problemas multiling\u00fces y lenguas insuficientemente atendidas, el modelo demuestra la capacidad de aprender a partir de datos m\u00ednimos. Estos avances suponen un paso crucial hacia la creaci\u00f3n de sistemas inteligentes capaces de adaptarse a nuevas situaciones y aprender de la experiencia. En \u00faltima instancia, nuestro objetivo es crear sistemas inteligentes capaces de comprender y responder a necesidades humanas complejas, independientemente de la lengua o el entorno cultural, y construir una tecnolog\u00eda que incluya las lenguas y culturas de nuestro mundo. Est\u00e9tica de Meta Audiobox: Un nuevo est\u00e1ndar para el procesamiento de audio Tradicionalmente, medir la est\u00e9tica del audio ha sido una tarea compleja debido a su naturaleza subjetiva. A diferencia de m\u00e9tricas objetivas como la respuesta en frecuencia o la relaci\u00f3n se\u00f1al\/ruido, la est\u00e9tica del audio requiere una comprensi\u00f3n matizada de la percepci\u00f3n humana. Hoy nos complace presentar Est\u00e9tica de Meta Audiobox, un modelo que permite la evaluaci\u00f3n autom\u00e1tica de la est\u00e9tica del audio y proporciona una valoraci\u00f3n exhaustiva de la calidad del audio en el habla, la m\u00fasica y el sonido. El modelo realiza predicciones que analizan el disfrute, la utilidad, la complejidad y la calidad de la producci\u00f3n. Afrontar los desaf\u00edos que plantea la evaluaci\u00f3n subjetiva del audio conduce a mejorar la calidad de los contenidos de audio y a desarrollar modelos generativos de audio m\u00e1s avanzados. Los m\u00e9todos de evaluaci\u00f3n existentes suelen ofrecer resultados espec\u00edficos de submodalidades con instrucciones vagas y dif\u00edciles de interpretar. Audiobox Aesthetics supera estas limitaciones ofreciendo un enfoque estructurado de la evaluaci\u00f3n del audio. Para desarrollar Audiobox Aesthetics, dise\u00f1amos un exhaustivo protocolo de anotaci\u00f3n que permiti\u00f3 recopilar 562 horas de datos est\u00e9ticos de audio. Nuestro conjunto de datos fue anotado por evaluadores profesionales para garantizar la calidad de los datos. El proceso de anotaci\u00f3n consisti\u00f3 en evaluar muestras de audio en una escala del uno al diez en cuatro par\u00e1metros definidos: calidad de la producci\u00f3n, complejidad de la producci\u00f3n, disfrute del contenido y utilidad del contenido. Este proceso permiti\u00f3 crear una puntuaci\u00f3n est\u00e9tica unificada y calibrada para las distintas modalidades de audio, lo que garantiz\u00f3 la coherencia y fiabilidad de las predicciones del modelo. Leyenda: \u25b2 Cuanto m\u00e1s alto, mejor. En las cuatro dimensiones de evaluaci\u00f3n de la calidad, Audiobox Aesthetics muestra una mejor correlaci\u00f3n con el juicio humano que sus competidores en voz, sonido y m\u00fasica. Extensos experimentos demostraron que Audiobox Aesthetics superaba a trabajos anteriores con mayor correlaci\u00f3n con el juicio humano, demostrando su eficacia como m\u00e9trica autom\u00e1tica para la evaluaci\u00f3n de la calidad. El modelo, que se publica con una licencia CC-BY 4.0, tambi\u00e9n mejora la calidad de varios modelos de generaci\u00f3n de audio mediante el filtrado de datos y el fomento de la calidad, logrando mejoras significativas en aplicaciones de texto a voz, texto a m\u00fasica y texto a sonido. Audiobox Aesthetics ya se ha aprovechado para mejorar Meta Movie Gen, ayudando a facilitar contenidos multimedia de alta calidad, impulsando a\u00fan m\u00e1s el progreso y la innovaci\u00f3n en la industria. Esperamos que este trabajo sirva para mejorar la calidad de los contenidos de audio y apoyar el desarrollo de modelos generativos de audio m\u00e1s sofisticados. Descargar los pesos y el c\u00f3digo del modelo\u00a0 Lee el art\u00edculo\u00a0 Transcripciones de mensajes de voz de WhatsApp: Desbloqueando comunicaci\u00f3n fluida Mientras seguimos construyendo el futuro de la conexi\u00f3n humana y la tecnolog\u00eda que la hace posible, lanzamos una actualizaci\u00f3n en WhatsApp para que la comunicaci\u00f3n sea a\u00fan m\u00e1s fluida. Las transcripciones de mensajes de voz utilizan tecnolog\u00eda avanzada en el dispositivo para generar transcripciones de mensajes de audio de forma local y segura, garantizando que los mensajes de voz personales est\u00e9n cifrados de extremo a extremo. Actualmente, esta funci\u00f3n est\u00e1 disponible en ingl\u00e9s, espa\u00f1ol, portugu\u00e9s y ruso, lo que ampl\u00eda su alcance a diversas comunidades. El desarrollo de las transcripciones de mensajes de voz ha sido posible gracias a los resultados de la investigaci\u00f3n Meta FAIR Seamless Communication. WhatsApp puede seguir innovando y mejorando sus servicios utilizando esta investigaci\u00f3n, lo que en \u00faltima instancia impulsar\u00e1 el progreso hacia el objetivo de lograr AMI con capacidades multiling\u00fces. Hemos explorado, desarrollado y compartido ampliamente las mejores pr\u00e1cticas para el ajuste de modelos con la comunidad investigadora para las versiones p\u00fablicas de los modelos Seamless M4T. Estas t\u00e9cnicas se aplicaron y mejoraron a\u00fan m\u00e1s, junto con la destilaci\u00f3n, para ajustarlas al g\u00e9nero de los mensajes de voz de WhatsApp.\u00a0\u00a0 Este avance mejora la experiencia de las personas al tiempo que protege la mensajer\u00eda privada, y sienta las bases para futuras innovaciones en la comunicaci\u00f3n multiling\u00fce.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/","og_site_name":"Acerca de Meta","article_published_time":"2025-02-07T15:18:42+00:00","article_modified_time":"2025-02-07T16:25:32+00:00","og_image":[{"width":1024,"height":577,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?resize=1024,577","type":"image\/png"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"12 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/"},"author":"Facebook company","headline":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano","datePublished":"2025-02-07T15:18:42+00:00","dateModified":"2025-02-07T16:25:32+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/"},"wordCount":2350,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978","articleSection":["Meta"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/","url":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/","name":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978","datePublished":"2025-02-07T15:18:42+00:00","dateModified":"2025-02-07T16:25:32+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978","width":1736,"height":978},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2025\/02\/avances-del-machine-intelligence-mediante-la-investigacion-centrada-en-el-ser-humano\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Avances del machine intelligence mediante la investigaci\u00f3n centrada en el ser humano"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2025\/02\/Header2.png?fit=1736%2C978","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25687","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25687"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25687\/revisions"}],"predecessor-version":[{"id":25693,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25687\/revisions\/25693"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/25688"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25687"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25687"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25687"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}