{"id":25439,"date":"2024-09-25T12:10:23","date_gmt":"2024-09-25T18:10:23","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25439"},"modified":"2024-09-25T12:17:56","modified_gmt":"2024-09-25T18:17:56","slug":"meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/","title":{"rendered":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s"},"content":{"rendered":"<p><span style=\"font-weight: 400\">2024 ha sido un a\u00f1o muy ocupado. Lanzamos el primer visor de realidad mixta para consumo masivo con <\/span><a href=\"https:\/\/www.meta.com\/es-es\/blog\/quest\/meta-quest-3-pre-orders-asgards-wrath-2-bundle-vr-mr-headset-price\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Meta Quest 3<\/span><\/a><span style=\"font-weight: 400\">, revolucionamos el mercado de gafas con la colecci\u00f3n <\/span><a href=\"https:\/\/www.meta.com\/es-es\/blog\/quest\/ray-ban-meta-smart-glasses-collection-pre-orders\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Ray-Ban Meta<\/span><\/a><span style=\"font-weight: 400\"> y lanzamos varios modelos de lenguaje, incluyendo <\/span><a href=\"https:\/\/ai.meta.com\/blog\/meta-llama-3-1\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">el primer modelo de IA de c\u00f3digo abierto a nivel de frontera<\/span><\/a><span style=\"font-weight: 400\">. <\/span><span style=\"font-weight: 400\">Estos avances representan un progreso considerable en el camino hacia la pr\u00f3xima plataforma de computaci\u00f3n que pone a las personas en el centro. Y hoy, en nuestra 11\u00aa conferencia anual Connect, el fundador y CEO de Meta, Mark Zuckerberg, comparti\u00f3 las \u00faltimas novedades y desarrollos en realidad mixta, IA y dispositivos port\u00e1tiles, todos ellos encaminados hacia<a href=\"https:\/\/www.meta.com\/en-gb\/blog\/quest\/orion-ar-glasses-augmented-reality\/\" target=\"_blank\" rel=\"noopener\"> nuestra visi\u00f3n de un futuro abierto y m\u00e1s conectado.<\/a><\/span><\/p>\n<p><b>Movimientos de Realidad Mixta: Meta Quest 3S, Actualizaciones de Horizon OS y m\u00e1s<\/b><\/p>\n<p><span style=\"font-weight: 400\">Meta Quest 3S promete ofrecer experiencias incre\u00edbles a un precio inigualable. Est\u00e1 disponible desde $299.99, haciendo accesible la realidad mixta de alta calidad a m\u00e1s personas que nunca. <\/span><span style=\"font-weight: 400\">Puedes hacer tu <a href=\"https:\/\/www.meta.com\/quest\/quest-3s\/?intern_source=blog&amp;intern_content=connect-2024-keynote-recap-quest-3s-llama-3-2-ai-wearables-mixed-reality\" target=\"_blank\" rel=\"noopener\">pre-pedido<\/a> hoy; el dispositivo llegar\u00e1 a las tiendas el 15 de octubre.<\/span><\/p>\n<p><span style=\"font-weight: 400\">El Quest 3S cuenta con las mismas caracter\u00edsticas definitorias del Quest 3: realidad mixta a color de alta resoluci\u00f3n que permite una integraci\u00f3n perfecta entre los mundos f\u00edsico y virtual, impulsada por la plataforma Snapdragon XR2 Gen 2, que se desarroll\u00f3 en estrecha colaboraci\u00f3n con <\/span><a href=\"https:\/\/www.qualcomm.com\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Qualcomm Technologies<\/span><\/a><span style=\"font-weight: 400\">. Ofrece seguimiento de manos para interacciones naturales y controladores Touch Plus para precisi\u00f3n. Tienes acceso a toda la gama de experiencias disponibles en <\/span><a href=\"https:\/\/www.meta.com\/es-es\/blog\/quest\/meta-horizon-os-open-hardware-ecosystem-asus-republic-gamers-lenovo-xbox\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Meta Horizon OS<\/span><\/a><span style=\"font-weight: 400\">, incluyendo entretenimiento, fitness, juegos, productividad, experiencias sociales y mucho m\u00e1s. Y el visor mejora con el tiempo, gracias a las actualizaciones regulares de software.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00bfQu\u00e9 hay de diferente? Los principales cambios est\u00e1n en el dise\u00f1o, los lentes Fresnel y un campo de visi\u00f3n un poco m\u00e1s estrecho.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ya sea que quieras probar nuestro modelo base de 128GB Quest 3S, actualices al modelo de 256GB para m\u00e1s almacenamiento o te sumerjas en una experiencia de alta gama con el Quest 3 de 512GB (a un precio nuevo y m\u00e1s bajo de $499.99 USD), \u00e9sta es la mejor familia de visores de realidad mixta en el mercado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00bfMencionamos que <\/span><a href=\"https:\/\/www.meta.com\/es-es\/experiences\/batman-arkham-shadow\/3551691271620960\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Batman: Arkham Shadow<\/span><\/a><span style=\"font-weight: 400\"> viene incluido con cada nueva compra de alguna de estas tres opciones por un tiempo limitado? Es una oferta excelente.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Y hay un mont\u00f3n de contenido genial para explorar desde el primer d\u00eda. Desde tus servicios de streaming favoritos como las nuevas apps de Amazon Prime Video, Amazon Music y Twitch que se lanzaron hoy hasta apps de fitness como <\/span><a href=\"https:\/\/www.meta.com\/es-es\/experiences\/alo-moves-xr\/5379012005560059\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Alo Moves XR<\/span><\/a><span style=\"font-weight: 400\"> y la funci\u00f3n de multiplayer reci\u00e9n lanzada para <\/span><a href=\"https:\/\/www.meta.com\/es-es\/experiences\/supernatural-unreal-fitness\/1830168170427369\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Supernatural<\/span><\/a><span style=\"font-weight: 400\">, Quest es tu sistema de entretenimiento en casa y entrenador personal en uno. Y pronto podr\u00e1s conectar cualquier computadora con Windows 11 a tu headset Quest, solo mirando tu teclado para conectar los dispositivos. Ya sea que quieras trabajar en displays virtuales masivos o explorar tus proyectos en 3D, Quest es una extensi\u00f3n natural de tu PC y una potencia de productividad.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Porque eso es lo que estamos construyendo: no la pr\u00f3xima plataforma de juegos, sino la pr\u00f3xima plataforma de computaci\u00f3n. Puedes ver pel\u00edculas, escuchar m\u00fasica, trabajar en hojas de c\u00e1lculo, jugar con amigos, salir y conectarte. Y estamos facilitando m\u00e1s que nunca que los desarrolladores creen para Horizon OS, por lo que hay a\u00fan m\u00e1s contenido excelente en camino. Todo lo que tu computadora puede hacer, nuestro visor de realidad mixta puede hacerlo mejor, gracias a la magia de la <\/span><span style=\"font-weight: 400\">presencialidad.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Y hablando de presencia, tambi\u00e9n estamos mejorando eso. Estamos trabajando para traer espacios fotorrealistas al metaverso, permitiendo una manera nueva y profunda de estar juntos en espacios que parecen y se sienten como si estuvieras f\u00edsicamente all\u00ed &#8211; llamamos a esto Hyperscape. Utilizando Gaussian Splatting, una t\u00e9cnica de renderizado de vol\u00famenes 3D, podemos aprovechar el renderizado en la nube y el streaming para que estos espacios puedan verse en cualquier casco aut\u00f3nomo Quest 3 de USA. Hoy, <\/span><a href=\"https:\/\/www.meta.com\/experiences\/horizon-photoreal-beta\/7972066712871980\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">lanzamos una demo<\/span><\/a><span style=\"font-weight: 400\">\u00a0que muestra algunas de estas r\u00e9plicas digitales, incluyendo el estudio art\u00edstico de David Arsham, como mostramos en la presentaci\u00f3n, para que puedas experimentarlo t\u00fa mismo. En el futuro, los creadores podr\u00e1n construir mundos dentro de Horizon usando un tel\u00e9fono para escanear una sala y luego recrearla, llevando espacios f\u00edsicos al mundo digital con facilidad.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esto, queridos amigos, es el futuro.<\/span><\/p>\n<p><b>Inteligencia Artificial, Momento Real<\/b><\/p>\n<p><span style=\"font-weight: 400\">Desde su lanzamiento en 2023, <\/span><a href=\"https:\/\/ai.meta.com\/meta-ai\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Meta AI<\/span><\/a><span style=\"font-weight: 400\"> se ha destacado como un asistente inteligente, ofreciendo a las personas acceso gratuito e ilimitado a la IA de \u00faltima generaci\u00f3n. Est\u00e1 en camino a convertirse en el asistente de IA m\u00e1s utilizado en el mundo para finales de este a\u00f1o. M\u00e1s de 400 millones de personas ya lo utilizan mensualmente, con 185 millones de personas utiliz\u00e1ndolo cada semana en todos nuestros productos. Y lo estamos haciendo m\u00e1s divertido, \u00fatil y capaz que nunca.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos haciendo que tus interacciones con Meta AI sean m\u00e1s naturales a\u00f1adiendo voz. Puedes chatear con Meta AI usando Facebook, Messenger, WhatsApp e Instagram DM, y te responder\u00e1. Y pronto, voces ic\u00f3nicas como Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell dar\u00e1n vida a tu asistente inteligente de IA, y a\u00f1adir\u00e1n un poco m\u00e1s de diversi\u00f3n al proceso.*<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos experimentando con doblaje autom\u00e1tico de v\u00eddeo y sincronizaci\u00f3n labial comenzando con ingl\u00e9s y espa\u00f1ol para ayudar a las personas a ver m\u00e1s contenido en su idioma nativo en los Reels de Instagram y Facebook. Estamos comenzando con un peque\u00f1o grupo de creadores en Instagram y esperamos expandirnos a m\u00e1s creadores e idiomas pronto. Esto deber\u00eda permitir que los creadores alcancen a muchas m\u00e1s personas en todo el mundo, independientemente del idioma que hablen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos a\u00f1adiendo nuevas capacidades a nuestras herramientas de edici\u00f3n de IA. Como Meta AI ahora puede procesar informaci\u00f3n visual, puedes hacer preguntas sobre las fotos que subes. Toma una foto de tu monumento local favorito y pide a Meta AI que te cuente su historia. O sube una foto de una impresionante vista de una monta\u00f1a y preg\u00fantale de qu\u00e9 ruta de senderismo podr\u00eda tratarse. Tambi\u00e9n puedes subir una foto y hacer ediciones precisas con Meta AI utilizando el lenguaje cotidiano. Mientras que antes s\u00f3lo pod\u00edas editar im\u00e1genes generadas por Meta AI, ahora puedes a\u00f1adir, eliminar o cambiar elementos de tu foto real con facilidad.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n estamos desarrollando funciones para Imagine de Meta AI, permiti\u00e9ndote imaginarte a ti mismo en Stories, en tus publicaciones y en tu foto de perfil en Facebook e Instagram. Luego puedes compartir f\u00e1cilmente tus selfies generados por IA para que tus amigos puedan verlos, reaccionar a ellos o imitarlos. Meta AI tambi\u00e9n puede sugerirte pies de foto para tus Stories en Facebook e Instagram. Solo tienes que elegir una foto y nuestra tecnolog\u00eda de IA multimodal generar\u00e1 subt\u00edtulos para que elijas los que m\u00e1s se ajusten a tu imagen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos a\u00f1adiendo temas de chat generados por IA para Messenger e Instagram, para que puedas crear el ambiente perfecto para ti y tu grupo.\u00a0 Y estamos probando nuevos contenidos generados por Meta AI en tus feeds de Facebook e Instagram. Puedes tocar un prompt sugerido para llevar ese contenido en una nueva direcci\u00f3n o deslizarte hacia Imagine para crear nuevo contenido en tiempo real. Algunas de las im\u00e1genes estar\u00e1n basadas en tus intereses, para que puedas profundizar en lo que te importa. Y otras estar\u00e1n protagonizadas por ti, para que seas el protagonista de tu propia historia y compartas tus favoritas con tus amigos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Haz clic aqu\u00ed para aprender m\u00e1s sobre nuestras actualizaciones de productos de IA.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Acabamos de lanzar nuestros nuevos modelos Llama 3.2. Llama 3.2 es nuestro primer gran modelo de visi\u00f3n, lo que significa que comprende im\u00e1genes y texto. Para a\u00f1adir soporte de im\u00e1genes a Llama, entrenamos un conjunto de pesos adaptadores que se integran con los modelos existentes de s\u00f3lo texto de par\u00e1metros 8B y 70B para crear modelos de par\u00e1metros 11B y 90B que tambi\u00e9n entienden las im\u00e1genes.. Y seguimos mejorando la inteligencia, especialmente en el razonamiento, haciendo que estos modelos sean los m\u00e1s avanzados que hemos lanzado hasta la fecha.<\/span><\/p>\n<p><span style=\"font-weight: 400\">De igual forma, presentamos modelos super peque\u00f1os de par\u00e1metros 1B y 3B que est\u00e1n optimizados para funcionar en dispositivos como smartphones o, eventualmente, en pares de gafas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Creemos que <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">la IA de c\u00f3digo abierto es el camino a seguir<\/span><\/a><span style=\"font-weight: 400\">. Es m\u00e1s econ\u00f3mico, personalizable, confiable y, discutiblemente, de mejor rendimiento que la alternativa. Continuaremos impulsando Llama de manera responsable, con mejoras continuas y nuevas funcionalidades. <a href=\"https:\/\/ai.meta.com\/blog\/llama-3-2-connect-2024-vision-edge-mobile-devices\/\" target=\"_blank\" rel=\"noopener\">Aprende m\u00e1s sobre Llama 3.2.<\/a><\/span><\/p>\n<p><b>El maravilloso mundo de los dispositivos port\u00e1tiles<\/b><\/p>\n<p><span style=\"font-weight: 400\">Hubo muchas novedades para los fans de nuestras <\/span><a href=\"https:\/\/www.meta.com\/smart-glasses\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">gafas Ray-Ban Meta.<\/span><\/a><span style=\"font-weight: 400\"> Estamos trabajando para traer nuevas integraciones con Spotify, Shazam, Audible e iHeart. Y estamos mejorando la experiencia con las gafas y tu asistente inteligente, <\/span><a href=\"https:\/\/www.meta.ai\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Meta AI<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Lo estamos haciendo m\u00e1s conversacional y natural. En lugar de tener que decir \u00abHey Meta\u00bb para cada pregunta, puedes iniciar tu conversaci\u00f3n con una palabra de activaci\u00f3n y luego continuar hablando como lo har\u00edas normalmente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos a\u00f1adiendo la posibilidad de que tus gafas te ayuden a recordar cosas. La pr\u00f3xima vez que vueles a alg\u00fan sitio, no tendr\u00e1s que preocuparte por olvidar d\u00f3nde has aparcado: tus gafas recordar\u00e1n por ti tu plaza en el aparcamiento de larga estancia. Con tu voz, puedes programar un recordatorio para enviar un mensaje de texto a tu madre dentro de tres horas, cuando hayas aterrizado sano y salvo. Tambi\u00e9n pueden realizar acciones basadas en el texto que est\u00e1s mirando, por lo que puedes pedirles que llamen a un n\u00famero de tel\u00e9fono de un folleto o que escaneen un c\u00f3digo QR.<\/span><\/p>\n<p><span style=\"font-weight: 400\">As\u00ed mismo, a\u00f1adimos soporte Meta AI para la entrada de v\u00eddeo, para que puedas obtener ayuda continua en tiempo real. Digamos, por ejemplo, que est\u00e1s explorando una nueva ciudad. S\u00f3lo tienes que pedirle a Meta AI que te acompa\u00f1e y conversar con ella para preguntarle sobre los monumentos que ves a medida que te cruzas con ellos o para obtener ideas sobre qu\u00e9 ver a continuaci\u00f3n, creando tu propio recorrido a pie con las manos libres.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Pronto tus gafas ser\u00e1n capaces de traducir el habla en tiempo real. Cuando hables con alguien en espa\u00f1ol, franc\u00e9s o italiano, escuchar\u00e1s lo que dice en ingl\u00e9s a trav\u00e9s de los altavoces de las gafas. Esto no s\u00f3lo es estupendo para viajar, sino que deber\u00eda ayudar a derribar las barreras ling\u00fc\u00edsticas y acercar a las personas. Tenemos previsto a\u00f1adir m\u00e1s idiomas en el futuro para que esta funci\u00f3n sea a\u00fan m\u00e1s \u00fatil.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nos hemos aliado con<\/span><a href=\"https:\/\/www.bemyeyes.com\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Be My Eyes<\/span><\/a><span style=\"font-weight: 400\">, una aplicaci\u00f3n gratuita que conecta a personas ciegas y con baja visi\u00f3n con voluntarios videntes a trav\u00e9s de v\u00eddeo en directo para que puedan explicarte lo que tienes delante. Gracias a las gafas, el voluntario puede ver f\u00e1cilmente tu punto de vista y explicarte lo que te rodea.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Incorporamos la nueva gama de lentes<\/span><a href=\"https:\/\/www.transitions.com\/en-us\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">Transitions\u00ae<\/span><\/a><span style=\"font-weight: 400\"> de<\/span><a href=\"https:\/\/www.essilorluxottica.com\/en\/\" target=\"_blank\" rel=\"noopener\"> <span style=\"font-weight: 400\">EssilorLuxottica<\/span><\/a> <span style=\"font-weight: 400\">a la colecci\u00f3n Ray-Ban Meta, lo que le ofrece a\u00fan m\u00e1s opciones a la hora de elegir el par perfecto para pasar del interior al exterior y viceversa. Adem\u00e1s, lanzamos una nueva edici\u00f3n limitada de monturas Shiny Transparent Wayfarer para que puedas presumir de la tecnolog\u00eda que llevan dentro. Consigue las tuyas antes de que se acaben.<\/span><\/p>\n<p><span style=\"font-weight: 400\"><a href=\"https:\/\/www.meta.com\/en-gb\/blog\/quest\/ray-ban-meta-glasses-collection-news-updates-connect-2024\/\" target=\"_blank\" rel=\"noopener\">Haz clic aqu\u00ed<\/a> para aprender m\u00e1s.\u00a0<\/span><\/p>\n<h3><b>Presentamos Orion: nuestras primeras gafas de realidad aumentada<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Por \u00faltimo, pero no menos importante, hoy presentamos Orion, un producto que hemos desarrollado durante 10 a\u00f1os. Los requisitos eran sencillos: deb\u00edan ser unas gafas, no unos auriculares, sin cables y con un peso inferior a 100 gramos. Necesitaba pantallas con un amplio campo de visi\u00f3n, lo bastante luminosas para ver con claridad con distinta iluminaci\u00f3n y lo bastante grandes para albergar varias pantallas para multitarea o una pantalla de cine para entretenimiento. Y ten\u00eda que permitirte ver el mundo f\u00edsico que te rodea. No una representaci\u00f3n del mundo f\u00edsico a trav\u00e9s de Passthrough. El mundo f\u00edsico <\/span><i><span style=\"font-weight: 400\">real<\/span><\/i><span style=\"font-weight: 400\"> con contenido digital superpuesto.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Necesitaba controles de voz y seguimiento ocular y manual para ayudarte a navegar por la interfaz de usuario. Pero tambi\u00e9n quer\u00edamos una forma de comunicarnos con las gafas discreta, privada y socialmente aceptable. As\u00ed que tambi\u00e9n necesitaba una nueva interfaz.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Orion cumple todos esos requisitos. Es una proeza de miniaturizaci\u00f3n con 10 chips de silicio personalizados y una arquitectura de pantalla completamente nueva. Incluye una pulsera EMG para una entrada de datos perfecta. Y es un prototipo de producto acabado y viable. No es s\u00f3lo un atisbo de lo que ser\u00e1 posible en el futuro: Es una mirada a la realidad que ya est\u00e1 a nuestro alcance.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con Orion, estamos a un importante paso m\u00e1s cerca de cumplir la promesa de la pr\u00f3xima gran ola de inform\u00e1tica orientada al ser humano y un profundo sentido de la presencia con otras personas, independientemente del lugar del mundo en el que se encuentren.<\/span><\/p>\n<p><a href=\"https:\/\/www.meta.com\/en-gb\/blog\/quest\/orion-ar-glasses-augmented-reality\/\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400\">Conoce aqu\u00ed m\u00e1s informaci\u00f3n sobre Orion.<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400\">Este es el futuro de la conexi\u00f3n humana. Es un momento emocionante para construir, y estamos agradecidos con todos los desarrolladores que construyen junto a nosotros, a los primeros usuarios que han cre\u00eddo en esta tecnolog\u00eda durante a\u00f1os, y a las mentes curiosas que se unen hoy a nosotros en este viaje. Gracias a todos.<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">*Las actualizaciones de voz de Meta AI s\u00f3lo est\u00e1n disponibles en ingl\u00e9s en Australia, Canad\u00e1, Nueva Zelanda y Estados Unidos.<\/span><\/i><\/p>\n","protected":false},"excerpt":{"rendered":"2024 ha sido un a\u00f1o muy ocupado. Lanzamos el primer visor de realidad mixta para consumo masivo con Meta Quest 3, revolucionamos el mercado de gafas con la colecci\u00f3n Ray-Ban Meta y lanzamos varios modelos de lenguaje, incluyendo el primer modelo de IA de c\u00f3digo abierto a nivel de frontera. Estos avances representan un progreso considerable en el camino hacia la pr\u00f3xima plataforma de computaci\u00f3n que pone a las personas en el centro. Y hoy, en nuestra 11\u00aa conferencia anual Connect, el fundador y CEO de Meta, Mark Zuckerberg, comparti\u00f3 las \u00faltimas novedades y desarrollos en realidad mixta, IA y dispositivos port\u00e1tiles, todos ellos encaminados hacia nuestra visi\u00f3n de un futuro abierto y m\u00e1s conectado. Movimientos de Realidad Mixta: Meta Quest 3S, Actualizaciones de Horizon OS y m\u00e1s Meta Quest 3S promete ofrecer experiencias incre\u00edbles a un precio inigualable. Est\u00e1 disponible desde $299.99, haciendo accesible la realidad mixta de alta calidad a m\u00e1s personas que nunca. Puedes hacer tu pre-pedido hoy; el dispositivo llegar\u00e1 a las tiendas el 15 de octubre. El Quest 3S cuenta con las mismas caracter\u00edsticas definitorias del Quest 3: realidad mixta a color de alta resoluci\u00f3n que permite una integraci\u00f3n perfecta entre los mundos f\u00edsico y virtual, impulsada por la plataforma Snapdragon XR2 Gen 2, que se desarroll\u00f3 en estrecha colaboraci\u00f3n con Qualcomm Technologies. Ofrece seguimiento de manos para interacciones naturales y controladores Touch Plus para precisi\u00f3n. Tienes acceso a toda la gama de experiencias disponibles en Meta Horizon OS, incluyendo entretenimiento, fitness, juegos, productividad, experiencias sociales y mucho m\u00e1s. Y el visor mejora con el tiempo, gracias a las actualizaciones regulares de software. \u00bfQu\u00e9 hay de diferente? Los principales cambios est\u00e1n en el dise\u00f1o, los lentes Fresnel y un campo de visi\u00f3n un poco m\u00e1s estrecho. Ya sea que quieras probar nuestro modelo base de 128GB Quest 3S, actualices al modelo de 256GB para m\u00e1s almacenamiento o te sumerjas en una experiencia de alta gama con el Quest 3 de 512GB (a un precio nuevo y m\u00e1s bajo de $499.99 USD), \u00e9sta es la mejor familia de visores de realidad mixta en el mercado. \u00bfMencionamos que Batman: Arkham Shadow viene incluido con cada nueva compra de alguna de estas tres opciones por un tiempo limitado? Es una oferta excelente. Y hay un mont\u00f3n de contenido genial para explorar desde el primer d\u00eda. Desde tus servicios de streaming favoritos como las nuevas apps de Amazon Prime Video, Amazon Music y Twitch que se lanzaron hoy hasta apps de fitness como Alo Moves XR y la funci\u00f3n de multiplayer reci\u00e9n lanzada para Supernatural, Quest es tu sistema de entretenimiento en casa y entrenador personal en uno. Y pronto podr\u00e1s conectar cualquier computadora con Windows 11 a tu headset Quest, solo mirando tu teclado para conectar los dispositivos. Ya sea que quieras trabajar en displays virtuales masivos o explorar tus proyectos en 3D, Quest es una extensi\u00f3n natural de tu PC y una potencia de productividad. Porque eso es lo que estamos construyendo: no la pr\u00f3xima plataforma de juegos, sino la pr\u00f3xima plataforma de computaci\u00f3n. Puedes ver pel\u00edculas, escuchar m\u00fasica, trabajar en hojas de c\u00e1lculo, jugar con amigos, salir y conectarte. Y estamos facilitando m\u00e1s que nunca que los desarrolladores creen para Horizon OS, por lo que hay a\u00fan m\u00e1s contenido excelente en camino. Todo lo que tu computadora puede hacer, nuestro visor de realidad mixta puede hacerlo mejor, gracias a la magia de la presencialidad. Y hablando de presencia, tambi\u00e9n estamos mejorando eso. Estamos trabajando para traer espacios fotorrealistas al metaverso, permitiendo una manera nueva y profunda de estar juntos en espacios que parecen y se sienten como si estuvieras f\u00edsicamente all\u00ed &#8211; llamamos a esto Hyperscape. Utilizando Gaussian Splatting, una t\u00e9cnica de renderizado de vol\u00famenes 3D, podemos aprovechar el renderizado en la nube y el streaming para que estos espacios puedan verse en cualquier casco aut\u00f3nomo Quest 3 de USA. Hoy, lanzamos una demo\u00a0que muestra algunas de estas r\u00e9plicas digitales, incluyendo el estudio art\u00edstico de David Arsham, como mostramos en la presentaci\u00f3n, para que puedas experimentarlo t\u00fa mismo. En el futuro, los creadores podr\u00e1n construir mundos dentro de Horizon usando un tel\u00e9fono para escanear una sala y luego recrearla, llevando espacios f\u00edsicos al mundo digital con facilidad. Esto, queridos amigos, es el futuro. Inteligencia Artificial, Momento Real Desde su lanzamiento en 2023, Meta AI se ha destacado como un asistente inteligente, ofreciendo a las personas acceso gratuito e ilimitado a la IA de \u00faltima generaci\u00f3n. Est\u00e1 en camino a convertirse en el asistente de IA m\u00e1s utilizado en el mundo para finales de este a\u00f1o. M\u00e1s de 400 millones de personas ya lo utilizan mensualmente, con 185 millones de personas utiliz\u00e1ndolo cada semana en todos nuestros productos. Y lo estamos haciendo m\u00e1s divertido, \u00fatil y capaz que nunca. Estamos haciendo que tus interacciones con Meta AI sean m\u00e1s naturales a\u00f1adiendo voz. Puedes chatear con Meta AI usando Facebook, Messenger, WhatsApp e Instagram DM, y te responder\u00e1. Y pronto, voces ic\u00f3nicas como Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell dar\u00e1n vida a tu asistente inteligente de IA, y a\u00f1adir\u00e1n un poco m\u00e1s de diversi\u00f3n al proceso.* Estamos experimentando con doblaje autom\u00e1tico de v\u00eddeo y sincronizaci\u00f3n labial comenzando con ingl\u00e9s y espa\u00f1ol para ayudar a las personas a ver m\u00e1s contenido en su idioma nativo en los Reels de Instagram y Facebook. Estamos comenzando con un peque\u00f1o grupo de creadores en Instagram y esperamos expandirnos a m\u00e1s creadores e idiomas pronto. Esto deber\u00eda permitir que los creadores alcancen a muchas m\u00e1s personas en todo el mundo, independientemente del idioma que hablen. Estamos a\u00f1adiendo nuevas capacidades a nuestras herramientas de edici\u00f3n de IA. Como Meta AI ahora puede procesar informaci\u00f3n visual, puedes hacer preguntas sobre las fotos que subes. Toma una foto de tu monumento local favorito y pide a Meta AI que te cuente su historia. O sube una foto de una impresionante vista de una monta\u00f1a y preg\u00fantale de qu\u00e9 ruta de senderismo podr\u00eda tratarse. Tambi\u00e9n puedes subir una foto y hacer ediciones precisas con Meta AI utilizando el lenguaje cotidiano. Mientras que antes s\u00f3lo pod\u00edas editar im\u00e1genes generadas por Meta AI, ahora puedes a\u00f1adir, eliminar o cambiar elementos de tu foto real con facilidad. Tambi\u00e9n estamos desarrollando funciones para Imagine de Meta AI, permiti\u00e9ndote imaginarte a ti mismo en Stories, en tus publicaciones y en tu foto de perfil en Facebook e Instagram. Luego puedes compartir f\u00e1cilmente tus selfies generados por IA para que tus amigos puedan verlos, reaccionar a ellos o imitarlos. Meta AI tambi\u00e9n puede sugerirte pies de foto para tus Stories en Facebook e Instagram. Solo tienes que elegir una foto y nuestra tecnolog\u00eda de IA multimodal generar\u00e1 subt\u00edtulos para que elijas los que m\u00e1s se ajusten a tu imagen. Estamos a\u00f1adiendo temas de chat generados por IA para Messenger e Instagram, para que puedas crear el ambiente perfecto para ti y tu grupo.\u00a0 Y estamos probando nuevos contenidos generados por Meta AI en tus feeds de Facebook e Instagram. Puedes tocar un prompt sugerido para llevar ese contenido en una nueva direcci\u00f3n o deslizarte hacia Imagine para crear nuevo contenido en tiempo real. Algunas de las im\u00e1genes estar\u00e1n basadas en tus intereses, para que puedas profundizar en lo que te importa. Y otras estar\u00e1n protagonizadas por ti, para que seas el protagonista de tu propia historia y compartas tus favoritas con tus amigos.\u00a0 Haz clic aqu\u00ed para aprender m\u00e1s sobre nuestras actualizaciones de productos de IA. Acabamos de lanzar nuestros nuevos modelos Llama 3.2. Llama 3.2 es nuestro primer gran modelo de visi\u00f3n, lo que significa que comprende im\u00e1genes y texto. Para a\u00f1adir soporte de im\u00e1genes a Llama, entrenamos un conjunto de pesos adaptadores que se integran con los modelos existentes de s\u00f3lo texto de par\u00e1metros 8B y 70B para crear modelos de par\u00e1metros 11B y 90B que tambi\u00e9n entienden las im\u00e1genes.. Y seguimos mejorando la inteligencia, especialmente en el razonamiento, haciendo que estos modelos sean los m\u00e1s avanzados que hemos lanzado hasta la fecha. De igual forma, presentamos modelos super peque\u00f1os de par\u00e1metros 1B y 3B que est\u00e1n optimizados para funcionar en dispositivos como smartphones o, eventualmente, en pares de gafas. Creemos que la IA de c\u00f3digo abierto es el camino a seguir. Es m\u00e1s econ\u00f3mico, personalizable, confiable y, discutiblemente, de mejor rendimiento que la alternativa. Continuaremos impulsando Llama de manera responsable, con mejoras continuas y nuevas funcionalidades. Aprende m\u00e1s sobre Llama 3.2. El maravilloso mundo de los dispositivos port\u00e1tiles Hubo muchas novedades para los fans de nuestras gafas Ray-Ban Meta. Estamos trabajando para traer nuevas integraciones con Spotify, Shazam, Audible e iHeart. Y estamos mejorando la experiencia con las gafas y tu asistente inteligente, Meta AI. Lo estamos haciendo m\u00e1s conversacional y natural. En lugar de tener que decir \u00abHey Meta\u00bb para cada pregunta, puedes iniciar tu conversaci\u00f3n con una palabra de activaci\u00f3n y luego continuar hablando como lo har\u00edas normalmente.\u00a0 Estamos a\u00f1adiendo la posibilidad de que tus gafas te ayuden a recordar cosas. La pr\u00f3xima vez que vueles a alg\u00fan sitio, no tendr\u00e1s que preocuparte por olvidar d\u00f3nde has aparcado: tus gafas recordar\u00e1n por ti tu plaza en el aparcamiento de larga estancia. Con tu voz, puedes programar un recordatorio para enviar un mensaje de texto a tu madre dentro de tres horas, cuando hayas aterrizado sano y salvo. Tambi\u00e9n pueden realizar acciones basadas en el texto que est\u00e1s mirando, por lo que puedes pedirles que llamen a un n\u00famero de tel\u00e9fono de un folleto o que escaneen un c\u00f3digo QR. As\u00ed mismo, a\u00f1adimos soporte Meta AI para la entrada de v\u00eddeo, para que puedas obtener ayuda continua en tiempo real. Digamos, por ejemplo, que est\u00e1s explorando una nueva ciudad. S\u00f3lo tienes que pedirle a Meta AI que te acompa\u00f1e y conversar con ella para preguntarle sobre los monumentos que ves a medida que te cruzas con ellos o para obtener ideas sobre qu\u00e9 ver a continuaci\u00f3n, creando tu propio recorrido a pie con las manos libres. Pronto tus gafas ser\u00e1n capaces de traducir el habla en tiempo real. Cuando hables con alguien en espa\u00f1ol, franc\u00e9s o italiano, escuchar\u00e1s lo que dice en ingl\u00e9s a trav\u00e9s de los altavoces de las gafas. Esto no s\u00f3lo es estupendo para viajar, sino que deber\u00eda ayudar a derribar las barreras ling\u00fc\u00edsticas y acercar a las personas. Tenemos previsto a\u00f1adir m\u00e1s idiomas en el futuro para que esta funci\u00f3n sea a\u00fan m\u00e1s \u00fatil. Nos hemos aliado con Be My Eyes, una aplicaci\u00f3n gratuita que conecta a personas ciegas y con baja visi\u00f3n con voluntarios videntes a trav\u00e9s de v\u00eddeo en directo para que puedan explicarte lo que tienes delante. Gracias a las gafas, el voluntario puede ver f\u00e1cilmente tu punto de vista y explicarte lo que te rodea. Incorporamos la nueva gama de lentes Transitions\u00ae de EssilorLuxottica a la colecci\u00f3n Ray-Ban Meta, lo que le ofrece a\u00fan m\u00e1s opciones a la hora de elegir el par perfecto para pasar del interior al exterior y viceversa. Adem\u00e1s, lanzamos una nueva edici\u00f3n limitada de monturas Shiny Transparent Wayfarer para que puedas presumir de la tecnolog\u00eda que llevan dentro. Consigue las tuyas antes de que se acaben. Haz clic aqu\u00ed para aprender m\u00e1s.\u00a0 Presentamos Orion: nuestras primeras gafas de realidad aumentada Por \u00faltimo, pero no menos importante, hoy presentamos Orion, un producto que hemos desarrollado durante 10 a\u00f1os. Los requisitos eran sencillos: deb\u00edan ser unas gafas, no unos auriculares, sin cables y con un peso inferior a 100 gramos. Necesitaba pantallas con un amplio campo de visi\u00f3n, lo bastante luminosas para ver con claridad con distinta iluminaci\u00f3n y lo bastante grandes para albergar varias pantallas para multitarea o una pantalla de cine para entretenimiento. Y ten\u00eda que permitirte ver el mundo f\u00edsico que te rodea. No una representaci\u00f3n del mundo f\u00edsico a trav\u00e9s de Passthrough. El mundo f\u00edsico real con contenido digital superpuesto. Necesitaba controles de voz y seguimiento ocular y manual para ayudarte a navegar por la interfaz de usuario. Pero tambi\u00e9n quer\u00edamos una forma de comunicarnos con las gafas discreta, privada y socialmente aceptable. As\u00ed que tambi\u00e9n necesitaba una nueva interfaz. Orion cumple todos esos requisitos. Es una proeza de miniaturizaci\u00f3n con 10 chips de silicio personalizados y una arquitectura de pantalla completamente nueva. Incluye una pulsera EMG para una entrada de datos perfecta. Y es un prototipo de producto acabado y viable. No es s\u00f3lo un atisbo de lo que ser\u00e1 posible en el futuro: Es una mirada a la realidad que ya est\u00e1 a nuestro alcance. Con Orion, estamos a un importante paso m\u00e1s cerca de cumplir la promesa de la pr\u00f3xima gran ola de inform\u00e1tica orientada al ser humano y un profundo sentido de la presencia con otras personas, independientemente del lugar del mundo en el que se encuentren. Conoce aqu\u00ed m\u00e1s informaci\u00f3n sobre Orion. Este es el futuro de la conexi\u00f3n humana. Es un momento emocionante para construir, y estamos agradecidos con todos los desarrolladores que construyen junto a nosotros, a los primeros usuarios que han cre\u00eddo en esta tecnolog\u00eda durante a\u00f1os, y a las mentes curiosas que se unen hoy a nosotros en este viaje. Gracias a todos. *Las actualizaciones de voz de Meta AI s\u00f3lo est\u00e1n disponibles en ingl\u00e9s en Australia, Canad\u00e1, Nueva Zelanda y Estados Unidos.","protected":false},"author":155592861,"featured_media":25509,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30660046,243948117,1],"tags":[],"class_list":["post-25439","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias-de-la-empresa","category-tecnologia-e-innovacion","category-uncategorized"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"2024 ha sido un a\u00f1o muy ocupado. Lanzamos el primer visor de realidad mixta para consumo masivo con Meta Quest 3, revolucionamos el mercado de gafas con la colecci\u00f3n Ray-Ban Meta y lanzamos varios modelos de lenguaje, incluyendo el primer modelo de IA de c\u00f3digo abierto a nivel de frontera. Estos avances representan un progreso considerable en el camino hacia la pr\u00f3xima plataforma de computaci\u00f3n que pone a las personas en el centro. Y hoy, en nuestra 11\u00aa conferencia anual Connect, el fundador y CEO de Meta, Mark Zuckerberg, comparti\u00f3 las \u00faltimas novedades y desarrollos en realidad mixta, IA y dispositivos port\u00e1tiles, todos ellos encaminados hacia nuestra visi\u00f3n de un futuro abierto y m\u00e1s conectado. Movimientos de Realidad Mixta: Meta Quest 3S, Actualizaciones de Horizon OS y m\u00e1s Meta Quest 3S promete ofrecer experiencias incre\u00edbles a un precio inigualable. Est\u00e1 disponible desde $299.99, haciendo accesible la realidad mixta de alta calidad a m\u00e1s personas que nunca. Puedes hacer tu pre-pedido hoy; el dispositivo llegar\u00e1 a las tiendas el 15 de octubre. El Quest 3S cuenta con las mismas caracter\u00edsticas definitorias del Quest 3: realidad mixta a color de alta resoluci\u00f3n que permite una integraci\u00f3n perfecta entre los mundos f\u00edsico y virtual, impulsada por la plataforma Snapdragon XR2 Gen 2, que se desarroll\u00f3 en estrecha colaboraci\u00f3n con Qualcomm Technologies. Ofrece seguimiento de manos para interacciones naturales y controladores Touch Plus para precisi\u00f3n. Tienes acceso a toda la gama de experiencias disponibles en Meta Horizon OS, incluyendo entretenimiento, fitness, juegos, productividad, experiencias sociales y mucho m\u00e1s. Y el visor mejora con el tiempo, gracias a las actualizaciones regulares de software. \u00bfQu\u00e9 hay de diferente? Los principales cambios est\u00e1n en el dise\u00f1o, los lentes Fresnel y un campo de visi\u00f3n un poco m\u00e1s estrecho. Ya sea que quieras probar nuestro modelo base de 128GB Quest 3S, actualices al modelo de 256GB para m\u00e1s almacenamiento o te sumerjas en una experiencia de alta gama con el Quest 3 de 512GB (a un precio nuevo y m\u00e1s bajo de $499.99 USD), \u00e9sta es la mejor familia de visores de realidad mixta en el mercado. \u00bfMencionamos que Batman: Arkham Shadow viene incluido con cada nueva compra de alguna de estas tres opciones por un tiempo limitado? Es una oferta excelente. Y hay un mont\u00f3n de contenido genial para explorar desde el primer d\u00eda. Desde tus servicios de streaming favoritos como las nuevas apps de Amazon Prime Video, Amazon Music y Twitch que se lanzaron hoy hasta apps de fitness como Alo Moves XR y la funci\u00f3n de multiplayer reci\u00e9n lanzada para Supernatural, Quest es tu sistema de entretenimiento en casa y entrenador personal en uno. Y pronto podr\u00e1s conectar cualquier computadora con Windows 11 a tu headset Quest, solo mirando tu teclado para conectar los dispositivos. Ya sea que quieras trabajar en displays virtuales masivos o explorar tus proyectos en 3D, Quest es una extensi\u00f3n natural de tu PC y una potencia de productividad. Porque eso es lo que estamos construyendo: no la pr\u00f3xima plataforma de juegos, sino la pr\u00f3xima plataforma de computaci\u00f3n. Puedes ver pel\u00edculas, escuchar m\u00fasica, trabajar en hojas de c\u00e1lculo, jugar con amigos, salir y conectarte. Y estamos facilitando m\u00e1s que nunca que los desarrolladores creen para Horizon OS, por lo que hay a\u00fan m\u00e1s contenido excelente en camino. Todo lo que tu computadora puede hacer, nuestro visor de realidad mixta puede hacerlo mejor, gracias a la magia de la presencialidad. Y hablando de presencia, tambi\u00e9n estamos mejorando eso. Estamos trabajando para traer espacios fotorrealistas al metaverso, permitiendo una manera nueva y profunda de estar juntos en espacios que parecen y se sienten como si estuvieras f\u00edsicamente all\u00ed &#8211; llamamos a esto Hyperscape. Utilizando Gaussian Splatting, una t\u00e9cnica de renderizado de vol\u00famenes 3D, podemos aprovechar el renderizado en la nube y el streaming para que estos espacios puedan verse en cualquier casco aut\u00f3nomo Quest 3 de USA. Hoy, lanzamos una demo\u00a0que muestra algunas de estas r\u00e9plicas digitales, incluyendo el estudio art\u00edstico de David Arsham, como mostramos en la presentaci\u00f3n, para que puedas experimentarlo t\u00fa mismo. En el futuro, los creadores podr\u00e1n construir mundos dentro de Horizon usando un tel\u00e9fono para escanear una sala y luego recrearla, llevando espacios f\u00edsicos al mundo digital con facilidad. Esto, queridos amigos, es el futuro. Inteligencia Artificial, Momento Real Desde su lanzamiento en 2023, Meta AI se ha destacado como un asistente inteligente, ofreciendo a las personas acceso gratuito e ilimitado a la IA de \u00faltima generaci\u00f3n. Est\u00e1 en camino a convertirse en el asistente de IA m\u00e1s utilizado en el mundo para finales de este a\u00f1o. M\u00e1s de 400 millones de personas ya lo utilizan mensualmente, con 185 millones de personas utiliz\u00e1ndolo cada semana en todos nuestros productos. Y lo estamos haciendo m\u00e1s divertido, \u00fatil y capaz que nunca. Estamos haciendo que tus interacciones con Meta AI sean m\u00e1s naturales a\u00f1adiendo voz. Puedes chatear con Meta AI usando Facebook, Messenger, WhatsApp e Instagram DM, y te responder\u00e1. Y pronto, voces ic\u00f3nicas como Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell dar\u00e1n vida a tu asistente inteligente de IA, y a\u00f1adir\u00e1n un poco m\u00e1s de diversi\u00f3n al proceso.* Estamos experimentando con doblaje autom\u00e1tico de v\u00eddeo y sincronizaci\u00f3n labial comenzando con ingl\u00e9s y espa\u00f1ol para ayudar a las personas a ver m\u00e1s contenido en su idioma nativo en los Reels de Instagram y Facebook. Estamos comenzando con un peque\u00f1o grupo de creadores en Instagram y esperamos expandirnos a m\u00e1s creadores e idiomas pronto. Esto deber\u00eda permitir que los creadores alcancen a muchas m\u00e1s personas en todo el mundo, independientemente del idioma que hablen. Estamos a\u00f1adiendo nuevas capacidades a nuestras herramientas de edici\u00f3n de IA. Como Meta AI ahora puede procesar informaci\u00f3n visual, puedes hacer preguntas sobre las fotos que subes. Toma una foto de tu monumento local favorito y pide a Meta AI que te cuente su historia. O sube una foto de una impresionante vista de una monta\u00f1a y preg\u00fantale de qu\u00e9 ruta de senderismo podr\u00eda tratarse. Tambi\u00e9n puedes subir una foto y hacer ediciones precisas con Meta AI utilizando el lenguaje cotidiano. Mientras que antes s\u00f3lo pod\u00edas editar im\u00e1genes generadas por Meta AI, ahora puedes a\u00f1adir, eliminar o cambiar elementos de tu foto real con facilidad. Tambi\u00e9n estamos desarrollando funciones para Imagine de Meta AI, permiti\u00e9ndote imaginarte a ti mismo en Stories, en tus publicaciones y en tu foto de perfil en Facebook e Instagram. Luego puedes compartir f\u00e1cilmente tus selfies generados por IA para que tus amigos puedan verlos, reaccionar a ellos o imitarlos. Meta AI tambi\u00e9n puede sugerirte pies de foto para tus Stories en Facebook e Instagram. Solo tienes que elegir una foto y nuestra tecnolog\u00eda de IA multimodal generar\u00e1 subt\u00edtulos para que elijas los que m\u00e1s se ajusten a tu imagen. Estamos a\u00f1adiendo temas de chat generados por IA para Messenger e Instagram, para que puedas crear el ambiente perfecto para ti y tu grupo.\u00a0 Y estamos probando nuevos contenidos generados por Meta AI en tus feeds de Facebook e Instagram. Puedes tocar un prompt sugerido para llevar ese contenido en una nueva direcci\u00f3n o deslizarte hacia Imagine para crear nuevo contenido en tiempo real. Algunas de las im\u00e1genes estar\u00e1n basadas en tus intereses, para que puedas profundizar en lo que te importa. Y otras estar\u00e1n protagonizadas por ti, para que seas el protagonista de tu propia historia y compartas tus favoritas con tus amigos.\u00a0 Haz clic aqu\u00ed para aprender m\u00e1s sobre nuestras actualizaciones de productos de IA. Acabamos de lanzar nuestros nuevos modelos Llama 3.2. Llama 3.2 es nuestro primer gran modelo de visi\u00f3n, lo que significa que comprende im\u00e1genes y texto. Para a\u00f1adir soporte de im\u00e1genes a Llama, entrenamos un conjunto de pesos adaptadores que se integran con los modelos existentes de s\u00f3lo texto de par\u00e1metros 8B y 70B para crear modelos de par\u00e1metros 11B y 90B que tambi\u00e9n entienden las im\u00e1genes.. Y seguimos mejorando la inteligencia, especialmente en el razonamiento, haciendo que estos modelos sean los m\u00e1s avanzados que hemos lanzado hasta la fecha. De igual forma, presentamos modelos super peque\u00f1os de par\u00e1metros 1B y 3B que est\u00e1n optimizados para funcionar en dispositivos como smartphones o, eventualmente, en pares de gafas. Creemos que la IA de c\u00f3digo abierto es el camino a seguir. Es m\u00e1s econ\u00f3mico, personalizable, confiable y, discutiblemente, de mejor rendimiento que la alternativa. Continuaremos impulsando Llama de manera responsable, con mejoras continuas y nuevas funcionalidades. Aprende m\u00e1s sobre Llama 3.2. El maravilloso mundo de los dispositivos port\u00e1tiles Hubo muchas novedades para los fans de nuestras gafas Ray-Ban Meta. Estamos trabajando para traer nuevas integraciones con Spotify, Shazam, Audible e iHeart. Y estamos mejorando la experiencia con las gafas y tu asistente inteligente, Meta AI. Lo estamos haciendo m\u00e1s conversacional y natural. En lugar de tener que decir \u00abHey Meta\u00bb para cada pregunta, puedes iniciar tu conversaci\u00f3n con una palabra de activaci\u00f3n y luego continuar hablando como lo har\u00edas normalmente.\u00a0 Estamos a\u00f1adiendo la posibilidad de que tus gafas te ayuden a recordar cosas. La pr\u00f3xima vez que vueles a alg\u00fan sitio, no tendr\u00e1s que preocuparte por olvidar d\u00f3nde has aparcado: tus gafas recordar\u00e1n por ti tu plaza en el aparcamiento de larga estancia. Con tu voz, puedes programar un recordatorio para enviar un mensaje de texto a tu madre dentro de tres horas, cuando hayas aterrizado sano y salvo. Tambi\u00e9n pueden realizar acciones basadas en el texto que est\u00e1s mirando, por lo que puedes pedirles que llamen a un n\u00famero de tel\u00e9fono de un folleto o que escaneen un c\u00f3digo QR. As\u00ed mismo, a\u00f1adimos soporte Meta AI para la entrada de v\u00eddeo, para que puedas obtener ayuda continua en tiempo real. Digamos, por ejemplo, que est\u00e1s explorando una nueva ciudad. S\u00f3lo tienes que pedirle a Meta AI que te acompa\u00f1e y conversar con ella para preguntarle sobre los monumentos que ves a medida que te cruzas con ellos o para obtener ideas sobre qu\u00e9 ver a continuaci\u00f3n, creando tu propio recorrido a pie con las manos libres. Pronto tus gafas ser\u00e1n capaces de traducir el habla en tiempo real. Cuando hables con alguien en espa\u00f1ol, franc\u00e9s o italiano, escuchar\u00e1s lo que dice en ingl\u00e9s a trav\u00e9s de los altavoces de las gafas. Esto no s\u00f3lo es estupendo para viajar, sino que deber\u00eda ayudar a derribar las barreras ling\u00fc\u00edsticas y acercar a las personas. Tenemos previsto a\u00f1adir m\u00e1s idiomas en el futuro para que esta funci\u00f3n sea a\u00fan m\u00e1s \u00fatil. Nos hemos aliado con Be My Eyes, una aplicaci\u00f3n gratuita que conecta a personas ciegas y con baja visi\u00f3n con voluntarios videntes a trav\u00e9s de v\u00eddeo en directo para que puedan explicarte lo que tienes delante. Gracias a las gafas, el voluntario puede ver f\u00e1cilmente tu punto de vista y explicarte lo que te rodea. Incorporamos la nueva gama de lentes Transitions\u00ae de EssilorLuxottica a la colecci\u00f3n Ray-Ban Meta, lo que le ofrece a\u00fan m\u00e1s opciones a la hora de elegir el par perfecto para pasar del interior al exterior y viceversa. Adem\u00e1s, lanzamos una nueva edici\u00f3n limitada de monturas Shiny Transparent Wayfarer para que puedas presumir de la tecnolog\u00eda que llevan dentro. Consigue las tuyas antes de que se acaben. Haz clic aqu\u00ed para aprender m\u00e1s.\u00a0 Presentamos Orion: nuestras primeras gafas de realidad aumentada Por \u00faltimo, pero no menos importante, hoy presentamos Orion, un producto que hemos desarrollado durante 10 a\u00f1os. Los requisitos eran sencillos: deb\u00edan ser unas gafas, no unos auriculares, sin cables y con un peso inferior a 100 gramos. Necesitaba pantallas con un amplio campo de visi\u00f3n, lo bastante luminosas para ver con claridad con distinta iluminaci\u00f3n y lo bastante grandes para albergar varias pantallas para multitarea o una pantalla de cine para entretenimiento. Y ten\u00eda que permitirte ver el mundo f\u00edsico que te rodea. No una representaci\u00f3n del mundo f\u00edsico a trav\u00e9s de Passthrough. El mundo f\u00edsico real con contenido digital superpuesto. Necesitaba controles de voz y seguimiento ocular y manual para ayudarte a navegar por la interfaz de usuario. Pero tambi\u00e9n quer\u00edamos una forma de comunicarnos con las gafas discreta, privada y socialmente aceptable. As\u00ed que tambi\u00e9n necesitaba una nueva interfaz. Orion cumple todos esos requisitos. Es una proeza de miniaturizaci\u00f3n con 10 chips de silicio personalizados y una arquitectura de pantalla completamente nueva. Incluye una pulsera EMG para una entrada de datos perfecta. Y es un prototipo de producto acabado y viable. No es s\u00f3lo un atisbo de lo que ser\u00e1 posible en el futuro: Es una mirada a la realidad que ya est\u00e1 a nuestro alcance. Con Orion, estamos a un importante paso m\u00e1s cerca de cumplir la promesa de la pr\u00f3xima gran ola de inform\u00e1tica orientada al ser humano y un profundo sentido de la presencia con otras personas, independientemente del lugar del mundo en el que se encuentren. Conoce aqu\u00ed m\u00e1s informaci\u00f3n sobre Orion. Este es el futuro de la conexi\u00f3n humana. Es un momento emocionante para construir, y estamos agradecidos con todos los desarrolladores que construyen junto a nosotros, a los primeros usuarios que han cre\u00eddo en esta tecnolog\u00eda durante a\u00f1os, y a las mentes curiosas que se unen hoy a nosotros en este viaje. Gracias a todos. *Las actualizaciones de voz de Meta AI s\u00f3lo est\u00e1n disponibles en ingl\u00e9s en Australia, Canad\u00e1, Nueva Zelanda y Estados Unidos.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-25T18:10:23+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-25T18:17:56+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"ceciliacartoceti\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\"},\"author\":\"Facebook company\",\"headline\":\"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s\",\"datePublished\":\"2024-09-25T18:10:23+00:00\",\"dateModified\":\"2024-09-25T18:17:56+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\"},\"wordCount\":2374,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687\",\"articleSection\":[\"Noticias de la Empresa\",\"Tecnolog\u00eda e Innovaci\u00f3n\",\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\",\"name\":\"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687\",\"datePublished\":\"2024-09-25T18:10:23+00:00\",\"dateModified\":\"2024-09-25T18:17:56+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687\",\"width\":3000,\"height\":1687},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/","og_locale":"es_ES","og_type":"article","og_title":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta","og_description":"2024 ha sido un a\u00f1o muy ocupado. Lanzamos el primer visor de realidad mixta para consumo masivo con Meta Quest 3, revolucionamos el mercado de gafas con la colecci\u00f3n Ray-Ban Meta y lanzamos varios modelos de lenguaje, incluyendo el primer modelo de IA de c\u00f3digo abierto a nivel de frontera. Estos avances representan un progreso considerable en el camino hacia la pr\u00f3xima plataforma de computaci\u00f3n que pone a las personas en el centro. Y hoy, en nuestra 11\u00aa conferencia anual Connect, el fundador y CEO de Meta, Mark Zuckerberg, comparti\u00f3 las \u00faltimas novedades y desarrollos en realidad mixta, IA y dispositivos port\u00e1tiles, todos ellos encaminados hacia nuestra visi\u00f3n de un futuro abierto y m\u00e1s conectado. Movimientos de Realidad Mixta: Meta Quest 3S, Actualizaciones de Horizon OS y m\u00e1s Meta Quest 3S promete ofrecer experiencias incre\u00edbles a un precio inigualable. Est\u00e1 disponible desde $299.99, haciendo accesible la realidad mixta de alta calidad a m\u00e1s personas que nunca. Puedes hacer tu pre-pedido hoy; el dispositivo llegar\u00e1 a las tiendas el 15 de octubre. El Quest 3S cuenta con las mismas caracter\u00edsticas definitorias del Quest 3: realidad mixta a color de alta resoluci\u00f3n que permite una integraci\u00f3n perfecta entre los mundos f\u00edsico y virtual, impulsada por la plataforma Snapdragon XR2 Gen 2, que se desarroll\u00f3 en estrecha colaboraci\u00f3n con Qualcomm Technologies. Ofrece seguimiento de manos para interacciones naturales y controladores Touch Plus para precisi\u00f3n. Tienes acceso a toda la gama de experiencias disponibles en Meta Horizon OS, incluyendo entretenimiento, fitness, juegos, productividad, experiencias sociales y mucho m\u00e1s. Y el visor mejora con el tiempo, gracias a las actualizaciones regulares de software. \u00bfQu\u00e9 hay de diferente? Los principales cambios est\u00e1n en el dise\u00f1o, los lentes Fresnel y un campo de visi\u00f3n un poco m\u00e1s estrecho. Ya sea que quieras probar nuestro modelo base de 128GB Quest 3S, actualices al modelo de 256GB para m\u00e1s almacenamiento o te sumerjas en una experiencia de alta gama con el Quest 3 de 512GB (a un precio nuevo y m\u00e1s bajo de $499.99 USD), \u00e9sta es la mejor familia de visores de realidad mixta en el mercado. \u00bfMencionamos que Batman: Arkham Shadow viene incluido con cada nueva compra de alguna de estas tres opciones por un tiempo limitado? Es una oferta excelente. Y hay un mont\u00f3n de contenido genial para explorar desde el primer d\u00eda. Desde tus servicios de streaming favoritos como las nuevas apps de Amazon Prime Video, Amazon Music y Twitch que se lanzaron hoy hasta apps de fitness como Alo Moves XR y la funci\u00f3n de multiplayer reci\u00e9n lanzada para Supernatural, Quest es tu sistema de entretenimiento en casa y entrenador personal en uno. Y pronto podr\u00e1s conectar cualquier computadora con Windows 11 a tu headset Quest, solo mirando tu teclado para conectar los dispositivos. Ya sea que quieras trabajar en displays virtuales masivos o explorar tus proyectos en 3D, Quest es una extensi\u00f3n natural de tu PC y una potencia de productividad. Porque eso es lo que estamos construyendo: no la pr\u00f3xima plataforma de juegos, sino la pr\u00f3xima plataforma de computaci\u00f3n. Puedes ver pel\u00edculas, escuchar m\u00fasica, trabajar en hojas de c\u00e1lculo, jugar con amigos, salir y conectarte. Y estamos facilitando m\u00e1s que nunca que los desarrolladores creen para Horizon OS, por lo que hay a\u00fan m\u00e1s contenido excelente en camino. Todo lo que tu computadora puede hacer, nuestro visor de realidad mixta puede hacerlo mejor, gracias a la magia de la presencialidad. Y hablando de presencia, tambi\u00e9n estamos mejorando eso. Estamos trabajando para traer espacios fotorrealistas al metaverso, permitiendo una manera nueva y profunda de estar juntos en espacios que parecen y se sienten como si estuvieras f\u00edsicamente all\u00ed &#8211; llamamos a esto Hyperscape. Utilizando Gaussian Splatting, una t\u00e9cnica de renderizado de vol\u00famenes 3D, podemos aprovechar el renderizado en la nube y el streaming para que estos espacios puedan verse en cualquier casco aut\u00f3nomo Quest 3 de USA. Hoy, lanzamos una demo\u00a0que muestra algunas de estas r\u00e9plicas digitales, incluyendo el estudio art\u00edstico de David Arsham, como mostramos en la presentaci\u00f3n, para que puedas experimentarlo t\u00fa mismo. En el futuro, los creadores podr\u00e1n construir mundos dentro de Horizon usando un tel\u00e9fono para escanear una sala y luego recrearla, llevando espacios f\u00edsicos al mundo digital con facilidad. Esto, queridos amigos, es el futuro. Inteligencia Artificial, Momento Real Desde su lanzamiento en 2023, Meta AI se ha destacado como un asistente inteligente, ofreciendo a las personas acceso gratuito e ilimitado a la IA de \u00faltima generaci\u00f3n. Est\u00e1 en camino a convertirse en el asistente de IA m\u00e1s utilizado en el mundo para finales de este a\u00f1o. M\u00e1s de 400 millones de personas ya lo utilizan mensualmente, con 185 millones de personas utiliz\u00e1ndolo cada semana en todos nuestros productos. Y lo estamos haciendo m\u00e1s divertido, \u00fatil y capaz que nunca. Estamos haciendo que tus interacciones con Meta AI sean m\u00e1s naturales a\u00f1adiendo voz. Puedes chatear con Meta AI usando Facebook, Messenger, WhatsApp e Instagram DM, y te responder\u00e1. Y pronto, voces ic\u00f3nicas como Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell dar\u00e1n vida a tu asistente inteligente de IA, y a\u00f1adir\u00e1n un poco m\u00e1s de diversi\u00f3n al proceso.* Estamos experimentando con doblaje autom\u00e1tico de v\u00eddeo y sincronizaci\u00f3n labial comenzando con ingl\u00e9s y espa\u00f1ol para ayudar a las personas a ver m\u00e1s contenido en su idioma nativo en los Reels de Instagram y Facebook. Estamos comenzando con un peque\u00f1o grupo de creadores en Instagram y esperamos expandirnos a m\u00e1s creadores e idiomas pronto. Esto deber\u00eda permitir que los creadores alcancen a muchas m\u00e1s personas en todo el mundo, independientemente del idioma que hablen. Estamos a\u00f1adiendo nuevas capacidades a nuestras herramientas de edici\u00f3n de IA. Como Meta AI ahora puede procesar informaci\u00f3n visual, puedes hacer preguntas sobre las fotos que subes. Toma una foto de tu monumento local favorito y pide a Meta AI que te cuente su historia. O sube una foto de una impresionante vista de una monta\u00f1a y preg\u00fantale de qu\u00e9 ruta de senderismo podr\u00eda tratarse. Tambi\u00e9n puedes subir una foto y hacer ediciones precisas con Meta AI utilizando el lenguaje cotidiano. Mientras que antes s\u00f3lo pod\u00edas editar im\u00e1genes generadas por Meta AI, ahora puedes a\u00f1adir, eliminar o cambiar elementos de tu foto real con facilidad. Tambi\u00e9n estamos desarrollando funciones para Imagine de Meta AI, permiti\u00e9ndote imaginarte a ti mismo en Stories, en tus publicaciones y en tu foto de perfil en Facebook e Instagram. Luego puedes compartir f\u00e1cilmente tus selfies generados por IA para que tus amigos puedan verlos, reaccionar a ellos o imitarlos. Meta AI tambi\u00e9n puede sugerirte pies de foto para tus Stories en Facebook e Instagram. Solo tienes que elegir una foto y nuestra tecnolog\u00eda de IA multimodal generar\u00e1 subt\u00edtulos para que elijas los que m\u00e1s se ajusten a tu imagen. Estamos a\u00f1adiendo temas de chat generados por IA para Messenger e Instagram, para que puedas crear el ambiente perfecto para ti y tu grupo.\u00a0 Y estamos probando nuevos contenidos generados por Meta AI en tus feeds de Facebook e Instagram. Puedes tocar un prompt sugerido para llevar ese contenido en una nueva direcci\u00f3n o deslizarte hacia Imagine para crear nuevo contenido en tiempo real. Algunas de las im\u00e1genes estar\u00e1n basadas en tus intereses, para que puedas profundizar en lo que te importa. Y otras estar\u00e1n protagonizadas por ti, para que seas el protagonista de tu propia historia y compartas tus favoritas con tus amigos.\u00a0 Haz clic aqu\u00ed para aprender m\u00e1s sobre nuestras actualizaciones de productos de IA. Acabamos de lanzar nuestros nuevos modelos Llama 3.2. Llama 3.2 es nuestro primer gran modelo de visi\u00f3n, lo que significa que comprende im\u00e1genes y texto. Para a\u00f1adir soporte de im\u00e1genes a Llama, entrenamos un conjunto de pesos adaptadores que se integran con los modelos existentes de s\u00f3lo texto de par\u00e1metros 8B y 70B para crear modelos de par\u00e1metros 11B y 90B que tambi\u00e9n entienden las im\u00e1genes.. Y seguimos mejorando la inteligencia, especialmente en el razonamiento, haciendo que estos modelos sean los m\u00e1s avanzados que hemos lanzado hasta la fecha. De igual forma, presentamos modelos super peque\u00f1os de par\u00e1metros 1B y 3B que est\u00e1n optimizados para funcionar en dispositivos como smartphones o, eventualmente, en pares de gafas. Creemos que la IA de c\u00f3digo abierto es el camino a seguir. Es m\u00e1s econ\u00f3mico, personalizable, confiable y, discutiblemente, de mejor rendimiento que la alternativa. Continuaremos impulsando Llama de manera responsable, con mejoras continuas y nuevas funcionalidades. Aprende m\u00e1s sobre Llama 3.2. El maravilloso mundo de los dispositivos port\u00e1tiles Hubo muchas novedades para los fans de nuestras gafas Ray-Ban Meta. Estamos trabajando para traer nuevas integraciones con Spotify, Shazam, Audible e iHeart. Y estamos mejorando la experiencia con las gafas y tu asistente inteligente, Meta AI. Lo estamos haciendo m\u00e1s conversacional y natural. En lugar de tener que decir \u00abHey Meta\u00bb para cada pregunta, puedes iniciar tu conversaci\u00f3n con una palabra de activaci\u00f3n y luego continuar hablando como lo har\u00edas normalmente.\u00a0 Estamos a\u00f1adiendo la posibilidad de que tus gafas te ayuden a recordar cosas. La pr\u00f3xima vez que vueles a alg\u00fan sitio, no tendr\u00e1s que preocuparte por olvidar d\u00f3nde has aparcado: tus gafas recordar\u00e1n por ti tu plaza en el aparcamiento de larga estancia. Con tu voz, puedes programar un recordatorio para enviar un mensaje de texto a tu madre dentro de tres horas, cuando hayas aterrizado sano y salvo. Tambi\u00e9n pueden realizar acciones basadas en el texto que est\u00e1s mirando, por lo que puedes pedirles que llamen a un n\u00famero de tel\u00e9fono de un folleto o que escaneen un c\u00f3digo QR. As\u00ed mismo, a\u00f1adimos soporte Meta AI para la entrada de v\u00eddeo, para que puedas obtener ayuda continua en tiempo real. Digamos, por ejemplo, que est\u00e1s explorando una nueva ciudad. S\u00f3lo tienes que pedirle a Meta AI que te acompa\u00f1e y conversar con ella para preguntarle sobre los monumentos que ves a medida que te cruzas con ellos o para obtener ideas sobre qu\u00e9 ver a continuaci\u00f3n, creando tu propio recorrido a pie con las manos libres. Pronto tus gafas ser\u00e1n capaces de traducir el habla en tiempo real. Cuando hables con alguien en espa\u00f1ol, franc\u00e9s o italiano, escuchar\u00e1s lo que dice en ingl\u00e9s a trav\u00e9s de los altavoces de las gafas. Esto no s\u00f3lo es estupendo para viajar, sino que deber\u00eda ayudar a derribar las barreras ling\u00fc\u00edsticas y acercar a las personas. Tenemos previsto a\u00f1adir m\u00e1s idiomas en el futuro para que esta funci\u00f3n sea a\u00fan m\u00e1s \u00fatil. Nos hemos aliado con Be My Eyes, una aplicaci\u00f3n gratuita que conecta a personas ciegas y con baja visi\u00f3n con voluntarios videntes a trav\u00e9s de v\u00eddeo en directo para que puedan explicarte lo que tienes delante. Gracias a las gafas, el voluntario puede ver f\u00e1cilmente tu punto de vista y explicarte lo que te rodea. Incorporamos la nueva gama de lentes Transitions\u00ae de EssilorLuxottica a la colecci\u00f3n Ray-Ban Meta, lo que le ofrece a\u00fan m\u00e1s opciones a la hora de elegir el par perfecto para pasar del interior al exterior y viceversa. Adem\u00e1s, lanzamos una nueva edici\u00f3n limitada de monturas Shiny Transparent Wayfarer para que puedas presumir de la tecnolog\u00eda que llevan dentro. Consigue las tuyas antes de que se acaben. Haz clic aqu\u00ed para aprender m\u00e1s.\u00a0 Presentamos Orion: nuestras primeras gafas de realidad aumentada Por \u00faltimo, pero no menos importante, hoy presentamos Orion, un producto que hemos desarrollado durante 10 a\u00f1os. Los requisitos eran sencillos: deb\u00edan ser unas gafas, no unos auriculares, sin cables y con un peso inferior a 100 gramos. Necesitaba pantallas con un amplio campo de visi\u00f3n, lo bastante luminosas para ver con claridad con distinta iluminaci\u00f3n y lo bastante grandes para albergar varias pantallas para multitarea o una pantalla de cine para entretenimiento. Y ten\u00eda que permitirte ver el mundo f\u00edsico que te rodea. No una representaci\u00f3n del mundo f\u00edsico a trav\u00e9s de Passthrough. El mundo f\u00edsico real con contenido digital superpuesto. Necesitaba controles de voz y seguimiento ocular y manual para ayudarte a navegar por la interfaz de usuario. Pero tambi\u00e9n quer\u00edamos una forma de comunicarnos con las gafas discreta, privada y socialmente aceptable. As\u00ed que tambi\u00e9n necesitaba una nueva interfaz. Orion cumple todos esos requisitos. Es una proeza de miniaturizaci\u00f3n con 10 chips de silicio personalizados y una arquitectura de pantalla completamente nueva. Incluye una pulsera EMG para una entrada de datos perfecta. Y es un prototipo de producto acabado y viable. No es s\u00f3lo un atisbo de lo que ser\u00e1 posible en el futuro: Es una mirada a la realidad que ya est\u00e1 a nuestro alcance. Con Orion, estamos a un importante paso m\u00e1s cerca de cumplir la promesa de la pr\u00f3xima gran ola de inform\u00e1tica orientada al ser humano y un profundo sentido de la presencia con otras personas, independientemente del lugar del mundo en el que se encuentren. Conoce aqu\u00ed m\u00e1s informaci\u00f3n sobre Orion. Este es el futuro de la conexi\u00f3n humana. Es un momento emocionante para construir, y estamos agradecidos con todos los desarrolladores que construyen junto a nosotros, a los primeros usuarios que han cre\u00eddo en esta tecnolog\u00eda durante a\u00f1os, y a las mentes curiosas que se unen hoy a nosotros en este viaje. Gracias a todos. *Las actualizaciones de voz de Meta AI s\u00f3lo est\u00e1n disponibles en ingl\u00e9s en Australia, Canad\u00e1, Nueva Zelanda y Estados Unidos.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/","og_site_name":"Acerca de Meta","article_published_time":"2024-09-25T18:10:23+00:00","article_modified_time":"2024-09-25T18:17:56+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"ceciliacartoceti","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/"},"author":"Facebook company","headline":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s","datePublished":"2024-09-25T18:10:23+00:00","dateModified":"2024-09-25T18:17:56+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/"},"wordCount":2374,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687","articleSection":["Noticias de la Empresa","Tecnolog\u00eda e Innovaci\u00f3n","Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/","url":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/","name":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687","datePublished":"2024-09-25T18:10:23+00:00","dateModified":"2024-09-25T18:17:56+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687","width":3000,"height":1687},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/meta-connect-2024-quest-3s-llama-3-2-y-mucho-mas\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Meta Connect 2024: Quest 3S, Llama 3.2 y mucho m\u00e1s"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/model_close-up.jpg?fit=3000%2C1687","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/155592861"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25439"}],"version-history":[{"count":7,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25439\/revisions"}],"predecessor-version":[{"id":25515,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25439\/revisions\/25515"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/25509"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}