{"id":27943,"date":"2024-09-25T19:14:13","date_gmt":"2024-09-25T18:14:13","guid":{"rendered":"https:\/\/about.fb.com\/de\/?p=27943"},"modified":"2024-09-25T19:16:22","modified_gmt":"2024-09-25T18:16:22","slug":"meta-connect-2024","status":"publish","type":"post","link":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/","title":{"rendered":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr"},"content":{"rendered":"<p>Es war ein ereignisreiches Jahr. Meta hat mit dem <a href=\"https:\/\/www.meta.com\/blog\/quest\/meta-quest-3-pre-orders-asgards-wrath-2-bundle-vr-mr-headset-price\/\">weltweit ersten Mixed-Reality-Headset f\u00fcr den Massenmarkt<\/a>, der <a href=\"https:\/\/www.meta.com\/quest\/quest-3\/\">Meta Quest 3<\/a>, neue Ma\u00dfst\u00e4be gesetzt und mit der <a href=\"https:\/\/www.meta.com\/smart-glasses\">Ray-Ban Meta Kollektion<\/a> <a href=\"https:\/\/www.meta.com\/blog\/quest\/ray-ban-meta-smart-glasses-collection-pre-orders\/\">Smart Glasses auf ein neues Level gehoben<\/a>. Es wurde eine Reihe neuer LLMs ver\u00f6ffentlicht, darunter das <a href=\"https:\/\/ai.meta.com\/blog\/meta-llama-3-1\/\">erste Open-Source-KI-Modell auf Spitzenniveau<\/a>. Das ist ein beachtlicher Fortschritt auf dem Weg zur n\u00e4chsten Computing-Plattform \u2013 eine, die Menschen konsequent in den Mittelpunkt stellt. Und heute hat Meta-Gr\u00fcnder und CEO Mark Zuckerberg auf Metas 11. j\u00e4hrlichen Connect-Konferenz die aktuellsten News und Entwicklungen in den Bereichen <a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/meta-quest-3s-announced-connect-2024\">Mixed Reality<\/a>, <a href=\"https:\/\/ai.meta.com\/blog\/llama-3-2-connect-2024-vision-edge-mobile-devices\/\">KI<\/a> und <a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/ray-ban-meta-glasses-collection-news-updates-connect-2024\">Wearables<\/a> geteilt, die auf <a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/orion-ar-glasses-augmented-reality\">Metas Vision einer offenen, st\u00e4rker vernetzten Zukunft<\/a> einzahlen.<\/p>\n<h3><a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/meta-quest-3s-announced-connect-2024\">Mixed Reality Fortschritte: Meta Quest 3S, Horizon OS Updates &amp; mehr<\/a><\/h3>\n<p>Die Meta Quest 3S verspricht, unglaubliche Erlebnisse zu einem unglaublichen Preis zu liefern. Die Quest 3S ist ab 329,99 Euro verf\u00fcgbar und macht hochwertige Mixed-Reality-Erlebnisse f\u00fcr mehr Menschen als je zuvor zug\u00e4nglich. <a href=\"https:\/\/www.meta.com\/quest\/quest-3s\/?intern_source=blog&amp;intern_content=connect-2024-keynote-recap-quest-3s-llama-3-2-ai-wearables-mixed-reality\">Sie kann ab heute vorbestellt werden<\/a> und ist ab dem 15. Oktober im Handel erh\u00e4ltlich.<\/p>\n<div class=\"jetpack-video-wrapper\"><iframe loading=\"lazy\" title=\"Say hello to Meta Quest 3S\" width=\"960\" height=\"540\" src=\"https:\/\/www.youtube.com\/embed\/oAf5M4Q0Pu8?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div>\n<p>Die Quest 3S bietet die gleichen charakteristischen Features wie die Quest 3: hochaufl\u00f6sende, farbintensive Mixed-Reality-Erlebnisse, die die physische und virtuelle Welt nahtlos miteinander verschmelzen, angetrieben von der Snapdragon\u00ae XR2 Gen 2 Plattform, die in enger Zusammenarbeit mit <a href=\"https:\/\/www.qualcomm.com\/\">Qualcomm Technologies<\/a> entwickelt wurde. Sie bietet Handtracking f\u00fcr nat\u00fcrliche Interaktionen sowie Touch Plus Controller f\u00fcr Pr\u00e4zision. Die Quest 3S hat Zugang zur vollen Bandbreite an Apps, die auf <a href=\"https:\/\/www.meta.com\/blog\/quest\/meta-horizon-os-open-hardware-ecosystem-asus-republic-gamers-lenovo-xbox\/\">Meta Horizon OS<\/a> verf\u00fcgbar sind: Unterhaltung, Fitness, Spiele, Produktivit\u00e4t, soziale Erlebnissen und mehr. Und das Headset wird dank regelm\u00e4\u00dfiger Software-Updates im Laufe der Zeit immer besser.<\/p>\n<p>Was anders ist? Die wichtigsten \u00c4nderungen sind das Design des Headsets, die Fresnel-Linsen und ein etwas engeres Sichtfeld.<\/p>\n<p>Ob Nutzer*innen mit dem Einstiegsmodell Quest 3S mit 128 GB erste Erfahrungen sammeln, zur 256-GB-Variante f\u00fcr mehr Speicherplatz greifen oder dank der 512-GB Quest 3 (zu einem neuen, niedrigeren Preis) mit einem Spitzenerlebnis in virtuelle Welten eintauchen m\u00f6chten \u2013 dies ist die beste Produktfamilie von MR-Headsets auf dem Markt.<\/p>\n<p>Zus\u00e4tzlich ist <a href=\"https:\/\/www.meta.com\/experiences\/batman-arkham-shadow\/3551691271620960\/\"><em>Batman: Arkham Shadow<\/em><\/a> f\u00fcr begrenzte Zeit beim Kauf jeder dieser drei Headset-Optionen im Lieferumfang enthalten. Man muss kein Meisterdetektiv sein, um zu wissen, dass das ein gro\u00dfartiges Angebot ist.<\/p>\n<p>Dar\u00fcber hinaus gibt es eine Menge gro\u00dfartiger Inhalte, die gleich am ersten Tag erkundet werden k\u00f6nnen. Von beliebten Streaming-Diensten, wie den neuen Prime Video-, Amazon Music- und Twitch-Apps, die heute gelauncht wurden, bis hin zu Fitness-Apps, wie das kommende <a href=\"https:\/\/www.meta.com\/experiences\/alo-moves-xr\/5379012005560059\/\"><em>Alo Moves XR<\/em><\/a> und der neuen Multiplayer-Funktion \u201cSupernatural Together\u201d f\u00fcr <a href=\"https:\/\/www.meta.com\/experiences\/supernatural-unreal-fitness\/1830168170427369\/\"><em>Supernatural<\/em><\/a>, ist die Quest Heimkino und pers\u00f6nlicher Trainer in einem. Und schon bald ist es m\u00f6glich, jeden Windows 11-Computer mit einem Quest-Headset zu verbinden \u2013 ein Blick auf die Tastatur reicht aus, um die Kopplung zu starten. Egal, ob Nutzer*innen auf riesigen virtuellen Displays arbeiten oder ihre Projekte in 3D erkunden m\u00f6chten, die Quest ist eine nat\u00fcrliche Erweiterung ihres PCs und ein Motor f\u00fcr die Produktivit\u00e4t.<\/p>\n<p>Denn das ist es, was Meta aufbaut: nicht die n\u00e4chste <em>Gaming<\/em>-Plattform, sondern die n\u00e4chste Computing-Plattform. Um Filme zu schauen, Musik zu h\u00f6ren, an Tabellenkalkulationen zu t\u00fcfteln, mit Freund*innen zu spielen, abzuh\u00e4ngen und sich zu vernetzen. Meta macht es Entwickler*innen einfacher denn je, f\u00fcr Horizon OS zu entwickeln, sodass Nutzer*innen noch mehr gro\u00dfartige Inhalte erwarten k\u00f6nnen. Alles, was ein Computer kann, kann Metas MR-Headset besser \u2013 dank der Magie, die der Pr\u00e4senz im Raum innewohnt.<\/p>\n<p>Und da wir gerade von Pr\u00e4senz sprechen: Auch das wurde verbessert. Meta arbeitet daran, fotorealistische R\u00e4ume \u2013 genannt Hyperscape \u2013 in das Metaverse zu bringen, die so aussehen und sich so anf\u00fchlen, als ob man wirklich dort w\u00e4re. Der Einsatz von Gaussian Splatting, einer 3D-Volumen-Rendering-Technik, erm\u00f6glicht es, die Vorteile von Cloud-Rendering und Streaming zu nutzen, und diese R\u00e4ume auf jeder Stand-Alone Quest 3 in den USA sichtbar zu machen. Meta <a href=\"https:\/\/www.meta.com\/experiences\/horizon-photoreal-beta\/7972066712871980\/\">ver\u00f6ffentlichte heute eine Demo<\/a>, die eine Handvoll dieser digitalen Replicas zeigt, darunter auch das in der Keynote gezeigte K\u00fcnstlerstudio von Daniel Arsham, um sie direkt selbst erleben zu k\u00f6nnen. In Zukunft k\u00f6nnen Creator*innen in Horizon digitale Welten erschaffen, indem sie mit einem Smartphone einen Raum scannen, diesen umgestalten und so ganz einfach physische R\u00e4ume in die digitale Welt bringen.<\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-27955\" src=\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/461175381_1037003537749223_7732014302569927047_n.gif?w=533&#038;resize=533%2C300\" alt=\"\" width=\"533\" height=\"300\" \/><\/p>\n<p>Um in die wunderbare Welt der Mixed Reality einzutauchen, <a href=\"https:\/\/www.meta.com\/quest\/quest-3s\/?intern_source=blog&amp;intern_content=connect-2024-keynote-recap-quest-3s-llama-3-2-ai-wearables-mixed-reality\">kann die Quest 3S vorbestellt werden<\/a>. Oder <a href=\"https:\/\/www.meta.com\/quest\/quest-3\/\">Nutzer*innen verbessern ihr Erlebnis mit der erstklassigen Quest 3<\/a> f\u00fcr nur 549,99 Euro. <a href=\"https:\/\/www.meta.com\/blog\/quest\/meta-quest-3s-announced-connect-2024\">Hier<\/a> gibt es weitere Informationen.<\/p>\n<h3>K\u00fcnstliche Intelligenz, echtes Momentum<\/h3>\n<p>Seit der Einf\u00fchrung im Jahr 2023 hat sich <a href=\"https:\/\/ai.meta.com\/meta-ai\/\">Meta AI<\/a> dadurch hervorgetan, dass sie Menschen unbegrenzten und kostenlosen Zugang zu modernster KI bietet. Meta AI ist auf dem besten Weg, bis zum Ende dieses Jahres der meistgenutzte KI-Assistent der Welt zu werden. Mehr als 400 Millionen Menschen nutzen Meta AI bereits monatlich, 185 Millionen Menschen nutzen sie jede Woche \u00fcber unsere verschiedenen Produkte hinweg. Und Meta arbeitet daran, Meta AI noch unterhaltsamer, n\u00fctzlicher und leistungsf\u00e4higer als je zuvor zu machen.<\/p>\n<p>Au\u00dferdem macht Meta Interaktionen mit Meta AI durch das Hinzuf\u00fcgen von Sprach-Input noch nat\u00fcrlicher. Nutzer*innen k\u00f6nnen mit Meta AI \u00fcber Facebook, Messenger, WhatsApp und Instagram DMs sprechen, und sie wird ihnen antworten. Und bald werden ikonische Stimmen wie die von Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key und Kristen Bell den intelligenten KI-Assistenten zum Leben erwecken \u2013 und dabei auch f\u00fcr ein bisschen Spa\u00df sorgen.*<\/p>\n<p>Meta experimentiert mit automatischer Video- und Lippensynchronisation, beginnend mit Englisch und Spanisch, um den Menschen zu helfen, mehr Inhalte in ihrer Muttersprache in Reels auf Instagram und Facebook zu sehen. Begonnen wird mit einer kleinen Gruppe von Creator*innen auf Instagram und hoffentlich k\u00f6nnen bald noch mehr Creator*innen und Sprachen einbezogen werden. Auf diese Weise k\u00f6nnen Creator*innen mehr Menschen auf der ganzen Welt erreichen, unabh\u00e4ngig davon, welche Sprache sie sprechen.<\/p>\n<p>Auch die KI-Bearbeitungstools erweitert Meta um neue Funktionen. Da Meta AI nun auch visuelle Informationen verarbeiten kann, ist es m\u00f6glich, Fragen zu hochgeladenen Fotos stellen. Beispielsweise um fotografierte Pflanzen zu bestimmen oder ein Rezept f\u00fcr das letzte Dessert aus dem Restaurant zu finden. Auch das Bearbeiten von hochgeladenen Fotos in Umgangssprache ist m\u00f6glich. W\u00e4hrend bisher nur von Meta AI generierte Bilder bearbeitet werden konnten, ist es jetzt m\u00f6glich, ganz einfach Elemente eines echten Fotos hinzuf\u00fcgen, zu entfernen oder zu \u00e4ndern.<\/p>\n<p>Meta erweitert die \u201cImagine\u201d-Funktionen von Meta AI, sodass Nutzer*innen sich in Stories, ihren Feed-Posts und ihren Profilbildern auf Facebook und Instagram abbilden k\u00f6nnen. So k\u00f6nnen KI-generierte Selfies ganz einfach geteilt werden und Freunde k\u00f6nnen sie sehen, darauf reagieren oder diese nachahmen. Meta AI kann jetzt auch Bildunterschriften f\u00fcr Stories auf Facebook und Instagram vorschlagen. Einfach ein Bild ausw\u00e4hlen und Metas multimodale KI generiert Bildunterschriften, die zu dem Bild passen.<\/p>\n<p>Meta f\u00fcgt KI-generierte Chat-Themes f\u00fcr Messenger und Instagram hinzu, damit Nutzer*innen die perfekte Stimmung f\u00fcr sich und ihre Gruppe schaffen k\u00f6nnen. Und Meta testet neue, durch Meta AI-generierte Inhalte f\u00fcr Facebook- und Instagram-Feeds. Nutzer*innen k\u00f6nnen auf vorgeschlagene Prompts tippen oder swipen, um den generierten Inhalt in eine neue Richtung zu lenken oder neue Inhalte in Echtzeit erstellen zu lassen. Generierte Bilder basieren auf Interessen der Nutzer*innen oder stellen diese in den Mittelpunkt und k\u00f6nnen einfach mit Freund*innen geteilt werden.<\/p>\n<p><a href=\"https:\/\/about.fb.com\/news\/2024\/09\/metas-ai-product-news-connect\/\">Hier<\/a> gibt es mehr Informationen zu Metas KI-Produktupdates.<\/p>\n<p>Meta hat gerade seine neuen Llama 3.2 Modelle ver\u00f6ffentlicht. Llama 3.2 ist Metas erstes gro\u00dfes Vision-Modell, das sowohl Bilder als auch Text versteht. Um Llama mit Bildunterst\u00fctzung auszustatten, wurde eine Reihe von Adaptergewichten trainiert, die sich in die bestehenden 8B- und 70B-Parameter-Textmodelle integrieren, um 11B- und 90B-Parameter-Modelle zu erstellen, die sowohl Text als auch Bilder verstehen. Und Meta arbeitet weiter an der Verbesserung der Intelligenz \u2013 vor allem im Bereich des logischen Denkens \u2013 und macht diese Modelle zu den fortschrittlichsten, die sie bisher ver\u00f6ffentlicht haben.<\/p>\n<p>Meta hat auch kleine Modelle mit 1B- und 3B-Parametern ver\u00f6ffentlicht, die f\u00fcr den Einsatz auf Ger\u00e4ten wie Smartphones oder in Zukunft auch auf Brillen optimiert sind.<\/p>\n<p>Meta glaubt, dass <a href=\"https:\/\/about.fb.com\/news\/2024\/07\/open-source-ai-is-the-path-forward\/\">Open-Source-KI der richtige Weg f\u00fcr die Zukunft ist<\/a>. Sie ist kosteng\u00fcnstiger, anpassbarer, vertrauensw\u00fcrdiger sowie leistungsf\u00e4higer als die Alternative. Und Meta wird Llama weiterhin verantwortungsvoll mit kontinuierlichen Verbesserungen und neuen Funktionen weiterentwickeln. <a href=\"https:\/\/ai.meta.com\/blog\/llama-3-2-connect-2024-vision-edge-mobile-devices\/\">Hier<\/a> gibt es mehr Informationen \u00fcber Llama 3.2.<\/p>\n<h3><a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/ray-ban-meta-glasses-collection-news-updates-connect-2024\">Die wundervolle Welt der Wearables<\/a><\/h3>\n<p>Es gab viele Neuigkeiten f\u00fcr Fans der <a href=\"https:\/\/www.meta.com\/smart-glasses\/\">Ray-Ban Meta Smart Glasses<\/a>. Meta arbeitet daran, neue Integrationen mit Spotify, Shazam, Audible und iHeart zu ver\u00f6ffentlichen. Au\u00dferdem verbessert Meta das Benutzererlebnis der Brille mit <a href=\"https:\/\/www.meta.ai\/\">Meta AI<\/a>, dem intelligenten Assistenten, weiter.<\/p>\n<p>Meta hat Interaktionen mit Meta AI noch dialogorientierter und nat\u00fcrlicher gestaltet. Anstatt bei jeder Frage \u201eHey Meta\u201c sagen zu m\u00fcssen, k\u00f6nnen Nutzer*innen die Unterhaltung mit dem Signalwort beginnen und bei Folgefragen ganz normal weitersprechen.<\/p>\n<p><iframe loading=\"lazy\" title=\"Ray-Ban Meta Glasses | Meta AI\" width=\"960\" height=\"720\" src=\"https:\/\/www.youtube.com\/embed\/8v9PBdLFHpo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>Zuk\u00fcnftig k\u00f6nnen Ray-Ban Meta Smart Glasses auch via Sprachbefehl aufgefordert werden, sich an Dinge zu erinnern. Beispielsweise wo das Auto zuletzt geparkt wurde oder die Liebsten anzurufen, sobald das Flugzeug gelandet ist. Auch QR-Codes oder Telefonnummern k\u00f6nnen nach Wunsch gescannt werden.<\/p>\n<p>Au\u00dferdem wird Meta AI mit Unterst\u00fctzung f\u00fcr Video-Input erweitert, um kontinuierliche Hilfe in Echtzeit zu erm\u00f6glichen. Beispielsweise, wenn man eine neue Stadt erkundet. Nutzer*innen k\u00f6nnen einfach Meta AI bitten, sie zu begleiten, und sich mit ihr unterhalten, um nach Sehensw\u00fcrdigkeiten zu fragen, die sie sehen, oder um Ideen zu bekommen, was als n\u00e4chstes entdeckt werden kann \u2013 so kann auch freih\u00e4ndig die eigene Stadtf\u00fchrung gestaltet werden.<\/p>\n<p>Ray-Ban Meta Smart Glasses werden bald in der Lage sein, Spanisch, Franz\u00f6sisch und Italienisch in Echtzeit zu \u00fcbersetzen. Das Gesprochene ist f\u00fcr Nutzer*innen dank der integrierten Lautsprecher live auf Englisch zu h\u00f6ren \u2013 und hilft so im Urlaub oder unterwegs Sprachbarrieren abzubauen. Weitere Sprachen werden in Zukunft folgen, um Live-\u00dcbersetzungen noch hilfreicher zu machen.<\/p>\n<p>Meta arbeitet mit <a href=\"https:\/\/www.bemyeyes.com\/\">Be My Eyes<\/a> zusammen, einer kostenlosen App, die blinde und sehbehinderte Menschen mit sehenden Freiwilligen per Live-Video verbindet, die beschreiben k\u00f6nnen, was man vor sich hat. Dank der Brille kann die freiwillige Person einfach die Perspektive der Nutzenden einnehmen und die Umgebung beschreiben.<\/p>\n<p>Die Ray-Ban Meta-Kollektion wird um die neue Reihe mit <a href=\"https:\/\/www.transitions.com\/en-us\/\">Transitions\u00ae<\/a>-Gl\u00e4ser von <a href=\"https:\/\/www.essilorluxottica.com\/en\/\">EssilorLuxottica<\/a> erweitert. Damit haben Nutzer*innen noch mehr Optionen, wenn sie die perfekte Brille suchen, die sie nahtlos von drinnen nach drau\u00dfen und wieder zur\u00fcckbringt. Und Meta bringt eine neue, limitierte Auflage von Shiny Transparent Wayfarer Frames auf den Markt, um die Technologie, die darin steckt, zur Schau zu stellen.<\/p>\n<p><a href=\"https:\/\/www.meta.com\/blog\/quest\/ray-ban-meta-glasses-collection-news-updates-connect-2024\/\">Hier<\/a> gibt es weitere Informationen.<\/p>\n<h3><a href=\"https:\/\/www.meta.com\/de-de\/blog\/quest\/orion-ar-glasses-augmented-reality\">Orion: Metas erste AR-Glasses<\/a><\/h3>\n<p>Zu guter Letzt hat Meta Orion enth\u00fcllt \u2013 einen Produktprototyp, der seit 10 Jahren in der Entwicklung ist. Die Anforderungen waren einfach: Es sollte eine Brille sein und kein Headset, ohne Kabel und mit einem Gewicht von weniger als 100 Gramm. Es sollten Displays mit weitem Sichtfeld sein, die hell genug sind, um bei unterschiedlichen Lichtverh\u00e4ltnissen klar sichtbar zu sein, und gleichzeitig gro\u00df genug, um mehrere Bildschirme f\u00fcr Multitasking oder einen kinogro\u00dfen Bildschirm f\u00fcr Entertainment zu erm\u00f6glichen. Und sie sollte erm\u00f6glichen, dass die reale Welt um einen herum zu sehen ist. Nicht nur eine Darstellung der realen Welt durch Passthrough, sondern die tats\u00e4chliche reale Welt mit dar\u00fcber gelegten digitalen Inhalten.<\/p>\n<div class=\"jetpack-video-wrapper\"><iframe loading=\"lazy\" title=\"Orion, Explained\" width=\"960\" height=\"540\" src=\"https:\/\/www.youtube.com\/embed\/2CJsnyS8u3c?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div>\n<p>Au\u00dferdem sollten Sprachsteuerung sowie Hand- und Augentracking m\u00f6glich sein, um \u00fcber die Benutzeroberfl\u00e4che zu navigieren. Meta m\u00f6chte aber auch eine M\u00f6glichkeit schaffen, auf diskrete und sozial akzeptable Weise mit der Brille zu interagieren. Daher brauchte es zus\u00e4tzlich eine neue Schnittstelle.<\/p>\n<p>Orion erf\u00fcllt all diese Anforderungen. Es ist eine Meisterleistung der Miniaturisierung mit zehn ma\u00dfgeschneiderten Siliziumchips, einer v\u00f6llig neuen Display-Architektur und einem EMG-Armband f\u00fcr einfache Eingaben. Orion ist ein fertiger, funktionsf\u00e4higer Produktprototyp. Dies ist nicht nur ein fl\u00fcchtiger Blick auf das, was in Zukunft m\u00f6glich sein k\u00f6nnte: Es ist ein Blick auf eine Realit\u00e4t, die bereits in greifbarer N\u00e4he ist.<\/p>\n<p>Mit Orion ist Meta einen wichtigen Schritt n\u00e4her an seinem Versprechen der n\u00e4chsten Generation menschenorientierter Computer und eines tiefen Gef\u00fchls der Pr\u00e4senz mit anderen Menschen gekommen \u2013 ganz gleich, wo auf der Welt man sich befindet.<\/p>\n<p>Erfahre mehr \u00fcber <a href=\"https:\/\/www.meta.com\/blog\/quest\/orion-ar-glasses-augmented-reality\/\">Orion<\/a>.<\/p>\n<p>&nbsp;<\/p>\n<p>Dies ist die Zukunft menschlicher Kommunikation. Es ist eine spannende Zeit, und wir sind dankbar f\u00fcr alle Entwickler*innen, die mit uns zusammen daran arbeiten, f\u00fcr die Early Adopters, die seit Jahren an die Technologie glauben, und f\u00fcr die Neugierigen, die sich heute mit uns auf diese Reise begeben. Vielen Dank!<\/p>\n<p><em>*Das Meta AI Stimmen-Update wird in Australien, Kanada, Neuseeland und den USA und nur auf Englisch verf\u00fcgbar sein.<\/em><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"Es war ein ereignisreiches Jahr. Meta hat mit dem weltweit ersten Mixed-Reality-Headset f\u00fcr den Massenmarkt, der Meta Quest 3, neue Ma\u00dfst\u00e4be gesetzt und mit der Ray-Ban Meta Kollektion Smart Glasses auf ein neues Level gehoben. Es wurde eine Reihe neuer LLMs ver\u00f6ffentlicht, darunter das erste Open-Source-KI-Modell auf Spitzenniveau. Das ist ein beachtlicher Fortschritt auf dem Weg zur n\u00e4chsten Computing-Plattform \u2013 eine, die Menschen konsequent in den Mittelpunkt stellt. Und heute hat Meta-Gr\u00fcnder und CEO Mark Zuckerberg auf Metas 11. j\u00e4hrlichen Connect-Konferenz die aktuellsten News und Entwicklungen in den Bereichen Mixed Reality, KI und Wearables geteilt, die auf Metas Vision einer offenen, st\u00e4rker vernetzten Zukunft einzahlen. Mixed Reality Fortschritte: Meta Quest 3S, Horizon OS Updates &amp; mehr Die Meta Quest 3S verspricht, unglaubliche Erlebnisse zu einem unglaublichen Preis zu liefern. Die Quest 3S ist ab 329,99 Euro verf\u00fcgbar und macht hochwertige Mixed-Reality-Erlebnisse f\u00fcr mehr Menschen als je zuvor zug\u00e4nglich. Sie kann ab heute vorbestellt werden und ist ab dem 15. Oktober im Handel erh\u00e4ltlich. Die Quest 3S bietet die gleichen charakteristischen Features wie die Quest 3: hochaufl\u00f6sende, farbintensive Mixed-Reality-Erlebnisse, die die physische und virtuelle Welt nahtlos miteinander verschmelzen, angetrieben von der Snapdragon\u00ae XR2 Gen 2 Plattform, die in enger Zusammenarbeit mit Qualcomm Technologies entwickelt wurde. Sie bietet Handtracking f\u00fcr nat\u00fcrliche Interaktionen sowie Touch Plus Controller f\u00fcr Pr\u00e4zision. Die Quest 3S hat Zugang zur vollen Bandbreite an Apps, die auf Meta Horizon OS verf\u00fcgbar sind: Unterhaltung, Fitness, Spiele, Produktivit\u00e4t, soziale Erlebnissen und mehr. Und das Headset wird dank regelm\u00e4\u00dfiger Software-Updates im Laufe der Zeit immer besser. Was anders ist? Die wichtigsten \u00c4nderungen sind das Design des Headsets, die Fresnel-Linsen und ein etwas engeres Sichtfeld. Ob Nutzer*innen mit dem Einstiegsmodell Quest 3S mit 128 GB erste Erfahrungen sammeln, zur 256-GB-Variante f\u00fcr mehr Speicherplatz greifen oder dank der 512-GB Quest 3 (zu einem neuen, niedrigeren Preis) mit einem Spitzenerlebnis in virtuelle Welten eintauchen m\u00f6chten \u2013 dies ist die beste Produktfamilie von MR-Headsets auf dem Markt. Zus\u00e4tzlich ist Batman: Arkham Shadow f\u00fcr begrenzte Zeit beim Kauf jeder dieser drei Headset-Optionen im Lieferumfang enthalten. Man muss kein Meisterdetektiv sein, um zu wissen, dass das ein gro\u00dfartiges Angebot ist. Dar\u00fcber hinaus gibt es eine Menge gro\u00dfartiger Inhalte, die gleich am ersten Tag erkundet werden k\u00f6nnen. Von beliebten Streaming-Diensten, wie den neuen Prime Video-, Amazon Music- und Twitch-Apps, die heute gelauncht wurden, bis hin zu Fitness-Apps, wie das kommende Alo Moves XR und der neuen Multiplayer-Funktion \u201cSupernatural Together\u201d f\u00fcr Supernatural, ist die Quest Heimkino und pers\u00f6nlicher Trainer in einem. Und schon bald ist es m\u00f6glich, jeden Windows 11-Computer mit einem Quest-Headset zu verbinden \u2013 ein Blick auf die Tastatur reicht aus, um die Kopplung zu starten. Egal, ob Nutzer*innen auf riesigen virtuellen Displays arbeiten oder ihre Projekte in 3D erkunden m\u00f6chten, die Quest ist eine nat\u00fcrliche Erweiterung ihres PCs und ein Motor f\u00fcr die Produktivit\u00e4t. Denn das ist es, was Meta aufbaut: nicht die n\u00e4chste Gaming-Plattform, sondern die n\u00e4chste Computing-Plattform. Um Filme zu schauen, Musik zu h\u00f6ren, an Tabellenkalkulationen zu t\u00fcfteln, mit Freund*innen zu spielen, abzuh\u00e4ngen und sich zu vernetzen. Meta macht es Entwickler*innen einfacher denn je, f\u00fcr Horizon OS zu entwickeln, sodass Nutzer*innen noch mehr gro\u00dfartige Inhalte erwarten k\u00f6nnen. Alles, was ein Computer kann, kann Metas MR-Headset besser \u2013 dank der Magie, die der Pr\u00e4senz im Raum innewohnt. Und da wir gerade von Pr\u00e4senz sprechen: Auch das wurde verbessert. Meta arbeitet daran, fotorealistische R\u00e4ume \u2013 genannt Hyperscape \u2013 in das Metaverse zu bringen, die so aussehen und sich so anf\u00fchlen, als ob man wirklich dort w\u00e4re. Der Einsatz von Gaussian Splatting, einer 3D-Volumen-Rendering-Technik, erm\u00f6glicht es, die Vorteile von Cloud-Rendering und Streaming zu nutzen, und diese R\u00e4ume auf jeder Stand-Alone Quest 3 in den USA sichtbar zu machen. Meta ver\u00f6ffentlichte heute eine Demo, die eine Handvoll dieser digitalen Replicas zeigt, darunter auch das in der Keynote gezeigte K\u00fcnstlerstudio von Daniel Arsham, um sie direkt selbst erleben zu k\u00f6nnen. In Zukunft k\u00f6nnen Creator*innen in Horizon digitale Welten erschaffen, indem sie mit einem Smartphone einen Raum scannen, diesen umgestalten und so ganz einfach physische R\u00e4ume in die digitale Welt bringen. Um in die wunderbare Welt der Mixed Reality einzutauchen, kann die Quest 3S vorbestellt werden. Oder Nutzer*innen verbessern ihr Erlebnis mit der erstklassigen Quest 3 f\u00fcr nur 549,99 Euro. Hier gibt es weitere Informationen. K\u00fcnstliche Intelligenz, echtes Momentum Seit der Einf\u00fchrung im Jahr 2023 hat sich Meta AI dadurch hervorgetan, dass sie Menschen unbegrenzten und kostenlosen Zugang zu modernster KI bietet. Meta AI ist auf dem besten Weg, bis zum Ende dieses Jahres der meistgenutzte KI-Assistent der Welt zu werden. Mehr als 400 Millionen Menschen nutzen Meta AI bereits monatlich, 185 Millionen Menschen nutzen sie jede Woche \u00fcber unsere verschiedenen Produkte hinweg. Und Meta arbeitet daran, Meta AI noch unterhaltsamer, n\u00fctzlicher und leistungsf\u00e4higer als je zuvor zu machen. Au\u00dferdem macht Meta Interaktionen mit Meta AI durch das Hinzuf\u00fcgen von Sprach-Input noch nat\u00fcrlicher. Nutzer*innen k\u00f6nnen mit Meta AI \u00fcber Facebook, Messenger, WhatsApp und Instagram DMs sprechen, und sie wird ihnen antworten. Und bald werden ikonische Stimmen wie die von Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key und Kristen Bell den intelligenten KI-Assistenten zum Leben erwecken \u2013 und dabei auch f\u00fcr ein bisschen Spa\u00df sorgen.* Meta experimentiert mit automatischer Video- und Lippensynchronisation, beginnend mit Englisch und Spanisch, um den Menschen zu helfen, mehr Inhalte in ihrer Muttersprache in Reels auf Instagram und Facebook zu sehen. Begonnen wird mit einer kleinen Gruppe von Creator*innen auf Instagram und hoffentlich k\u00f6nnen bald noch mehr Creator*innen und Sprachen einbezogen werden. Auf diese Weise k\u00f6nnen Creator*innen mehr Menschen auf der ganzen Welt erreichen, unabh\u00e4ngig davon, welche Sprache sie sprechen. Auch die KI-Bearbeitungstools erweitert Meta um neue Funktionen. Da Meta AI nun auch visuelle Informationen verarbeiten kann, ist es m\u00f6glich, Fragen zu hochgeladenen Fotos stellen. Beispielsweise um fotografierte Pflanzen zu bestimmen oder ein Rezept f\u00fcr das letzte Dessert aus dem Restaurant zu finden. Auch das Bearbeiten von hochgeladenen Fotos in Umgangssprache ist m\u00f6glich. W\u00e4hrend bisher nur von Meta AI generierte Bilder bearbeitet werden konnten, ist es jetzt m\u00f6glich, ganz einfach Elemente eines echten Fotos hinzuf\u00fcgen, zu entfernen oder zu \u00e4ndern. Meta erweitert die \u201cImagine\u201d-Funktionen von Meta AI, sodass Nutzer*innen sich in Stories, ihren Feed-Posts und ihren Profilbildern auf Facebook und Instagram abbilden k\u00f6nnen. So k\u00f6nnen KI-generierte Selfies ganz einfach geteilt werden und Freunde k\u00f6nnen sie sehen, darauf reagieren oder diese nachahmen. Meta AI kann jetzt auch Bildunterschriften f\u00fcr Stories auf Facebook und Instagram vorschlagen. Einfach ein Bild ausw\u00e4hlen und Metas multimodale KI generiert Bildunterschriften, die zu dem Bild passen. Meta f\u00fcgt KI-generierte Chat-Themes f\u00fcr Messenger und Instagram hinzu, damit Nutzer*innen die perfekte Stimmung f\u00fcr sich und ihre Gruppe schaffen k\u00f6nnen. Und Meta testet neue, durch Meta AI-generierte Inhalte f\u00fcr Facebook- und Instagram-Feeds. Nutzer*innen k\u00f6nnen auf vorgeschlagene Prompts tippen oder swipen, um den generierten Inhalt in eine neue Richtung zu lenken oder neue Inhalte in Echtzeit erstellen zu lassen. Generierte Bilder basieren auf Interessen der Nutzer*innen oder stellen diese in den Mittelpunkt und k\u00f6nnen einfach mit Freund*innen geteilt werden. Hier gibt es mehr Informationen zu Metas KI-Produktupdates. Meta hat gerade seine neuen Llama 3.2 Modelle ver\u00f6ffentlicht. Llama 3.2 ist Metas erstes gro\u00dfes Vision-Modell, das sowohl Bilder als auch Text versteht. Um Llama mit Bildunterst\u00fctzung auszustatten, wurde eine Reihe von Adaptergewichten trainiert, die sich in die bestehenden 8B- und 70B-Parameter-Textmodelle integrieren, um 11B- und 90B-Parameter-Modelle zu erstellen, die sowohl Text als auch Bilder verstehen. Und Meta arbeitet weiter an der Verbesserung der Intelligenz \u2013 vor allem im Bereich des logischen Denkens \u2013 und macht diese Modelle zu den fortschrittlichsten, die sie bisher ver\u00f6ffentlicht haben. Meta hat auch kleine Modelle mit 1B- und 3B-Parametern ver\u00f6ffentlicht, die f\u00fcr den Einsatz auf Ger\u00e4ten wie Smartphones oder in Zukunft auch auf Brillen optimiert sind. Meta glaubt, dass Open-Source-KI der richtige Weg f\u00fcr die Zukunft ist. Sie ist kosteng\u00fcnstiger, anpassbarer, vertrauensw\u00fcrdiger sowie leistungsf\u00e4higer als die Alternative. Und Meta wird Llama weiterhin verantwortungsvoll mit kontinuierlichen Verbesserungen und neuen Funktionen weiterentwickeln. Hier gibt es mehr Informationen \u00fcber Llama 3.2. Die wundervolle Welt der Wearables Es gab viele Neuigkeiten f\u00fcr Fans der Ray-Ban Meta Smart Glasses. Meta arbeitet daran, neue Integrationen mit Spotify, Shazam, Audible und iHeart zu ver\u00f6ffentlichen. Au\u00dferdem verbessert Meta das Benutzererlebnis der Brille mit Meta AI, dem intelligenten Assistenten, weiter. Meta hat Interaktionen mit Meta AI noch dialogorientierter und nat\u00fcrlicher gestaltet. Anstatt bei jeder Frage \u201eHey Meta\u201c sagen zu m\u00fcssen, k\u00f6nnen Nutzer*innen die Unterhaltung mit dem Signalwort beginnen und bei Folgefragen ganz normal weitersprechen. Zuk\u00fcnftig k\u00f6nnen Ray-Ban Meta Smart Glasses auch via Sprachbefehl aufgefordert werden, sich an Dinge zu erinnern. Beispielsweise wo das Auto zuletzt geparkt wurde oder die Liebsten anzurufen, sobald das Flugzeug gelandet ist. Auch QR-Codes oder Telefonnummern k\u00f6nnen nach Wunsch gescannt werden. Au\u00dferdem wird Meta AI mit Unterst\u00fctzung f\u00fcr Video-Input erweitert, um kontinuierliche Hilfe in Echtzeit zu erm\u00f6glichen. Beispielsweise, wenn man eine neue Stadt erkundet. Nutzer*innen k\u00f6nnen einfach Meta AI bitten, sie zu begleiten, und sich mit ihr unterhalten, um nach Sehensw\u00fcrdigkeiten zu fragen, die sie sehen, oder um Ideen zu bekommen, was als n\u00e4chstes entdeckt werden kann \u2013 so kann auch freih\u00e4ndig die eigene Stadtf\u00fchrung gestaltet werden. Ray-Ban Meta Smart Glasses werden bald in der Lage sein, Spanisch, Franz\u00f6sisch und Italienisch in Echtzeit zu \u00fcbersetzen. Das Gesprochene ist f\u00fcr Nutzer*innen dank der integrierten Lautsprecher live auf Englisch zu h\u00f6ren \u2013 und hilft so im Urlaub oder unterwegs Sprachbarrieren abzubauen. Weitere Sprachen werden in Zukunft folgen, um Live-\u00dcbersetzungen noch hilfreicher zu machen. Meta arbeitet mit Be My Eyes zusammen, einer kostenlosen App, die blinde und sehbehinderte Menschen mit sehenden Freiwilligen per Live-Video verbindet, die beschreiben k\u00f6nnen, was man vor sich hat. Dank der Brille kann die freiwillige Person einfach die Perspektive der Nutzenden einnehmen und die Umgebung beschreiben. Die Ray-Ban Meta-Kollektion wird um die neue Reihe mit Transitions\u00ae-Gl\u00e4ser von EssilorLuxottica erweitert. Damit haben Nutzer*innen noch mehr Optionen, wenn sie die perfekte Brille suchen, die sie nahtlos von drinnen nach drau\u00dfen und wieder zur\u00fcckbringt. Und Meta bringt eine neue, limitierte Auflage von Shiny Transparent Wayfarer Frames auf den Markt, um die Technologie, die darin steckt, zur Schau zu stellen. Hier gibt es weitere Informationen. Orion: Metas erste AR-Glasses Zu guter Letzt hat Meta Orion enth\u00fcllt \u2013 einen Produktprototyp, der seit 10 Jahren in der Entwicklung ist. Die Anforderungen waren einfach: Es sollte eine Brille sein und kein Headset, ohne Kabel und mit einem Gewicht von weniger als 100 Gramm. Es sollten Displays mit weitem Sichtfeld sein, die hell genug sind, um bei unterschiedlichen Lichtverh\u00e4ltnissen klar sichtbar zu sein, und gleichzeitig gro\u00df genug, um mehrere Bildschirme f\u00fcr Multitasking oder einen kinogro\u00dfen Bildschirm f\u00fcr Entertainment zu erm\u00f6glichen. Und sie sollte erm\u00f6glichen, dass die reale Welt um einen herum zu sehen ist. Nicht nur eine Darstellung der realen Welt durch Passthrough, sondern die tats\u00e4chliche reale Welt mit dar\u00fcber gelegten digitalen Inhalten. Au\u00dferdem sollten Sprachsteuerung sowie Hand- und Augentracking m\u00f6glich sein, um \u00fcber die Benutzeroberfl\u00e4che zu navigieren. Meta m\u00f6chte aber auch eine M\u00f6glichkeit schaffen, auf diskrete und sozial akzeptable Weise mit der Brille zu interagieren. Daher brauchte es zus\u00e4tzlich eine neue Schnittstelle. Orion erf\u00fcllt all diese Anforderungen. Es ist eine Meisterleistung der Miniaturisierung mit zehn ma\u00dfgeschneiderten Siliziumchips, einer v\u00f6llig neuen Display-Architektur und einem EMG-Armband f\u00fcr einfache Eingaben. Orion ist ein fertiger, funktionsf\u00e4higer Produktprototyp. Dies ist nicht nur ein fl\u00fcchtiger Blick auf das, was in Zukunft m\u00f6glich sein k\u00f6nnte: Es ist ein Blick auf eine Realit\u00e4t, die bereits in greifbarer N\u00e4he ist. Mit Orion ist Meta einen wichtigen Schritt n\u00e4her an seinem Versprechen der n\u00e4chsten Generation menschenorientierter Computer und eines tiefen Gef\u00fchls der Pr\u00e4senz mit anderen Menschen gekommen \u2013 ganz gleich, wo auf der Welt man sich befindet. Erfahre mehr \u00fcber Orion. &nbsp; Dies ist die Zukunft menschlicher Kommunikation. Es ist eine spannende Zeit, und wir sind dankbar f\u00fcr alle Entwickler*innen, die mit uns zusammen daran arbeiten, f\u00fcr die Early Adopters, die seit Jahren an die Technologie glauben, und f\u00fcr die Neugierigen, die sich heute mit uns auf diese Reise begeben. Vielen Dank! *Das Meta AI Stimmen-Update wird in Australien, Kanada, Neuseeland und den USA und nur auf Englisch verf\u00fcgbar sein. &nbsp;","protected":false},"author":116770500,"featured_media":27960,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[555973764,555973667,555973768,555973442,555973756,555973482,555973767,555973441,7350,555973668],"tags":[],"class_list":["post-27943","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-innovation","category-maschinelles-lernen","category-meta","category-meta-connect","category-oculus","category-mixed-reality","category-technology-and-innovation","category-veranstaltungen","category-virtual-reality"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta\" \/>\n<meta property=\"og:description\" content=\"Es war ein ereignisreiches Jahr. Meta hat mit dem weltweit ersten Mixed-Reality-Headset f\u00fcr den Massenmarkt, der Meta Quest 3, neue Ma\u00dfst\u00e4be gesetzt und mit der Ray-Ban Meta Kollektion Smart Glasses auf ein neues Level gehoben. Es wurde eine Reihe neuer LLMs ver\u00f6ffentlicht, darunter das erste Open-Source-KI-Modell auf Spitzenniveau. Das ist ein beachtlicher Fortschritt auf dem Weg zur n\u00e4chsten Computing-Plattform \u2013 eine, die Menschen konsequent in den Mittelpunkt stellt. Und heute hat Meta-Gr\u00fcnder und CEO Mark Zuckerberg auf Metas 11. j\u00e4hrlichen Connect-Konferenz die aktuellsten News und Entwicklungen in den Bereichen Mixed Reality, KI und Wearables geteilt, die auf Metas Vision einer offenen, st\u00e4rker vernetzten Zukunft einzahlen. Mixed Reality Fortschritte: Meta Quest 3S, Horizon OS Updates &amp; mehr Die Meta Quest 3S verspricht, unglaubliche Erlebnisse zu einem unglaublichen Preis zu liefern. Die Quest 3S ist ab 329,99 Euro verf\u00fcgbar und macht hochwertige Mixed-Reality-Erlebnisse f\u00fcr mehr Menschen als je zuvor zug\u00e4nglich. Sie kann ab heute vorbestellt werden und ist ab dem 15. Oktober im Handel erh\u00e4ltlich. Die Quest 3S bietet die gleichen charakteristischen Features wie die Quest 3: hochaufl\u00f6sende, farbintensive Mixed-Reality-Erlebnisse, die die physische und virtuelle Welt nahtlos miteinander verschmelzen, angetrieben von der Snapdragon\u00ae XR2 Gen 2 Plattform, die in enger Zusammenarbeit mit Qualcomm Technologies entwickelt wurde. Sie bietet Handtracking f\u00fcr nat\u00fcrliche Interaktionen sowie Touch Plus Controller f\u00fcr Pr\u00e4zision. Die Quest 3S hat Zugang zur vollen Bandbreite an Apps, die auf Meta Horizon OS verf\u00fcgbar sind: Unterhaltung, Fitness, Spiele, Produktivit\u00e4t, soziale Erlebnissen und mehr. Und das Headset wird dank regelm\u00e4\u00dfiger Software-Updates im Laufe der Zeit immer besser. Was anders ist? Die wichtigsten \u00c4nderungen sind das Design des Headsets, die Fresnel-Linsen und ein etwas engeres Sichtfeld. Ob Nutzer*innen mit dem Einstiegsmodell Quest 3S mit 128 GB erste Erfahrungen sammeln, zur 256-GB-Variante f\u00fcr mehr Speicherplatz greifen oder dank der 512-GB Quest 3 (zu einem neuen, niedrigeren Preis) mit einem Spitzenerlebnis in virtuelle Welten eintauchen m\u00f6chten \u2013 dies ist die beste Produktfamilie von MR-Headsets auf dem Markt. Zus\u00e4tzlich ist Batman: Arkham Shadow f\u00fcr begrenzte Zeit beim Kauf jeder dieser drei Headset-Optionen im Lieferumfang enthalten. Man muss kein Meisterdetektiv sein, um zu wissen, dass das ein gro\u00dfartiges Angebot ist. Dar\u00fcber hinaus gibt es eine Menge gro\u00dfartiger Inhalte, die gleich am ersten Tag erkundet werden k\u00f6nnen. Von beliebten Streaming-Diensten, wie den neuen Prime Video-, Amazon Music- und Twitch-Apps, die heute gelauncht wurden, bis hin zu Fitness-Apps, wie das kommende Alo Moves XR und der neuen Multiplayer-Funktion \u201cSupernatural Together\u201d f\u00fcr Supernatural, ist die Quest Heimkino und pers\u00f6nlicher Trainer in einem. Und schon bald ist es m\u00f6glich, jeden Windows 11-Computer mit einem Quest-Headset zu verbinden \u2013 ein Blick auf die Tastatur reicht aus, um die Kopplung zu starten. Egal, ob Nutzer*innen auf riesigen virtuellen Displays arbeiten oder ihre Projekte in 3D erkunden m\u00f6chten, die Quest ist eine nat\u00fcrliche Erweiterung ihres PCs und ein Motor f\u00fcr die Produktivit\u00e4t. Denn das ist es, was Meta aufbaut: nicht die n\u00e4chste Gaming-Plattform, sondern die n\u00e4chste Computing-Plattform. Um Filme zu schauen, Musik zu h\u00f6ren, an Tabellenkalkulationen zu t\u00fcfteln, mit Freund*innen zu spielen, abzuh\u00e4ngen und sich zu vernetzen. Meta macht es Entwickler*innen einfacher denn je, f\u00fcr Horizon OS zu entwickeln, sodass Nutzer*innen noch mehr gro\u00dfartige Inhalte erwarten k\u00f6nnen. Alles, was ein Computer kann, kann Metas MR-Headset besser \u2013 dank der Magie, die der Pr\u00e4senz im Raum innewohnt. Und da wir gerade von Pr\u00e4senz sprechen: Auch das wurde verbessert. Meta arbeitet daran, fotorealistische R\u00e4ume \u2013 genannt Hyperscape \u2013 in das Metaverse zu bringen, die so aussehen und sich so anf\u00fchlen, als ob man wirklich dort w\u00e4re. Der Einsatz von Gaussian Splatting, einer 3D-Volumen-Rendering-Technik, erm\u00f6glicht es, die Vorteile von Cloud-Rendering und Streaming zu nutzen, und diese R\u00e4ume auf jeder Stand-Alone Quest 3 in den USA sichtbar zu machen. Meta ver\u00f6ffentlichte heute eine Demo, die eine Handvoll dieser digitalen Replicas zeigt, darunter auch das in der Keynote gezeigte K\u00fcnstlerstudio von Daniel Arsham, um sie direkt selbst erleben zu k\u00f6nnen. In Zukunft k\u00f6nnen Creator*innen in Horizon digitale Welten erschaffen, indem sie mit einem Smartphone einen Raum scannen, diesen umgestalten und so ganz einfach physische R\u00e4ume in die digitale Welt bringen. Um in die wunderbare Welt der Mixed Reality einzutauchen, kann die Quest 3S vorbestellt werden. Oder Nutzer*innen verbessern ihr Erlebnis mit der erstklassigen Quest 3 f\u00fcr nur 549,99 Euro. Hier gibt es weitere Informationen. K\u00fcnstliche Intelligenz, echtes Momentum Seit der Einf\u00fchrung im Jahr 2023 hat sich Meta AI dadurch hervorgetan, dass sie Menschen unbegrenzten und kostenlosen Zugang zu modernster KI bietet. Meta AI ist auf dem besten Weg, bis zum Ende dieses Jahres der meistgenutzte KI-Assistent der Welt zu werden. Mehr als 400 Millionen Menschen nutzen Meta AI bereits monatlich, 185 Millionen Menschen nutzen sie jede Woche \u00fcber unsere verschiedenen Produkte hinweg. Und Meta arbeitet daran, Meta AI noch unterhaltsamer, n\u00fctzlicher und leistungsf\u00e4higer als je zuvor zu machen. Au\u00dferdem macht Meta Interaktionen mit Meta AI durch das Hinzuf\u00fcgen von Sprach-Input noch nat\u00fcrlicher. Nutzer*innen k\u00f6nnen mit Meta AI \u00fcber Facebook, Messenger, WhatsApp und Instagram DMs sprechen, und sie wird ihnen antworten. Und bald werden ikonische Stimmen wie die von Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key und Kristen Bell den intelligenten KI-Assistenten zum Leben erwecken \u2013 und dabei auch f\u00fcr ein bisschen Spa\u00df sorgen.* Meta experimentiert mit automatischer Video- und Lippensynchronisation, beginnend mit Englisch und Spanisch, um den Menschen zu helfen, mehr Inhalte in ihrer Muttersprache in Reels auf Instagram und Facebook zu sehen. Begonnen wird mit einer kleinen Gruppe von Creator*innen auf Instagram und hoffentlich k\u00f6nnen bald noch mehr Creator*innen und Sprachen einbezogen werden. Auf diese Weise k\u00f6nnen Creator*innen mehr Menschen auf der ganzen Welt erreichen, unabh\u00e4ngig davon, welche Sprache sie sprechen. Auch die KI-Bearbeitungstools erweitert Meta um neue Funktionen. Da Meta AI nun auch visuelle Informationen verarbeiten kann, ist es m\u00f6glich, Fragen zu hochgeladenen Fotos stellen. Beispielsweise um fotografierte Pflanzen zu bestimmen oder ein Rezept f\u00fcr das letzte Dessert aus dem Restaurant zu finden. Auch das Bearbeiten von hochgeladenen Fotos in Umgangssprache ist m\u00f6glich. W\u00e4hrend bisher nur von Meta AI generierte Bilder bearbeitet werden konnten, ist es jetzt m\u00f6glich, ganz einfach Elemente eines echten Fotos hinzuf\u00fcgen, zu entfernen oder zu \u00e4ndern. Meta erweitert die \u201cImagine\u201d-Funktionen von Meta AI, sodass Nutzer*innen sich in Stories, ihren Feed-Posts und ihren Profilbildern auf Facebook und Instagram abbilden k\u00f6nnen. So k\u00f6nnen KI-generierte Selfies ganz einfach geteilt werden und Freunde k\u00f6nnen sie sehen, darauf reagieren oder diese nachahmen. Meta AI kann jetzt auch Bildunterschriften f\u00fcr Stories auf Facebook und Instagram vorschlagen. Einfach ein Bild ausw\u00e4hlen und Metas multimodale KI generiert Bildunterschriften, die zu dem Bild passen. Meta f\u00fcgt KI-generierte Chat-Themes f\u00fcr Messenger und Instagram hinzu, damit Nutzer*innen die perfekte Stimmung f\u00fcr sich und ihre Gruppe schaffen k\u00f6nnen. Und Meta testet neue, durch Meta AI-generierte Inhalte f\u00fcr Facebook- und Instagram-Feeds. Nutzer*innen k\u00f6nnen auf vorgeschlagene Prompts tippen oder swipen, um den generierten Inhalt in eine neue Richtung zu lenken oder neue Inhalte in Echtzeit erstellen zu lassen. Generierte Bilder basieren auf Interessen der Nutzer*innen oder stellen diese in den Mittelpunkt und k\u00f6nnen einfach mit Freund*innen geteilt werden. Hier gibt es mehr Informationen zu Metas KI-Produktupdates. Meta hat gerade seine neuen Llama 3.2 Modelle ver\u00f6ffentlicht. Llama 3.2 ist Metas erstes gro\u00dfes Vision-Modell, das sowohl Bilder als auch Text versteht. Um Llama mit Bildunterst\u00fctzung auszustatten, wurde eine Reihe von Adaptergewichten trainiert, die sich in die bestehenden 8B- und 70B-Parameter-Textmodelle integrieren, um 11B- und 90B-Parameter-Modelle zu erstellen, die sowohl Text als auch Bilder verstehen. Und Meta arbeitet weiter an der Verbesserung der Intelligenz \u2013 vor allem im Bereich des logischen Denkens \u2013 und macht diese Modelle zu den fortschrittlichsten, die sie bisher ver\u00f6ffentlicht haben. Meta hat auch kleine Modelle mit 1B- und 3B-Parametern ver\u00f6ffentlicht, die f\u00fcr den Einsatz auf Ger\u00e4ten wie Smartphones oder in Zukunft auch auf Brillen optimiert sind. Meta glaubt, dass Open-Source-KI der richtige Weg f\u00fcr die Zukunft ist. Sie ist kosteng\u00fcnstiger, anpassbarer, vertrauensw\u00fcrdiger sowie leistungsf\u00e4higer als die Alternative. Und Meta wird Llama weiterhin verantwortungsvoll mit kontinuierlichen Verbesserungen und neuen Funktionen weiterentwickeln. Hier gibt es mehr Informationen \u00fcber Llama 3.2. Die wundervolle Welt der Wearables Es gab viele Neuigkeiten f\u00fcr Fans der Ray-Ban Meta Smart Glasses. Meta arbeitet daran, neue Integrationen mit Spotify, Shazam, Audible und iHeart zu ver\u00f6ffentlichen. Au\u00dferdem verbessert Meta das Benutzererlebnis der Brille mit Meta AI, dem intelligenten Assistenten, weiter. Meta hat Interaktionen mit Meta AI noch dialogorientierter und nat\u00fcrlicher gestaltet. Anstatt bei jeder Frage \u201eHey Meta\u201c sagen zu m\u00fcssen, k\u00f6nnen Nutzer*innen die Unterhaltung mit dem Signalwort beginnen und bei Folgefragen ganz normal weitersprechen. Zuk\u00fcnftig k\u00f6nnen Ray-Ban Meta Smart Glasses auch via Sprachbefehl aufgefordert werden, sich an Dinge zu erinnern. Beispielsweise wo das Auto zuletzt geparkt wurde oder die Liebsten anzurufen, sobald das Flugzeug gelandet ist. Auch QR-Codes oder Telefonnummern k\u00f6nnen nach Wunsch gescannt werden. Au\u00dferdem wird Meta AI mit Unterst\u00fctzung f\u00fcr Video-Input erweitert, um kontinuierliche Hilfe in Echtzeit zu erm\u00f6glichen. Beispielsweise, wenn man eine neue Stadt erkundet. Nutzer*innen k\u00f6nnen einfach Meta AI bitten, sie zu begleiten, und sich mit ihr unterhalten, um nach Sehensw\u00fcrdigkeiten zu fragen, die sie sehen, oder um Ideen zu bekommen, was als n\u00e4chstes entdeckt werden kann \u2013 so kann auch freih\u00e4ndig die eigene Stadtf\u00fchrung gestaltet werden. Ray-Ban Meta Smart Glasses werden bald in der Lage sein, Spanisch, Franz\u00f6sisch und Italienisch in Echtzeit zu \u00fcbersetzen. Das Gesprochene ist f\u00fcr Nutzer*innen dank der integrierten Lautsprecher live auf Englisch zu h\u00f6ren \u2013 und hilft so im Urlaub oder unterwegs Sprachbarrieren abzubauen. Weitere Sprachen werden in Zukunft folgen, um Live-\u00dcbersetzungen noch hilfreicher zu machen. Meta arbeitet mit Be My Eyes zusammen, einer kostenlosen App, die blinde und sehbehinderte Menschen mit sehenden Freiwilligen per Live-Video verbindet, die beschreiben k\u00f6nnen, was man vor sich hat. Dank der Brille kann die freiwillige Person einfach die Perspektive der Nutzenden einnehmen und die Umgebung beschreiben. Die Ray-Ban Meta-Kollektion wird um die neue Reihe mit Transitions\u00ae-Gl\u00e4ser von EssilorLuxottica erweitert. Damit haben Nutzer*innen noch mehr Optionen, wenn sie die perfekte Brille suchen, die sie nahtlos von drinnen nach drau\u00dfen und wieder zur\u00fcckbringt. Und Meta bringt eine neue, limitierte Auflage von Shiny Transparent Wayfarer Frames auf den Markt, um die Technologie, die darin steckt, zur Schau zu stellen. Hier gibt es weitere Informationen. Orion: Metas erste AR-Glasses Zu guter Letzt hat Meta Orion enth\u00fcllt \u2013 einen Produktprototyp, der seit 10 Jahren in der Entwicklung ist. Die Anforderungen waren einfach: Es sollte eine Brille sein und kein Headset, ohne Kabel und mit einem Gewicht von weniger als 100 Gramm. Es sollten Displays mit weitem Sichtfeld sein, die hell genug sind, um bei unterschiedlichen Lichtverh\u00e4ltnissen klar sichtbar zu sein, und gleichzeitig gro\u00df genug, um mehrere Bildschirme f\u00fcr Multitasking oder einen kinogro\u00dfen Bildschirm f\u00fcr Entertainment zu erm\u00f6glichen. Und sie sollte erm\u00f6glichen, dass die reale Welt um einen herum zu sehen ist. Nicht nur eine Darstellung der realen Welt durch Passthrough, sondern die tats\u00e4chliche reale Welt mit dar\u00fcber gelegten digitalen Inhalten. Au\u00dferdem sollten Sprachsteuerung sowie Hand- und Augentracking m\u00f6glich sein, um \u00fcber die Benutzeroberfl\u00e4che zu navigieren. Meta m\u00f6chte aber auch eine M\u00f6glichkeit schaffen, auf diskrete und sozial akzeptable Weise mit der Brille zu interagieren. Daher brauchte es zus\u00e4tzlich eine neue Schnittstelle. Orion erf\u00fcllt all diese Anforderungen. Es ist eine Meisterleistung der Miniaturisierung mit zehn ma\u00dfgeschneiderten Siliziumchips, einer v\u00f6llig neuen Display-Architektur und einem EMG-Armband f\u00fcr einfache Eingaben. Orion ist ein fertiger, funktionsf\u00e4higer Produktprototyp. Dies ist nicht nur ein fl\u00fcchtiger Blick auf das, was in Zukunft m\u00f6glich sein k\u00f6nnte: Es ist ein Blick auf eine Realit\u00e4t, die bereits in greifbarer N\u00e4he ist. Mit Orion ist Meta einen wichtigen Schritt n\u00e4her an seinem Versprechen der n\u00e4chsten Generation menschenorientierter Computer und eines tiefen Gef\u00fchls der Pr\u00e4senz mit anderen Menschen gekommen \u2013 ganz gleich, wo auf der Welt man sich befindet. Erfahre mehr \u00fcber Orion. &nbsp; Dies ist die Zukunft menschlicher Kommunikation. Es ist eine spannende Zeit, und wir sind dankbar f\u00fcr alle Entwickler*innen, die mit uns zusammen daran arbeiten, f\u00fcr die Early Adopters, die seit Jahren an die Technologie glauben, und f\u00fcr die Neugierigen, die sich heute mit uns auf diese Reise begeben. Vielen Dank! *Das Meta AI Stimmen-Update wird in Australien, Kanada, Neuseeland und den USA und nur auf Englisch verf\u00fcgbar sein. &nbsp;\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00dcber Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-25T18:14:13+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-25T18:16:22+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"segmentafacebook\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\"},\"author\":\"Facebook company\",\"headline\":\"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr\",\"datePublished\":\"2024-09-25T18:14:13+00:00\",\"dateModified\":\"2024-09-25T18:16:22+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\"},\"wordCount\":2172,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687\",\"articleSection\":[\"Artificial Intelligence\",\"Innovation\",\"Maschinelles Lernen\",\"Meta\",\"Meta Connect\",\"Meta Quest\",\"Mixed Reality\",\"Technology and Innovation\",\"Veranstaltungen\",\"Virtual Reality\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\",\"url\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\",\"name\":\"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687\",\"datePublished\":\"2024-09-25T18:14:13+00:00\",\"dateModified\":\"2024-09-25T18:16:22+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/\"]}],\"author\":\"\u00dcber Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687\",\"width\":3000,\"height\":1687},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/de\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00dcber Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/de\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/de\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/","og_locale":"de_DE","og_type":"article","og_title":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta","og_description":"Es war ein ereignisreiches Jahr. Meta hat mit dem weltweit ersten Mixed-Reality-Headset f\u00fcr den Massenmarkt, der Meta Quest 3, neue Ma\u00dfst\u00e4be gesetzt und mit der Ray-Ban Meta Kollektion Smart Glasses auf ein neues Level gehoben. Es wurde eine Reihe neuer LLMs ver\u00f6ffentlicht, darunter das erste Open-Source-KI-Modell auf Spitzenniveau. Das ist ein beachtlicher Fortschritt auf dem Weg zur n\u00e4chsten Computing-Plattform \u2013 eine, die Menschen konsequent in den Mittelpunkt stellt. Und heute hat Meta-Gr\u00fcnder und CEO Mark Zuckerberg auf Metas 11. j\u00e4hrlichen Connect-Konferenz die aktuellsten News und Entwicklungen in den Bereichen Mixed Reality, KI und Wearables geteilt, die auf Metas Vision einer offenen, st\u00e4rker vernetzten Zukunft einzahlen. Mixed Reality Fortschritte: Meta Quest 3S, Horizon OS Updates &amp; mehr Die Meta Quest 3S verspricht, unglaubliche Erlebnisse zu einem unglaublichen Preis zu liefern. Die Quest 3S ist ab 329,99 Euro verf\u00fcgbar und macht hochwertige Mixed-Reality-Erlebnisse f\u00fcr mehr Menschen als je zuvor zug\u00e4nglich. Sie kann ab heute vorbestellt werden und ist ab dem 15. Oktober im Handel erh\u00e4ltlich. Die Quest 3S bietet die gleichen charakteristischen Features wie die Quest 3: hochaufl\u00f6sende, farbintensive Mixed-Reality-Erlebnisse, die die physische und virtuelle Welt nahtlos miteinander verschmelzen, angetrieben von der Snapdragon\u00ae XR2 Gen 2 Plattform, die in enger Zusammenarbeit mit Qualcomm Technologies entwickelt wurde. Sie bietet Handtracking f\u00fcr nat\u00fcrliche Interaktionen sowie Touch Plus Controller f\u00fcr Pr\u00e4zision. Die Quest 3S hat Zugang zur vollen Bandbreite an Apps, die auf Meta Horizon OS verf\u00fcgbar sind: Unterhaltung, Fitness, Spiele, Produktivit\u00e4t, soziale Erlebnissen und mehr. Und das Headset wird dank regelm\u00e4\u00dfiger Software-Updates im Laufe der Zeit immer besser. Was anders ist? Die wichtigsten \u00c4nderungen sind das Design des Headsets, die Fresnel-Linsen und ein etwas engeres Sichtfeld. Ob Nutzer*innen mit dem Einstiegsmodell Quest 3S mit 128 GB erste Erfahrungen sammeln, zur 256-GB-Variante f\u00fcr mehr Speicherplatz greifen oder dank der 512-GB Quest 3 (zu einem neuen, niedrigeren Preis) mit einem Spitzenerlebnis in virtuelle Welten eintauchen m\u00f6chten \u2013 dies ist die beste Produktfamilie von MR-Headsets auf dem Markt. Zus\u00e4tzlich ist Batman: Arkham Shadow f\u00fcr begrenzte Zeit beim Kauf jeder dieser drei Headset-Optionen im Lieferumfang enthalten. Man muss kein Meisterdetektiv sein, um zu wissen, dass das ein gro\u00dfartiges Angebot ist. Dar\u00fcber hinaus gibt es eine Menge gro\u00dfartiger Inhalte, die gleich am ersten Tag erkundet werden k\u00f6nnen. Von beliebten Streaming-Diensten, wie den neuen Prime Video-, Amazon Music- und Twitch-Apps, die heute gelauncht wurden, bis hin zu Fitness-Apps, wie das kommende Alo Moves XR und der neuen Multiplayer-Funktion \u201cSupernatural Together\u201d f\u00fcr Supernatural, ist die Quest Heimkino und pers\u00f6nlicher Trainer in einem. Und schon bald ist es m\u00f6glich, jeden Windows 11-Computer mit einem Quest-Headset zu verbinden \u2013 ein Blick auf die Tastatur reicht aus, um die Kopplung zu starten. Egal, ob Nutzer*innen auf riesigen virtuellen Displays arbeiten oder ihre Projekte in 3D erkunden m\u00f6chten, die Quest ist eine nat\u00fcrliche Erweiterung ihres PCs und ein Motor f\u00fcr die Produktivit\u00e4t. Denn das ist es, was Meta aufbaut: nicht die n\u00e4chste Gaming-Plattform, sondern die n\u00e4chste Computing-Plattform. Um Filme zu schauen, Musik zu h\u00f6ren, an Tabellenkalkulationen zu t\u00fcfteln, mit Freund*innen zu spielen, abzuh\u00e4ngen und sich zu vernetzen. Meta macht es Entwickler*innen einfacher denn je, f\u00fcr Horizon OS zu entwickeln, sodass Nutzer*innen noch mehr gro\u00dfartige Inhalte erwarten k\u00f6nnen. Alles, was ein Computer kann, kann Metas MR-Headset besser \u2013 dank der Magie, die der Pr\u00e4senz im Raum innewohnt. Und da wir gerade von Pr\u00e4senz sprechen: Auch das wurde verbessert. Meta arbeitet daran, fotorealistische R\u00e4ume \u2013 genannt Hyperscape \u2013 in das Metaverse zu bringen, die so aussehen und sich so anf\u00fchlen, als ob man wirklich dort w\u00e4re. Der Einsatz von Gaussian Splatting, einer 3D-Volumen-Rendering-Technik, erm\u00f6glicht es, die Vorteile von Cloud-Rendering und Streaming zu nutzen, und diese R\u00e4ume auf jeder Stand-Alone Quest 3 in den USA sichtbar zu machen. Meta ver\u00f6ffentlichte heute eine Demo, die eine Handvoll dieser digitalen Replicas zeigt, darunter auch das in der Keynote gezeigte K\u00fcnstlerstudio von Daniel Arsham, um sie direkt selbst erleben zu k\u00f6nnen. In Zukunft k\u00f6nnen Creator*innen in Horizon digitale Welten erschaffen, indem sie mit einem Smartphone einen Raum scannen, diesen umgestalten und so ganz einfach physische R\u00e4ume in die digitale Welt bringen. Um in die wunderbare Welt der Mixed Reality einzutauchen, kann die Quest 3S vorbestellt werden. Oder Nutzer*innen verbessern ihr Erlebnis mit der erstklassigen Quest 3 f\u00fcr nur 549,99 Euro. Hier gibt es weitere Informationen. K\u00fcnstliche Intelligenz, echtes Momentum Seit der Einf\u00fchrung im Jahr 2023 hat sich Meta AI dadurch hervorgetan, dass sie Menschen unbegrenzten und kostenlosen Zugang zu modernster KI bietet. Meta AI ist auf dem besten Weg, bis zum Ende dieses Jahres der meistgenutzte KI-Assistent der Welt zu werden. Mehr als 400 Millionen Menschen nutzen Meta AI bereits monatlich, 185 Millionen Menschen nutzen sie jede Woche \u00fcber unsere verschiedenen Produkte hinweg. Und Meta arbeitet daran, Meta AI noch unterhaltsamer, n\u00fctzlicher und leistungsf\u00e4higer als je zuvor zu machen. Au\u00dferdem macht Meta Interaktionen mit Meta AI durch das Hinzuf\u00fcgen von Sprach-Input noch nat\u00fcrlicher. Nutzer*innen k\u00f6nnen mit Meta AI \u00fcber Facebook, Messenger, WhatsApp und Instagram DMs sprechen, und sie wird ihnen antworten. Und bald werden ikonische Stimmen wie die von Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key und Kristen Bell den intelligenten KI-Assistenten zum Leben erwecken \u2013 und dabei auch f\u00fcr ein bisschen Spa\u00df sorgen.* Meta experimentiert mit automatischer Video- und Lippensynchronisation, beginnend mit Englisch und Spanisch, um den Menschen zu helfen, mehr Inhalte in ihrer Muttersprache in Reels auf Instagram und Facebook zu sehen. Begonnen wird mit einer kleinen Gruppe von Creator*innen auf Instagram und hoffentlich k\u00f6nnen bald noch mehr Creator*innen und Sprachen einbezogen werden. Auf diese Weise k\u00f6nnen Creator*innen mehr Menschen auf der ganzen Welt erreichen, unabh\u00e4ngig davon, welche Sprache sie sprechen. Auch die KI-Bearbeitungstools erweitert Meta um neue Funktionen. Da Meta AI nun auch visuelle Informationen verarbeiten kann, ist es m\u00f6glich, Fragen zu hochgeladenen Fotos stellen. Beispielsweise um fotografierte Pflanzen zu bestimmen oder ein Rezept f\u00fcr das letzte Dessert aus dem Restaurant zu finden. Auch das Bearbeiten von hochgeladenen Fotos in Umgangssprache ist m\u00f6glich. W\u00e4hrend bisher nur von Meta AI generierte Bilder bearbeitet werden konnten, ist es jetzt m\u00f6glich, ganz einfach Elemente eines echten Fotos hinzuf\u00fcgen, zu entfernen oder zu \u00e4ndern. Meta erweitert die \u201cImagine\u201d-Funktionen von Meta AI, sodass Nutzer*innen sich in Stories, ihren Feed-Posts und ihren Profilbildern auf Facebook und Instagram abbilden k\u00f6nnen. So k\u00f6nnen KI-generierte Selfies ganz einfach geteilt werden und Freunde k\u00f6nnen sie sehen, darauf reagieren oder diese nachahmen. Meta AI kann jetzt auch Bildunterschriften f\u00fcr Stories auf Facebook und Instagram vorschlagen. Einfach ein Bild ausw\u00e4hlen und Metas multimodale KI generiert Bildunterschriften, die zu dem Bild passen. Meta f\u00fcgt KI-generierte Chat-Themes f\u00fcr Messenger und Instagram hinzu, damit Nutzer*innen die perfekte Stimmung f\u00fcr sich und ihre Gruppe schaffen k\u00f6nnen. Und Meta testet neue, durch Meta AI-generierte Inhalte f\u00fcr Facebook- und Instagram-Feeds. Nutzer*innen k\u00f6nnen auf vorgeschlagene Prompts tippen oder swipen, um den generierten Inhalt in eine neue Richtung zu lenken oder neue Inhalte in Echtzeit erstellen zu lassen. Generierte Bilder basieren auf Interessen der Nutzer*innen oder stellen diese in den Mittelpunkt und k\u00f6nnen einfach mit Freund*innen geteilt werden. Hier gibt es mehr Informationen zu Metas KI-Produktupdates. Meta hat gerade seine neuen Llama 3.2 Modelle ver\u00f6ffentlicht. Llama 3.2 ist Metas erstes gro\u00dfes Vision-Modell, das sowohl Bilder als auch Text versteht. Um Llama mit Bildunterst\u00fctzung auszustatten, wurde eine Reihe von Adaptergewichten trainiert, die sich in die bestehenden 8B- und 70B-Parameter-Textmodelle integrieren, um 11B- und 90B-Parameter-Modelle zu erstellen, die sowohl Text als auch Bilder verstehen. Und Meta arbeitet weiter an der Verbesserung der Intelligenz \u2013 vor allem im Bereich des logischen Denkens \u2013 und macht diese Modelle zu den fortschrittlichsten, die sie bisher ver\u00f6ffentlicht haben. Meta hat auch kleine Modelle mit 1B- und 3B-Parametern ver\u00f6ffentlicht, die f\u00fcr den Einsatz auf Ger\u00e4ten wie Smartphones oder in Zukunft auch auf Brillen optimiert sind. Meta glaubt, dass Open-Source-KI der richtige Weg f\u00fcr die Zukunft ist. Sie ist kosteng\u00fcnstiger, anpassbarer, vertrauensw\u00fcrdiger sowie leistungsf\u00e4higer als die Alternative. Und Meta wird Llama weiterhin verantwortungsvoll mit kontinuierlichen Verbesserungen und neuen Funktionen weiterentwickeln. Hier gibt es mehr Informationen \u00fcber Llama 3.2. Die wundervolle Welt der Wearables Es gab viele Neuigkeiten f\u00fcr Fans der Ray-Ban Meta Smart Glasses. Meta arbeitet daran, neue Integrationen mit Spotify, Shazam, Audible und iHeart zu ver\u00f6ffentlichen. Au\u00dferdem verbessert Meta das Benutzererlebnis der Brille mit Meta AI, dem intelligenten Assistenten, weiter. Meta hat Interaktionen mit Meta AI noch dialogorientierter und nat\u00fcrlicher gestaltet. Anstatt bei jeder Frage \u201eHey Meta\u201c sagen zu m\u00fcssen, k\u00f6nnen Nutzer*innen die Unterhaltung mit dem Signalwort beginnen und bei Folgefragen ganz normal weitersprechen. Zuk\u00fcnftig k\u00f6nnen Ray-Ban Meta Smart Glasses auch via Sprachbefehl aufgefordert werden, sich an Dinge zu erinnern. Beispielsweise wo das Auto zuletzt geparkt wurde oder die Liebsten anzurufen, sobald das Flugzeug gelandet ist. Auch QR-Codes oder Telefonnummern k\u00f6nnen nach Wunsch gescannt werden. Au\u00dferdem wird Meta AI mit Unterst\u00fctzung f\u00fcr Video-Input erweitert, um kontinuierliche Hilfe in Echtzeit zu erm\u00f6glichen. Beispielsweise, wenn man eine neue Stadt erkundet. Nutzer*innen k\u00f6nnen einfach Meta AI bitten, sie zu begleiten, und sich mit ihr unterhalten, um nach Sehensw\u00fcrdigkeiten zu fragen, die sie sehen, oder um Ideen zu bekommen, was als n\u00e4chstes entdeckt werden kann \u2013 so kann auch freih\u00e4ndig die eigene Stadtf\u00fchrung gestaltet werden. Ray-Ban Meta Smart Glasses werden bald in der Lage sein, Spanisch, Franz\u00f6sisch und Italienisch in Echtzeit zu \u00fcbersetzen. Das Gesprochene ist f\u00fcr Nutzer*innen dank der integrierten Lautsprecher live auf Englisch zu h\u00f6ren \u2013 und hilft so im Urlaub oder unterwegs Sprachbarrieren abzubauen. Weitere Sprachen werden in Zukunft folgen, um Live-\u00dcbersetzungen noch hilfreicher zu machen. Meta arbeitet mit Be My Eyes zusammen, einer kostenlosen App, die blinde und sehbehinderte Menschen mit sehenden Freiwilligen per Live-Video verbindet, die beschreiben k\u00f6nnen, was man vor sich hat. Dank der Brille kann die freiwillige Person einfach die Perspektive der Nutzenden einnehmen und die Umgebung beschreiben. Die Ray-Ban Meta-Kollektion wird um die neue Reihe mit Transitions\u00ae-Gl\u00e4ser von EssilorLuxottica erweitert. Damit haben Nutzer*innen noch mehr Optionen, wenn sie die perfekte Brille suchen, die sie nahtlos von drinnen nach drau\u00dfen und wieder zur\u00fcckbringt. Und Meta bringt eine neue, limitierte Auflage von Shiny Transparent Wayfarer Frames auf den Markt, um die Technologie, die darin steckt, zur Schau zu stellen. Hier gibt es weitere Informationen. Orion: Metas erste AR-Glasses Zu guter Letzt hat Meta Orion enth\u00fcllt \u2013 einen Produktprototyp, der seit 10 Jahren in der Entwicklung ist. Die Anforderungen waren einfach: Es sollte eine Brille sein und kein Headset, ohne Kabel und mit einem Gewicht von weniger als 100 Gramm. Es sollten Displays mit weitem Sichtfeld sein, die hell genug sind, um bei unterschiedlichen Lichtverh\u00e4ltnissen klar sichtbar zu sein, und gleichzeitig gro\u00df genug, um mehrere Bildschirme f\u00fcr Multitasking oder einen kinogro\u00dfen Bildschirm f\u00fcr Entertainment zu erm\u00f6glichen. Und sie sollte erm\u00f6glichen, dass die reale Welt um einen herum zu sehen ist. Nicht nur eine Darstellung der realen Welt durch Passthrough, sondern die tats\u00e4chliche reale Welt mit dar\u00fcber gelegten digitalen Inhalten. Au\u00dferdem sollten Sprachsteuerung sowie Hand- und Augentracking m\u00f6glich sein, um \u00fcber die Benutzeroberfl\u00e4che zu navigieren. Meta m\u00f6chte aber auch eine M\u00f6glichkeit schaffen, auf diskrete und sozial akzeptable Weise mit der Brille zu interagieren. Daher brauchte es zus\u00e4tzlich eine neue Schnittstelle. Orion erf\u00fcllt all diese Anforderungen. Es ist eine Meisterleistung der Miniaturisierung mit zehn ma\u00dfgeschneiderten Siliziumchips, einer v\u00f6llig neuen Display-Architektur und einem EMG-Armband f\u00fcr einfache Eingaben. Orion ist ein fertiger, funktionsf\u00e4higer Produktprototyp. Dies ist nicht nur ein fl\u00fcchtiger Blick auf das, was in Zukunft m\u00f6glich sein k\u00f6nnte: Es ist ein Blick auf eine Realit\u00e4t, die bereits in greifbarer N\u00e4he ist. Mit Orion ist Meta einen wichtigen Schritt n\u00e4her an seinem Versprechen der n\u00e4chsten Generation menschenorientierter Computer und eines tiefen Gef\u00fchls der Pr\u00e4senz mit anderen Menschen gekommen \u2013 ganz gleich, wo auf der Welt man sich befindet. Erfahre mehr \u00fcber Orion. &nbsp; Dies ist die Zukunft menschlicher Kommunikation. Es ist eine spannende Zeit, und wir sind dankbar f\u00fcr alle Entwickler*innen, die mit uns zusammen daran arbeiten, f\u00fcr die Early Adopters, die seit Jahren an die Technologie glauben, und f\u00fcr die Neugierigen, die sich heute mit uns auf diese Reise begeben. Vielen Dank! *Das Meta AI Stimmen-Update wird in Australien, Kanada, Neuseeland und den USA und nur auf Englisch verf\u00fcgbar sein. &nbsp;","og_url":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/","og_site_name":"\u00dcber Meta","article_published_time":"2024-09-25T18:14:13+00:00","article_modified_time":"2024-09-25T18:16:22+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"segmentafacebook","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"9 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/"},"author":"Facebook company","headline":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr","datePublished":"2024-09-25T18:14:13+00:00","dateModified":"2024-09-25T18:16:22+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/"},"wordCount":2172,"publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687","articleSection":["Artificial Intelligence","Innovation","Maschinelles Lernen","Meta","Meta Connect","Meta Quest","Mixed Reality","Technology and Innovation","Veranstaltungen","Virtual Reality"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/","url":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/","name":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr | \u00dcber Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687","datePublished":"2024-09-25T18:14:13+00:00","dateModified":"2024-09-25T18:16:22+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/"]}],"author":"\u00dcber Meta"},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#primaryimage","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687","width":3000,"height":1687},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/de\/news\/2024\/09\/meta-connect-2024\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/de\/"},{"@type":"ListItem","position":2,"name":"Meta Connect 2024: Quest 3S, Llama 3.2 &amp; mehr"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/de\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00dcber Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/de\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2024\/09\/Meta-Connect-2024.jpg?fit=3000%2C1687","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/27943","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/users\/116770500"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/comments?post=27943"}],"version-history":[{"count":12,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/27943\/revisions"}],"predecessor-version":[{"id":27959,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/27943\/revisions\/27959"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media\/27960"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media?parent=27943"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/categories?post=27943"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/tags?post=27943"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}