Meta

Meta Connect 2024: Quest 3S, Llama 3.2 & mehr

Es war ein ereignisreiches Jahr. Meta hat mit dem weltweit ersten Mixed-Reality-Headset für den Massenmarkt, der Meta Quest 3, neue Maßstäbe gesetzt und mit der Ray-Ban Meta Kollektion Smart Glasses auf ein neues Level gehoben. Es wurde eine Reihe neuer LLMs veröffentlicht, darunter das erste Open-Source-KI-Modell auf Spitzenniveau. Das ist ein beachtlicher Fortschritt auf dem Weg zur nächsten Computing-Plattform – eine, die Menschen konsequent in den Mittelpunkt stellt. Und heute hat Meta-Gründer und CEO Mark Zuckerberg auf Metas 11. jährlichen Connect-Konferenz die aktuellsten News und Entwicklungen in den Bereichen Mixed Reality, KI und Wearables geteilt, die auf Metas Vision einer offenen, stärker vernetzten Zukunft einzahlen.

Mixed Reality Fortschritte: Meta Quest 3S, Horizon OS Updates & mehr

Die Meta Quest 3S verspricht, unglaubliche Erlebnisse zu einem unglaublichen Preis zu liefern. Die Quest 3S ist ab 329,99 Euro verfügbar und macht hochwertige Mixed-Reality-Erlebnisse für mehr Menschen als je zuvor zugänglich. Sie kann ab heute vorbestellt werden und ist ab dem 15. Oktober im Handel erhältlich.

Die Quest 3S bietet die gleichen charakteristischen Features wie die Quest 3: hochauflösende, farbintensive Mixed-Reality-Erlebnisse, die die physische und virtuelle Welt nahtlos miteinander verschmelzen, angetrieben von der Snapdragon® XR2 Gen 2 Plattform, die in enger Zusammenarbeit mit Qualcomm Technologies entwickelt wurde. Sie bietet Handtracking für natürliche Interaktionen sowie Touch Plus Controller für Präzision. Die Quest 3S hat Zugang zur vollen Bandbreite an Apps, die auf Meta Horizon OS verfügbar sind: Unterhaltung, Fitness, Spiele, Produktivität, soziale Erlebnissen und mehr. Und das Headset wird dank regelmäßiger Software-Updates im Laufe der Zeit immer besser.

Was anders ist? Die wichtigsten Änderungen sind das Design des Headsets, die Fresnel-Linsen und ein etwas engeres Sichtfeld.

Ob Nutzer*innen mit dem Einstiegsmodell Quest 3S mit 128 GB erste Erfahrungen sammeln, zur 256-GB-Variante für mehr Speicherplatz greifen oder dank der 512-GB Quest 3 (zu einem neuen, niedrigeren Preis) mit einem Spitzenerlebnis in virtuelle Welten eintauchen möchten – dies ist die beste Produktfamilie von MR-Headsets auf dem Markt.

Zusätzlich ist Batman: Arkham Shadow für begrenzte Zeit beim Kauf jeder dieser drei Headset-Optionen im Lieferumfang enthalten. Man muss kein Meisterdetektiv sein, um zu wissen, dass das ein großartiges Angebot ist.

Darüber hinaus gibt es eine Menge großartiger Inhalte, die gleich am ersten Tag erkundet werden können. Von beliebten Streaming-Diensten, wie den neuen Prime Video-, Amazon Music- und Twitch-Apps, die heute gelauncht wurden, bis hin zu Fitness-Apps, wie das kommende Alo Moves XR und der neuen Multiplayer-Funktion “Supernatural Together” für Supernatural, ist die Quest Heimkino und persönlicher Trainer in einem. Und schon bald ist es möglich, jeden Windows 11-Computer mit einem Quest-Headset zu verbinden – ein Blick auf die Tastatur reicht aus, um die Kopplung zu starten. Egal, ob Nutzer*innen auf riesigen virtuellen Displays arbeiten oder ihre Projekte in 3D erkunden möchten, die Quest ist eine natürliche Erweiterung ihres PCs und ein Motor für die Produktivität.

Denn das ist es, was Meta aufbaut: nicht die nächste Gaming-Plattform, sondern die nächste Computing-Plattform. Um Filme zu schauen, Musik zu hören, an Tabellenkalkulationen zu tüfteln, mit Freund*innen zu spielen, abzuhängen und sich zu vernetzen. Meta macht es Entwickler*innen einfacher denn je, für Horizon OS zu entwickeln, sodass Nutzer*innen noch mehr großartige Inhalte erwarten können. Alles, was ein Computer kann, kann Metas MR-Headset besser – dank der Magie, die der Präsenz im Raum innewohnt.

Und da wir gerade von Präsenz sprechen: Auch das wurde verbessert. Meta arbeitet daran, fotorealistische Räume – genannt Hyperscape – in das Metaverse zu bringen, die so aussehen und sich so anfühlen, als ob man wirklich dort wäre. Der Einsatz von Gaussian Splatting, einer 3D-Volumen-Rendering-Technik, ermöglicht es, die Vorteile von Cloud-Rendering und Streaming zu nutzen, und diese Räume auf jeder Stand-Alone Quest 3 in den USA sichtbar zu machen. Meta veröffentlichte heute eine Demo, die eine Handvoll dieser digitalen Replicas zeigt, darunter auch das in der Keynote gezeigte Künstlerstudio von Daniel Arsham, um sie direkt selbst erleben zu können. In Zukunft können Creator*innen in Horizon digitale Welten erschaffen, indem sie mit einem Smartphone einen Raum scannen, diesen umgestalten und so ganz einfach physische Räume in die digitale Welt bringen.

Um in die wunderbare Welt der Mixed Reality einzutauchen, kann die Quest 3S vorbestellt werden. Oder Nutzer*innen verbessern ihr Erlebnis mit der erstklassigen Quest 3 für nur 549,99 Euro. Hier gibt es weitere Informationen.

Künstliche Intelligenz, echtes Momentum

Seit der Einführung im Jahr 2023 hat sich Meta AI dadurch hervorgetan, dass sie Menschen unbegrenzten und kostenlosen Zugang zu modernster KI bietet. Meta AI ist auf dem besten Weg, bis zum Ende dieses Jahres der meistgenutzte KI-Assistent der Welt zu werden. Mehr als 400 Millionen Menschen nutzen Meta AI bereits monatlich, 185 Millionen Menschen nutzen sie jede Woche über unsere verschiedenen Produkte hinweg. Und Meta arbeitet daran, Meta AI noch unterhaltsamer, nützlicher und leistungsfähiger als je zuvor zu machen.

Außerdem macht Meta Interaktionen mit Meta AI durch das Hinzufügen von Sprach-Input noch natürlicher. Nutzer*innen können mit Meta AI über Facebook, Messenger, WhatsApp und Instagram DMs sprechen, und sie wird ihnen antworten. Und bald werden ikonische Stimmen wie die von Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key und Kristen Bell den intelligenten KI-Assistenten zum Leben erwecken – und dabei auch für ein bisschen Spaß sorgen.*

Meta experimentiert mit automatischer Video- und Lippensynchronisation, beginnend mit Englisch und Spanisch, um den Menschen zu helfen, mehr Inhalte in ihrer Muttersprache in Reels auf Instagram und Facebook zu sehen. Begonnen wird mit einer kleinen Gruppe von Creator*innen auf Instagram und hoffentlich können bald noch mehr Creator*innen und Sprachen einbezogen werden. Auf diese Weise können Creator*innen mehr Menschen auf der ganzen Welt erreichen, unabhängig davon, welche Sprache sie sprechen.

Auch die KI-Bearbeitungstools erweitert Meta um neue Funktionen. Da Meta AI nun auch visuelle Informationen verarbeiten kann, ist es möglich, Fragen zu hochgeladenen Fotos stellen. Beispielsweise um fotografierte Pflanzen zu bestimmen oder ein Rezept für das letzte Dessert aus dem Restaurant zu finden. Auch das Bearbeiten von hochgeladenen Fotos in Umgangssprache ist möglich. Während bisher nur von Meta AI generierte Bilder bearbeitet werden konnten, ist es jetzt möglich, ganz einfach Elemente eines echten Fotos hinzufügen, zu entfernen oder zu ändern.

Meta erweitert die “Imagine”-Funktionen von Meta AI, sodass Nutzer*innen sich in Stories, ihren Feed-Posts und ihren Profilbildern auf Facebook und Instagram abbilden können. So können KI-generierte Selfies ganz einfach geteilt werden und Freunde können sie sehen, darauf reagieren oder diese nachahmen. Meta AI kann jetzt auch Bildunterschriften für Stories auf Facebook und Instagram vorschlagen. Einfach ein Bild auswählen und Metas multimodale KI generiert Bildunterschriften, die zu dem Bild passen.

Meta fügt KI-generierte Chat-Themes für Messenger und Instagram hinzu, damit Nutzer*innen die perfekte Stimmung für sich und ihre Gruppe schaffen können. Und Meta testet neue, durch Meta AI-generierte Inhalte für Facebook- und Instagram-Feeds. Nutzer*innen können auf vorgeschlagene Prompts tippen oder swipen, um den generierten Inhalt in eine neue Richtung zu lenken oder neue Inhalte in Echtzeit erstellen zu lassen. Generierte Bilder basieren auf Interessen der Nutzer*innen oder stellen diese in den Mittelpunkt und können einfach mit Freund*innen geteilt werden.

Hier gibt es mehr Informationen zu Metas KI-Produktupdates.

Meta hat gerade seine neuen Llama 3.2 Modelle veröffentlicht. Llama 3.2 ist Metas erstes großes Vision-Modell, das sowohl Bilder als auch Text versteht. Um Llama mit Bildunterstützung auszustatten, wurde eine Reihe von Adaptergewichten trainiert, die sich in die bestehenden 8B- und 70B-Parameter-Textmodelle integrieren, um 11B- und 90B-Parameter-Modelle zu erstellen, die sowohl Text als auch Bilder verstehen. Und Meta arbeitet weiter an der Verbesserung der Intelligenz – vor allem im Bereich des logischen Denkens – und macht diese Modelle zu den fortschrittlichsten, die sie bisher veröffentlicht haben.

Meta hat auch kleine Modelle mit 1B- und 3B-Parametern veröffentlicht, die für den Einsatz auf Geräten wie Smartphones oder in Zukunft auch auf Brillen optimiert sind.

Meta glaubt, dass Open-Source-KI der richtige Weg für die Zukunft ist. Sie ist kostengünstiger, anpassbarer, vertrauenswürdiger sowie leistungsfähiger als die Alternative. Und Meta wird Llama weiterhin verantwortungsvoll mit kontinuierlichen Verbesserungen und neuen Funktionen weiterentwickeln. Hier gibt es mehr Informationen über Llama 3.2.

Die wundervolle Welt der Wearables

Es gab viele Neuigkeiten für Fans der Ray-Ban Meta Smart Glasses. Meta arbeitet daran, neue Integrationen mit Spotify, Shazam, Audible und iHeart zu veröffentlichen. Außerdem verbessert Meta das Benutzererlebnis der Brille mit Meta AI, dem intelligenten Assistenten, weiter.

Meta hat Interaktionen mit Meta AI noch dialogorientierter und natürlicher gestaltet. Anstatt bei jeder Frage „Hey Meta“ sagen zu müssen, können Nutzer*innen die Unterhaltung mit dem Signalwort beginnen und bei Folgefragen ganz normal weitersprechen.

Zukünftig können Ray-Ban Meta Smart Glasses auch via Sprachbefehl aufgefordert werden, sich an Dinge zu erinnern. Beispielsweise wo das Auto zuletzt geparkt wurde oder die Liebsten anzurufen, sobald das Flugzeug gelandet ist. Auch QR-Codes oder Telefonnummern können nach Wunsch gescannt werden.

Außerdem wird Meta AI mit Unterstützung für Video-Input erweitert, um kontinuierliche Hilfe in Echtzeit zu ermöglichen. Beispielsweise, wenn man eine neue Stadt erkundet. Nutzer*innen können einfach Meta AI bitten, sie zu begleiten, und sich mit ihr unterhalten, um nach Sehenswürdigkeiten zu fragen, die sie sehen, oder um Ideen zu bekommen, was als nächstes entdeckt werden kann – so kann auch freihändig die eigene Stadtführung gestaltet werden.

Ray-Ban Meta Smart Glasses werden bald in der Lage sein, Spanisch, Französisch und Italienisch in Echtzeit zu übersetzen. Das Gesprochene ist für Nutzer*innen dank der integrierten Lautsprecher live auf Englisch zu hören – und hilft so im Urlaub oder unterwegs Sprachbarrieren abzubauen. Weitere Sprachen werden in Zukunft folgen, um Live-Übersetzungen noch hilfreicher zu machen.

Meta arbeitet mit Be My Eyes zusammen, einer kostenlosen App, die blinde und sehbehinderte Menschen mit sehenden Freiwilligen per Live-Video verbindet, die beschreiben können, was man vor sich hat. Dank der Brille kann die freiwillige Person einfach die Perspektive der Nutzenden einnehmen und die Umgebung beschreiben.

Die Ray-Ban Meta-Kollektion wird um die neue Reihe mit Transitions®-Gläser von EssilorLuxottica erweitert. Damit haben Nutzer*innen noch mehr Optionen, wenn sie die perfekte Brille suchen, die sie nahtlos von drinnen nach draußen und wieder zurückbringt. Und Meta bringt eine neue, limitierte Auflage von Shiny Transparent Wayfarer Frames auf den Markt, um die Technologie, die darin steckt, zur Schau zu stellen.

Hier gibt es weitere Informationen.

Orion: Metas erste AR-Glasses

Zu guter Letzt hat Meta Orion enthüllt – einen Produktprototyp, der seit 10 Jahren in der Entwicklung ist. Die Anforderungen waren einfach: Es sollte eine Brille sein und kein Headset, ohne Kabel und mit einem Gewicht von weniger als 100 Gramm. Es sollten Displays mit weitem Sichtfeld sein, die hell genug sind, um bei unterschiedlichen Lichtverhältnissen klar sichtbar zu sein, und gleichzeitig groß genug, um mehrere Bildschirme für Multitasking oder einen kinogroßen Bildschirm für Entertainment zu ermöglichen. Und sie sollte ermöglichen, dass die reale Welt um einen herum zu sehen ist. Nicht nur eine Darstellung der realen Welt durch Passthrough, sondern die tatsächliche reale Welt mit darüber gelegten digitalen Inhalten.

Außerdem sollten Sprachsteuerung sowie Hand- und Augentracking möglich sein, um über die Benutzeroberfläche zu navigieren. Meta möchte aber auch eine Möglichkeit schaffen, auf diskrete und sozial akzeptable Weise mit der Brille zu interagieren. Daher brauchte es zusätzlich eine neue Schnittstelle.

Orion erfüllt all diese Anforderungen. Es ist eine Meisterleistung der Miniaturisierung mit zehn maßgeschneiderten Siliziumchips, einer völlig neuen Display-Architektur und einem EMG-Armband für einfache Eingaben. Orion ist ein fertiger, funktionsfähiger Produktprototyp. Dies ist nicht nur ein flüchtiger Blick auf das, was in Zukunft möglich sein könnte: Es ist ein Blick auf eine Realität, die bereits in greifbarer Nähe ist.

Mit Orion ist Meta einen wichtigen Schritt näher an seinem Versprechen der nächsten Generation menschenorientierter Computer und eines tiefen Gefühls der Präsenz mit anderen Menschen gekommen – ganz gleich, wo auf der Welt man sich befindet.

Erfahre mehr über Orion.

 

Dies ist die Zukunft menschlicher Kommunikation. Es ist eine spannende Zeit, und wir sind dankbar für alle Entwickler*innen, die mit uns zusammen daran arbeiten, für die Early Adopters, die seit Jahren an die Technologie glauben, und für die Neugierigen, die sich heute mit uns auf diese Reise begeben. Vielen Dank!

*Das Meta AI Stimmen-Update wird in Australien, Kanada, Neuseeland und den USA und nur auf Englisch verfügbar sein.

 



Wir setzen Cookies ein, damit wir Content personalisieren, Anzeigen individualisieren und messen und eine sichere Erfahrung bieten können. Indem du mit der Navigation auf der Seite fortfährst oder auf Inhalte klickst, stimmst du der Erfassung von Informationen auf und außerhalb von Facebook über Cookies zu. Mehr erfahren, auch zu den verfügbaren Steuerelementen: Cookie-Richtlinie