Zuckerberg präsentiert auf seiner hauseigenen Messe die wichtigsten Neuigkeiten des Unternehmens. Sie bestimmen jeweils das Jahr. Hier gab Zuckerberg die Umbenennung in Meta bekannt, kündigte das Jahr der Effizienz an und hier verlautbarte er den Kurswechsel – alles auf Künstliche Intelligenz.
Alles? Nicht ganz. Meta arbeitet nach wie vor am Metaverse. Die Familie der VR-Headsets Quest wird um eine schlanke und kostengünstige Variante erweitert. Die Ray-Ban Smartglasses profitieren dann aber doch vor allem von KI, und Meta AI wird deutlich umfangreicher – unter anderem durch die Fähigkeit, Bilder zu analysieren und zu sprechen. Llama kommt in Version 3.2 und versteht Text sowie Bilder.
Überraschenderweise präsentiert Zuckerberg auch seinen Prototyp einer holografischen Brille. An der arbeitet ein Team seit zehn Jahren. Die Brille kann Hologramme, Eyetracking, Sprache. Ein Armband gehört dazu, für die Steuerung. Wann die Brille namens Orion verfügbar sein wird, ist noch unklar. Aber sie imponiert offenbar auch andere in der Tech-Branche. Selbst NVIDIA-CEO Jen-Hsun Huang zeigt sich im Video beeindruckt.
Zwei kleine VR-Headsets: Quest 3S
Dass es nicht nur KI gibt, zeigt etwa die Vorstellung einer neuen und deutlich günstigeren Version der VR-Brille: die Quest 3S. Gerüchte hatte es bereits gegeben. Nun ist klar, sie kommt ab 329,99 Euro bei 128 GB auf den Markt. Es gibt auch eine Variante mit 256 GB für 439,99 Euro. Ab 25. September kann man das Headset vorbestellen, am 15. Oktober kommt sie in die Regale. Die Quest S3 hat nach Aussage von Meta die "gleichen hochauflösenden, farbigen Mixed-Reality-Fähigkeiten und die gleiche schnelle Leistung wie die Quest 3". Sie soll ein Einstiegsgerät sein, aber auch besonders geeignet für Familien oder Menschen, die bereits eine Quest 2 haben und ein leistbares Update wollen. Die große Quest 3 (512 GB) wird zudem günstiger, sie kostet künftig 549,99 Euro.
Die Quest 3S fühlt sich für den Träger ganz gleich zur Quest 3 an. Mit den anders angeordneten Kameras auf der Front sieht sie nur etwas anders aus. Just Dance, Minecraft, das Bedienen des Browsers, alles klappt gewohnt intuitiv und macht Spaß.
Im Vergleich, eine Apple Vision Pro liegt bei rund 4000 Euro. Zuckerberg hatte sich schon bei deren Ankündigung auf die Konkurrenz gefreut; er sagte, dadurch werde der Markt erweitert, was auch seinen Headsets zugutekommt. Auch Zuckerberg spricht davon, dass das Headset einen Computer ersetzen kann.
Die Quest 3 und 3S können freilich auch Meta AI, der KI-Assistent, der nicht in der EU verfügbar ist.
Horizon Worlds wird weiterhin entwickelt, das Metaverse ist also noch da. Im Publikum sitzen Fans, sie klatschen besonders laut, als erste Bilder gezeigt werden. Die Avatare sind verbessert worden, man kann künftig Youtube in der virtuellen Welt schauen.
Meta AI und Llama 3.2 lernen zu sprechen und zu sehen
In Deutschland müssen wir uns noch immer gedulden. Meta AI, also alle KI-Anwendungen wie etwa ein Chatbot, haben nach wie vor kein Startdatum in der EU. Zuckerberg kritisierte bereits, die EU müsse dringend eine einheitliche Regulierung schaffen. Das betrifft jedoch nicht den AI Act, sondern den Datenschutz. Aktuell darf Meta keine Daten der Menschen in der EU für das Training von KI-Modellen verwenden. Aber auch Digital Services Act und Digital Markets Act stoßen dem Unternehmen immer wieder auf. Sie wollen für Verbraucher bessere Bedingungen schaffen, grundsätzlich sind im besonderen US-Tech-Unternehmen kein Freund von Regulierungen. Dennoch: Meta AI ist laut Zuckerberg die meist genutzte KI-Anwendung der Welt – "vielleicht schon jetzt, spätestens bis zum Ende des Jahres."
Für Menschen in etwa den USA, Kanada und Australien bekommt Meta AI im nächsten Monat Augen und Mund. Mit letzterem kann die KI künftig über WhatsApp, Instagram, Facebook und den Messenger sprechen. Zuckerberg hält Sprache für sehr viel natürlicher, als Tippen. Als Stimmen stehen bekannte Persönlichkeiten zur Verfügung, etwa Judi Dench, Kristen Bell und Keegan Michael Key.
Zunächst nur in den USA wird Meta AI auch sehen können. Das bedeutet, die KI kann Fotos im Chat analysieren. Ähnlich, wie es auch bei OpenAIs ChatGPT oder Google Gemini funktioniert. Meta AI kann dann auch noch innerhalb des Chats Fotos bearbeiten, etwa ein Objekt entfernen. Möglich ist aber auch mehr Spielerei, wie eine Kuh auf ein Surfbrett stellen und ein Cap aufsetzen. Google kann ebenfalls Objekte entfernen, allerdings nur mit dem passenden Android-Gerät und in der Fotos-App.
Weitere neue Funktionen sind automatische Lippen-synchrone Übersetzungen für Reels, die Creator nutzen können. Sie bekommen nun auch erweiterte Möglichkeiten für eigene KI-Assistenten, die sie über das AI Studio erstellen können.
Meta zeigt Nutzerinnen und Nutzern zudem KI-generierte Inhalte, von denen Meta AI meint, dass sie zu den eigenen Interessen passen. Das ist zunächst ein Test.
Llama 3.2 ist die nächste Version von Metas Open-Source-Model. Es ist das erste Vision-Modell, wie Meta betont, und kommt als 11B- und 90B-Variante daher. Außerdem erscheinen zwei kleine Modelle (1B und 3B) für Mobilgeräte – und auch für Brillen. Sie sind laut Meta für Qualcomm- und MediaTek-Hardware geeignet und für ARM-Prozessoren optimiert. Meta stellt auch die ersten Llama-Stack-Distributionen vor. Llama 3.2 ist über llama.com und Huggingface verfügbar, sowie über die zahlreichen Partner-Plattformen, etwa AWS, AMD, Dell, Google Cloud, Microsoft Azure und mehr.
Unternehmen können ihre Präsenz in WhatsApp und dem Messenger mit KI unterstützen. Auch für Werbetreibende gibt es neue KI-Tools.
Ray-Ban Meta Glasses werden klüger
Metas Ray-Ban Glasses können künftig Erinnerungen erstellen, wenn man sie per Sprache darum bittet sowie QR-Codes lesen. "Meta, erinnere mich daran, dass ich morgen Shampoo kaufen muss." Die Brille spricht es am folgenden Tag aus, hat aber auch eine Notiz in der dazugehörigen App erstellt. Praktisches Feature, das man auch für unangenehme Aufgaben nutzen kann. Achtung, Brille bitte nicht wegwerfen, nur weil sie sagt, was man verdrängen wollte. Noch in diesem Jahr soll die integrierte KI von Meta AI außerdem in Echtzeit sehen können, was der Träger sieht und es verarbeiten können. Eine solche Funktion haben auch die anderen großen KI-Anbieter angekündigt, aber bisher nicht geliefert. Wer das Rennen macht, bleibt spannend. Zuckerberg sagt, die Brille sei eine ganz neue Kategorie an Geräten, erst recht jetzt dank KI.
Zudem wird es eine Echtzeit-Übersetzung geben, wenn man sich mit jemandem in einer anderen Sprache unterhält. Zunächst gilt das nur für Englisch, Französisch, Italienisch und Spanisch. Spotify, Amazon Music, Audible und iHeart werden integriert – und zwar so, dass man sie per Sprachbefehl ansteuern kann. Neue Transitions, also Gläser, die sich in der Sonne tönen, stehen zur Auswahl. Quelle: heise
Kommentare
Kommentar veröffentlichen
Kommentar