To pierwszy owoc prac Meta Superintelligence Labs i model, który ma być nie tylko szybki, ale przede wszystkim „ludzki”. Zamiast być encyklopedią w chmurze, Muse Spark ma stać się asystentem, który widzi świat naszymi oczami i rozumie kontekst naszego życia.
Meta Muse Spark – mały model o wielkim intelekcie
Projektowanie Muse Spark zajęło inżynierom zaledwie dziewięć miesięcy, co jak na standardy branżowe jest tempem wręcz ekspresowym. Nowy model otwiera serię Muse, która opiera się na naukowym podejściu do skalowania – każda kolejna generacja ma być weryfikowana przez poprzednią, zanim firma zdecyduje się na budowę czegoś większego. Choć Spark jest z założenia modelem mniejszym i zwinniejszym, jego możliwości rozumowania dorównują gigantom w dziedzinach takich jak nauki ścisłe, matematyka czy medycyna.

Jedną z najciekawszych innowacji jest wprowadzenie trybów pracy: Instant (do szybkich odpowiedzi) oraz Thinking (do złożonych problemów). Co to tak naprawdę oznacza? Meta AI potrafi teraz uruchamiać wiele „subagentów” równolegle. Jeśli planujemy wakacje, jeden agent zajmie się trasą, drugi porówna ceny hoteli, a trzeci znajdzie atrakcje dla dzieci – wszystko w tym samym czasie, by dostarczyć nam gotowy, kompleksowy plan w kilka sekund. To koniec liniowego myślenia AI, jakie znaliśmy do tej pory.
Czytaj też: Nie potrzebujesz Premium, by blokować reklamy na YouTube Live. Wystarczy siła społeczności
Prawdziwa rewolucja kryje się jednak w sposobie, w jaki Muse Spark postrzega rzeczywistość. Meta AI nie ogranicza się już do czytania tego, co wpiszemy w okienko czatu. Dzięki silnej percepcji multimodalnej asystent dosłownie widzi to, co my.
- Zakupy pod kontrolą — wystarczy zrobić zdjęcie półki w sklepie, a Meta AI błyskawicznie zidentyfikuje produkty i wskaże te, które mają np. najwięcej białka, bez konieczności czytania drobnych druczków na etykietach.
- Zdrowie pod opieką specjalistów — Meta współpracowała z zespołem lekarzy, by model potrafił analizować zdjęcia zmian skórnych czy wykresy medyczne, dostarczając rzetelnych informacji na temat powszechnych problemów zdrowotnych.
- Kodowanie wizualne — Muse Spark pozwala tworzyć proste strony internetowe czy minigry retro bezpośrednio z poziomu polecenia głosowego lub tekstowego.
Technologia ta ma stać się sercem nie tylko aplikacji społecznościowych, ale przede wszystkim inteligentnych okularów Meta. Tam percepcja wizualna stanie się kluczowa – okulary będą podpowiadać nam, jak dopasować stylizację do okazji, jak urządzić pokój, na który właśnie patrzysz, czy co warto kupić w odwiedzanym właśnie butiku, bazując na rekomendacjach twórców, których obserwujesz na Instagramie.

Wprowadzenie Muse Spark to dla Mety moment „wszystko albo nic”. Firma chce, aby asystent AI nie był osobnym bytem, ale organiczną częścią Facebooka, WhatsAppa czy Messengera, którą znamy i której ufasz. Od listopada 2025 roku Meta AI jest dostępna w Polsce, więc możemy spodziewać się, że nowe funkcje oparte na modelu Muse trafią też do nas, choć zapewne nie tuż po pierwszej fali wdrożeń w USA.
Źródło: Meta
