Ray-Ban okosszemüveg új AI funkciói: élő asszisztens, fordítás és zenekeresés
A Meta három új funkcióval bővíti Ray-Ban okosszemüvegét, melyek forradalmasíthatják a viselhetőtechnológia-piacot.
A Meta bejelentette, hogy három új funkció érkezik a Ray-Ban okosszemüvegéhez: élő AI, élő fordítás és Shazam támogatás. Az élő AI és az élő fordítás egyelőre csak a Meta Korai Hozzáférési Programjának tagjai számára érhető el, míg a Shazam támogatás minden felhasználó számára elérhető az Egyesült Államokban és Kanadában.
Élő AI asszisztens
Az élő AI lehetővé teszi a felhasználók számára, hogy természetes módon beszélgessenek a Meta AI asszisztensével, miközben az folyamatosan figyeli a környezetet. Például, ha a zöldséges részlegen nézelődünk, megkérdezhetjük az AI-t, hogy javasoljon recepteket az előttünk lévő alapanyagokból. A Meta szerint a felhasználók körülbelül 30 percig használhatják az élő AI funkciót egy teljes töltéssel.
Valós idejű fordítás
Az élő fordítás funkció lehetővé teszi a szemüveg számára, hogy valós időben fordítson beszédet angol és spanyol, francia vagy olasz nyelvek között. A felhasználók választhatnak, hogy a fordításokat a szemüvegen keresztül hallgatják, vagy a telefonjukon olvassák a szöveges átiratot. A nyelvpárokat előre le kell tölteni, és meg kell adni, hogy melyik nyelven beszélünk, illetve melyiken a beszélgetőpartnerünk.
Shazam integráció
A Shazam támogatás egyszerűen működik: amikor hallunk egy dalt, csak meg kell kérnünk a Meta AI-t, és az azonosítja a számunkra. Mark Zuckerberg, a Meta vezérigazgatója egy Instagram videóban mutatta be a funkció működését.
Ha még nem látja ezeket a funkciókat, ellenőrizze, hogy a szemüvege a v11-es szoftvert, a Meta View alkalmazás pedig a v196-os verziót futtatja-e. Ha még nem tagja a Korai Hozzáférési Programnak, a Meta weboldalán keresztül jelentkezhet.
AI asszisztensek térnyerése az okosszemüvegekben
Az új funkciók bevezetése egybeesik azzal a trenddel, hogy a nagy technológiai cégek az AI asszisztenseket tekintik az okosszemüvegek fő vonzerejének. A Google nemrég jelentette be az Android XR operációs rendszert okosszemüvegekhez, és a Gemini AI asszisztenst pozicionálta kulcsfontosságú alkalmazásként. Andrew Bosworth, a Meta technológiai igazgatója szerint „2024 volt az év, amikor az AI szemüvegek igazán beindultak”.
Az okosszemüvegek lehetnek a legjobb formátum egy „igazán AI-natív eszköz” számára, és az első olyan hardverkategória, amelyet „az AI teljesen meghatároz a kezdetektől fogva”.
Összességében a Ray-Ban okosszemüveg új funkciói jelentős lépést jelentenek a viselhetőtechnológia és a mesterséges intelligencia integrációjában, ami új lehetőségeket nyit meg a felhasználók számára a mindennapi életben való használatra.