Ray-Ban okosszemüveg: élő AI és fordítás újdonságok

Ray-Ban okosszemüveg: élő AI és fordítás újdonságok

Ray-Ban okosszemüveg új AI funkciói: élő asszisztens, fordítás és zenekeresés

A Meta három új funkcióval bővíti Ray-Ban okosszemüvegét, melyek forradalmasíthatják a viselhetőtechnológia-piacot.

A Meta bejelentette, hogy három új funkció érkezik a Ray-Ban okosszemüvegéhez: élő AI, élő fordítás és Shazam támogatás. Az élő AI és az élő fordítás egyelőre csak a Meta Korai Hozzáférési Programjának tagjai számára érhető el, míg a Shazam támogatás minden felhasználó számára elérhető az Egyesült Államokban és Kanadában.

Élő AI asszisztens

Az élő AI lehetővé teszi a felhasználók számára, hogy természetes módon beszélgessenek a Meta AI asszisztensével, miközben az folyamatosan figyeli a környezetet. Például, ha a zöldséges részlegen nézelődünk, megkérdezhetjük az AI-t, hogy javasoljon recepteket az előttünk lévő alapanyagokból. A Meta szerint a felhasználók körülbelül 30 percig használhatják az élő AI funkciót egy teljes töltéssel.

Valós idejű fordítás

Az élő fordítás funkció lehetővé teszi a szemüveg számára, hogy valós időben fordítson beszédet angol és spanyol, francia vagy olasz nyelvek között. A felhasználók választhatnak, hogy a fordításokat a szemüvegen keresztül hallgatják, vagy a telefonjukon olvassák a szöveges átiratot. A nyelvpárokat előre le kell tölteni, és meg kell adni, hogy melyik nyelven beszélünk, illetve melyiken a beszélgetőpartnerünk.

Shazam integráció

A Shazam támogatás egyszerűen működik: amikor hallunk egy dalt, csak meg kell kérnünk a Meta AI-t, és az azonosítja a számunkra. Mark Zuckerberg, a Meta vezérigazgatója egy Instagram videóban mutatta be a funkció működését.

Ha még nem látja ezeket a funkciókat, ellenőrizze, hogy a szemüvege a v11-es szoftvert, a Meta View alkalmazás pedig a v196-os verziót futtatja-e. Ha még nem tagja a Korai Hozzáférési Programnak, a Meta weboldalán keresztül jelentkezhet.

AI asszisztensek térnyerése az okosszemüvegekben

Az új funkciók bevezetése egybeesik azzal a trenddel, hogy a nagy technológiai cégek az AI asszisztenseket tekintik az okosszemüvegek fő vonzerejének. A Google nemrég jelentette be az Android XR operációs rendszert okosszemüvegekhez, és a Gemini AI asszisztenst pozicionálta kulcsfontosságú alkalmazásként. Andrew Bosworth, a Meta technológiai igazgatója szerint „2024 volt az év, amikor az AI szemüvegek igazán beindultak”.

Az okosszemüvegek lehetnek a legjobb formátum egy „igazán AI-natív eszköz” számára, és az első olyan hardverkategória, amelyet „az AI teljesen meghatároz a kezdetektől fogva”.

Összességében a Ray-Ban okosszemüveg új funkciói jelentős lépést jelentenek a viselhetőtechnológia és a mesterséges intelligencia integrációjában, ami új lehetőségeket nyit meg a felhasználók számára a mindennapi életben való használatra.

Exit mobile version