AI asszisztensek új képességei: látás, hallás és értelmezés
A technológiai óriások versenye az egyre fejlettebb mesterséges intelligencia asszisztensek terén tovább fokozódik, új képességekkel és funkciókkal bővítve a felhasználói élményt.
A Google I/O konferencián bemutattak egy olyan AI asszisztenst, amely képes látni és hallani a világot. Eközben az OpenAI egy Her filmhez hasonló chatbotot fejlesztett iPhone-ra. A következő héten a Microsoft rendezi meg a Build konferenciát, ahol várhatóan bemutatják a Copilot vagy Cortana egy olyan verzióját, amely érti a pivot táblákat.
Apple is beszáll az AI versenybe
Néhány héttel később az Apple is megtartja saját fejlesztői konferenciáját, és a pletykák szerint ők is a mesterséges intelligenciáról fognak beszélni. Egyelőre nem tisztázott, hogy a Siri is szóba kerül-e az eseményen.
Az AI asszisztensek fejlődése egyre inkább az emberi képességeket utánozza, ami új lehetőségeket nyit meg a felhasználói interakciók terén. A látás és hallás képessége mellett az adatok értelmezése és feldolgozása is kulcsfontosságú területté vált.
Az AI asszisztensek versenye új szintre lépett, ahol már nem csak a szöveges kommunikáció, hanem a komplex, többérzékszervi interakciók is szerepet játszanak.
Összefoglaló
A vezető technológiai vállalatok, köztük a Google, OpenAI, Microsoft és várhatóan az Apple is, intenzíven fejlesztik AI asszisztenseiket. Az új képességek között szerepel a látás, hallás és komplex adatértelmezés, ami jelentősen bővíti a felhasználási lehetőségeket és a felhasználói élményt.