Meta a început să lanseze noile funcții anunțate anterior pentru ochelarii săi inteligenți Ray-Ban, alimentați de inteligență artificială, pentru utilizatorii din SUA și Canada. Andrew Bosworth, CTO Meta, a postat pe platforma Threads că actualizarea de astăzi include o recunoaștere mai naturală a comenzilor vocale. Astfel, comenzile rigide de tipul „Hey Meta, look and tell me” vor dispărea, iar utilizatorii vor putea folosi asistentul AI fără porțiunea „look and”.
Majoritatea celorlalte funcții AI prezentate în cadrul evenimentului Connect de luna trecută vor fi disponibile acum pe ochelarii Ray-Ban. Aceste funcții includ mesaje vocale, cronometre și memento-uri. De asemenea, ochelarii pot fi folosiți pentru a cere asistentului Meta AI să apeleze un număr de telefon sau să scaneze un cod QR. Într-un reel pe Instagram, CEO-ul Mark Zuckerberg a demonstrat cum funcția de memento-uri poate ajuta utilizatorii să își găsească mașina într-o parcare.
Un aspect important care lipsește din această actualizare este funcția de traducere live, dar Bosworth nu a specificat un termen pentru lansarea acestei funcții.
Meta a fost deja în centrul atenției astăzi, după ce doi studenți de la Universitatea Harvard au folosit ochelarii pentru a identifica și obține informații personale despre oameni necunoscuți. Folosind o combinație de tehnologie de recunoaștere facială și un model de procesare a limbajului, aceștia au reușit să…