Google a început implementarea unor noi funcții avansate de inteligență artificială pentru Gemini Live, care permit asistentului AI să „vadă” ecranul smartphone-ului tău sau ceea ce captează camera în timp real și să răspundă instantaneu la întrebări pe baza acestor informații. Confirmarea vine printr-un e-mail oficial trimis către The Verge de purtătorul de cuvânt Google, Alex Joseph.
Aceste capabilități se bazează pe proiectul Project Astra, prezentat pentru prima dată în 2023, și marchează un pas important în direcția unui asistent digital cu adevărat multimodal – capabil să interpreteze vizual, auditiv și textual simultan.
Ce poate face Gemini Live acum?
Un utilizator Reddit a semnalat apariția noii funcționalități pe un telefon Xiaomi, iar videoclipul publicat ulterior arată cum Gemini poate citi informații direct de pe ecranul telefonului, oferind explicații și răspunsuri relevante.
Cea de-a doua funcție lansată este suportul video live: Gemini poate interpreta fluxul camerei telefonului și poate răspunde la întrebări legate de ceea ce „vede”. Într-un exemplu oferit de Google, un utilizator întreabă ce culoare de vopsea s-ar potrivi unui obiect ceramic proaspăt glazurat – iar Gemini răspunde contextual, pe baza imaginii video.
Cine are acces?
Aceste funcții sunt disponibile începând din martie pentru abonații Gemini Advanced, parte a planului…

























