/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F2af01d2605dae404a1a0031c253f62b7.jpg)
Google запускає функції відео у реальному часі для Gemini зі штучним інтелектом
Google почав розгортати нові функції штучного інтелекту для Gemini Live, які дозволяють «бачити» ваш екран або через камеру вашого смартфона та відповідати на запитання про будь-яке в режимі реального часу, підтвердив представник Google Алекс Джозеф в електронному листі The Verge. Ці функції з’явилися майже через рік після того, як Google вперше продемонструвала роботу «Project Astra», яка їх використовує.
Користувач Reddit сказав, що ця функція з’явилася на їх телефоні Xiaomi, як помітив 9to5Google . Сьогодні той самий користувач опублікував відео нижче, демонструючи нову здатність Gemini читати екран. Це одна з двох функцій, про які Google заявив на початку березня, що «почне розгортатися для передплатників Gemini Advanced як частину плану Google One AI Premium» пізніше цього місяця.
Інша функція Astra, яка зараз доступна, — це відео в реальному часі, яке дозволяє Gemini інтерпретувати канал із камери вашого смартфона в режимі реального часу та відповідати на запитання щодо нього. У наведеному нижче демонстраційному відео, яке Google опублікував цього місяця, людина використовує цю функцію, щоб попросити Gemini допомогти визначитися з кольором фарби для своєї свіжоглазурованої кераміки.
Розгортання Google цих функцій є свіжим прикладом великої переваги компанії в якості помічника зі штучним інтелектом, оскільки Amazon готує дебют обмеженого раннього доступу до свого оновлення Alexa Plus, а Apple відклала оновлену Siri . Передбачається, що обидва мають можливості, подібні до тих, які Astra починає надавати зараз. Тим часом у Samsung все ще є Bixby, але Gemini все одно є стандартним помічником на її телефонах.

