Google запускает функцию Astra: ИИ Gemini теперь понимает, что происходит на экране смартфона

2025-03-24 12547 комментарии
Google начала распространять функцию Astra для подписчиков Gemini Advanced: теперь можно делиться экраном телефона с Gemini Live и получать ответы ИИ по отображаемому содержимому. Возможности включают анализ текста, чтение вслух и перевод

На выставке MWC 2025 компания Google подтвердила, что работает над возможностью демонстрации экрана и видеосвязи в сервисе Gemini Live, известном под кодовым названием «Project Astra». Тогда Google пообещал, что функция станет распространяться в ближайшее время — и теперь некоторые пользователи уже ее получили.

Согласно видео, опубликованному пользователем Reddit, владеющим смартфоном Xiaomi и подпиской Gemini Advanced, теперь можно делиться экраном своего телефона с Gemini Live и задавать вопросы по отображаемому содержимому.

Интеграция выглядит интересно: вы можете задавать вопросы ИИ по тому, что происходит на экране, вести полноценный диалог, и Gemini будет запоминать контекст.

Например, если вы откроете Chrome, зайдите на Википедию и активируете Gemini Live, вы сможете попросить Gemini подвести итоги увиденного на странице.

Например, если вы читаете статью о валовом внутреннем продукте (ВВП), Gemini может проанализировать числовые данные или объяснить ключевые экономические термины.

Вы даже можете попросить Gemini прочитать статью вслух, превратить ее в мелодию или переформулировать текст на нужный вам язык.

Gemini понимает контекст происходящего, так как имеет доступ к тому, что вы делаете на своем телефоне.

Ранее Google заявлял, что возможность совместного доступа к экрану будет доступна только подписчикам Gemini Advanced — стоимость подписки начинается от 19,99 долларов в месяц.

© .
Комментарии и отзывы

Нашли ошибку?

Новое на сайте