Google решил, что просто болтать с искусственным интеллектом — уже прошлый век, и добавил ассистенту Gemini Live опцию «зрения» 👀. Будет видеть экран и смотреть через камеру на окружающий мир 📷. Для тех, кто в теме — да, наконец, развернули часть опций проекта Astra. Дебют вышел тихим 🤫. О новых фичах пользователи узнали методом случайного тыка. Это что, получается, добавили «зрячий» ИИ и никому не сказали? Тайная слежка 😯? Вот это новости.
Сразу развенчаем конспирологию. Действительно, о новых возможностях Gemini Live стало известно из сообщений на Reddit. Пользователь приложения сообщил, что гугловский ассистент «видит» экран на его телефоне Xiaomi 📱. Позже подъехали комментарии от представителя Google. Да, мол, компания стала внедрять новые функции в live-версию. Речь идет о развертке двух опций — «видеть экран» и «смотреть через камеру», отвечая на вопросы об этом в режиме реального времени.
Новость — не новая. В начале марта в блоге Google писали о том, что подписчикам Gemini Advanced в рамках плана Google One AI Premium (примерно $20 в месяц) в конце этого месяца раздадут «глазастый ИИ» — Gemini Live получит доступ к экрану и камере. Демонстрация новых функций прошла на MWC 2025 в Барселоне. Не просто показали красивые слайды, а подсветили реальную пользу 💡.
👉 Как включить Gemini Live: откройте мобильное приложение Gemini → В правом нижнем углу экрана нажмите Live (значок с волной) → Начните общение.
В одном из тестов человек направил камеру телефона на захламленный стол и задал вопрос: «Где очки?». ИИ «взглянул» на это дело своими умными глазами и мгновенно ответил, что очки — на столе рядом с яблоком 🍎. У людей с проблемами зрения благодаря таким технологиям появляется шанс повысить независимость и комфорт, а для всех остальных «глазастый ИИ» — экономия времени и новый уровень удобства. Пару кейсов, как пристроить «глазастый» Gemini в свой быт, Google запихнули в рекламное видео.
O проекте с названием «Project Astra» впервые заговорили на Google I/O 2024, когда Демис Хассабис, глава Google DeepMind, показал прототип «ИИ-помощника» с реальным зрением и другими фичами. Идея — создать универсального ассистента, который может общаться через любые каналы связи, от текстов и голоса до фото и видео. И вот кое-что из концепции «незаменимый и всемогущий Gemini» реализовано.
Фактически, это попытка догнать OpenAI — ChatGPT уже с декабря умеет «видеть» экран и использовать камеру (в приложении для подписчиков) 🆚. Гугл опоздал, но в качестве преимущества предлагает нам экосистемность — тесные связи с почтой, картами, календарями. «Зрение» ассистента Gemini – не единственный аргумент в пользу подписки на Premium. Там пачка ИИ-инструментов для работы с gmail, документами и таблицами, хранилище 2 TБ, NotebookLM Plus.
Против подписки только одно — из-за санкций для РФ недоступно. Народ, конечно, выкручивается с VPN и зарубежными картами. Классика выживания в современном digital-мире 🤷♂️. Вспоминая нетленное: «Желание — тысяча возможностей, а нежелание — тысяча причин».