Ваш следующий флагманский Android может получить значительное усиление Gemini Nano 4.

Следующие топовые Android-телефоны, вероятно, получат значительное обновление с помощью ИИ Gemini Nano 4, и Google начинает готовиться к этому сейчас. Недавний предварительный просмотр для разработчиков показывает более быстрый и оптимизированный ИИ-модель, которая будет включена в телефоны, выпущенные позднее в этом году.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Как аналитик, я вижу здесь действительно умную стратегию. Подход заключается в том, чтобы позволить разработчикам начать создавать приложения сейчас с использованием новой модели Gemma 4, гарантируя, что их существующий код будет безупречно работать на совместимых устройствах, как только эти устройства будут выпущены. Это дает разработчикам значительный отрыв и позволяет Google оптимизировать производительность специально для фактического оборудования в то же время.

Это важно, потому что искусственный интеллект теперь является ключевой особенностью в топовых смартфонах. Эти системы искусственного интеллекта работают непосредственно на телефоне, а не требуют подключения к интернету, что приводит к более высокой производительности и лучшей защите вашей личной информации. Google делает это центральным компонентом будущих устройств Android.

Хотя Google не раскрыла, какие именно телефоны будут доступны, сколько они будут стоить или конкретную дату выхода – только то, что они появятся позже в этом году – их общий план теперь очевиден.

Более быстрая модель, меньший объем занимаемой памяти.

Gemma 4 является основой для новой, улучшенной модели для работы на устройстве, разработанной для повышения эффективности. Google сообщает, что она работает до четырех раз быстрее, чем предыдущие версии, и потребляет до 60% меньше энергии аккумулятора.

Мы предлагаем две версии: одна оптимизирована для сложных задач, а другая — для быстрого времени отклика. Более быстрая версия разработана для большей отзывчивости, предоставляя разработчикам возможности, наилучшим образом соответствующие требованиям их приложения.

Эта система работает с более чем 140 языками и может обрабатывать текст, изображения и аудио в одном месте. Это позволяет реализовать такие функции, как перевод и более интеллектуальные виртуальные помощники, даже без подключения к интернету.

Почему это важно для вашего телефона

Это сигнализирует об изменении в том, как будут разрабатываться флагманские Android-телефоны. Вместо того, чтобы полагаться на мощные облачные серверы, Google теперь сосредоточен на функциях AI, которые работают непосредственно на самом телефоне, используя преимущества новейших AI-чипов от таких компаний, как Qualcomm, MediaTek и Google.

Это должно улучшить точность таких функций, как голосовые помощники и преобразование речи в текст. Это также позволяет телефонным компаниям выделиться, делая акцент на мощном оборудовании.

Есть баланс, который следует учитывать: насколько хорошо это работает, зависит от вашего устройства. Если ваше устройство имеет AICore или современные процессоры, оно будет работать лучше всего. В противном случае оно может использовать основной процессор вашего компьютера, что может быть медленнее.

Что посмотреть дальше

Google предоставляет разработчикам ранний доступ к своим функциям искусственного интеллекта через программу предварительного просмотра, позволяя им тестировать свои приложения до того, как эти функции будут выпущены для широкой публики.

Мы планируем добавить ещё больше функций в течение периода предварительного просмотра, таких как улучшенные способы управления подсказками и возможность получать результаты в структурированном формате.

Мы должны увидеть эти новые функции на устройствах в ближайшее время, но пока неизвестно, какие телефоны получат их первыми. Если вы думаете о покупке нового телефона, самое важное, что следует учитывать, — это то, насколько плавно эти функции будут работать на нем каждый день.

Смотрите также

2026-04-03 14:29