Сегодня Google представил Gemma 4 — самые интеллектуальные открытые модели на сегодняшний день. Разработанная специально для решения задач сложного логического вывода и создания агентных рабочих процессов, Gemma 4 обеспечивает беспрецедентный уровень «интеллекта на параметр».
Этот прорыв опирается на невероятный успех сообщества: с момента запуска первого поколения разработчики скачали Gemma более 400 миллионов раз, создав Gemmaverse из более чем 100 000 вариантов моделей. В компании внимательно прислушивались к тому, что нужно инноваторам для расширения границ ИИ, и Gemma 4 — ответ: прорывные возможности, ставшие широко доступными по лицензии Apache 2.0.
Gemma 4, созданная на базе тех же передовых исследований и технологий, что и Gemini 3, является самым мощным семейством моделей, которое вы можете запустить на собственном оборудовании. Они дополняют модели Gemini, предоставляя разработчикам мощнейшее в индустрии сочетание открытых и проприетарных инструментов.
Лидирующие возможности и мобильный ИИ (Mobile-First)
Gemma 4 выпускается в четырех универсальных размерах:
- Effective 2B (E2B)
- Effective 4B (E4B)
- 26B Mixture of Experts (MoE) (Смесь экспертов)
- 31B Dense (Плотная модель)
Все семейство выходит за рамки простого чата и способно обрабатывать сложную логику. Крупные модели демонстрируют флагманскую производительность для своих размеров: модель 31B на данный момент занимает 3-е место среди открытых моделей в мире в текстовом рейтинге Arena AI, а модель 26B — 6-е место. Там Gemma 4 успешно конкурирует с моделями, которые в 20 раз больше её по размеру.
На периферийных устройствах (Edge) модели E2B и E4B переопределяют полезность ИИ на устройстве, отдавая приоритет мультимодальности, низкой задержке и бесшовной интеграции в экосистему.
Мощная, доступная, открытая
Размеры моделей Gemma 4 подобрали специально для эффективного запуска и дообучения (fine-tuning) на различном оборудовании — от миллиардов Android-устройств и ноутбуков с GPU до рабочих станций и мощных ускорителей.
Что делает Gemma 4 лучшим семейством открытых моделей:
- Продвинутое мышление: Способность к многошаговому планированию и глубокой логике.
- Агентные рабочие процессы: Нативная поддержка вызова функций (function-calling), структурированного вывода JSON и системных инструкций позволяет создавать автономных агентов.
- Генерация кода: Поддержка высококачественного написания кода офлайн.
- Зрение и аудио: Все модели нативно обрабатывают видео и изображения. Модели E2B и E4B также поддерживают нативный аудиоввод для распознавания речи.
- Увеличенный контекст: Модели Edge имеют окно контекста 128K, а крупные модели — до 256K токенов.
- Более 140 языков: Нативно обучена для работы с глобальной аудиторией.
Универсальные модели для разного «железа»
26B и 31B: Флагманский интеллект на вашем ПК
Оптимизированы для работы на доступном оборудовании. Непреобразованные веса (bfloat16) эффективно помещаются на одну GPU NVIDIA H100 (80 ГБ). Квантованные версии работают на потребительских видеокартах. Модель 26B MoE ориентирована на скорость (активирует всего 3.8 млрд параметров при генерации), а 31B Dense максимизирует качество и является идеальной базой для дообучения.
E2B и E4B: Новый уровень интеллекта для мобильных и IoT устройств
Разработаны с нуля для максимальной эффективности памяти. В сотрудничестве с командой Google Pixel, Qualcomm и MediaTek добились того, что эти мультимодальные модели работают полностью офлайн с почти нулевой задержкой на телефонах, Raspberry Pi и NVIDIA Jetson Orin Nano.
Лицензия с открытым исходным кодом
Будущее ИИ требует совместных усилий. Поэтому Gemma 4 выпускается под коммерчески разрешительной лицензией Apache 2.0. Это обеспечивает разработчикам полную цифровую суверенность и контроль над данными и инфраструктурой.
«Выпуск Gemma 4 под лицензией Apache 2.0 — это огромная веха. Мы рады поддержать семейство Gemma 4 на Hugging Face с первого дня». — Клеман Деланг, сооснователь и генеральный директор Hugging Face
Экосистема выбора
- Начните за секунды: Попробуйте модели в Google AI Studio или AI Edge Gallery.
- Используйте любимые инструменты: Поддержка Hugging Face, vLLM, llama.cpp, Ollama, NVIDIA NIM и многих других с первого дня.
- Масштабируйте в Google Cloud: Используйте Vertex AI и GKE для работы в облаке с гарантиями безопасности корпоративного уровня.
- Ускоряйтесь на любом железе: Оптимизация для NVIDIA (от Jetson до Blackwell), AMD (через ROCm™) и Google TPU.
Присоединяйтесь к челленджу Gemma 4 Good на Kaggle, чтобы создавать продукты, приносящие реальную пользу миру!

