Google выпустил Gemma 2B и 7B — пару моделей ИИ с открытым исходным кодом, которые позволят разработчикам более свободно использовать исследования, проведенные во флагманском Gemini. Несмотря на небольшие размеры, Google утверждает, что модели Gemma (означает драгоценный камень) «превосходят значительно более крупные модели в ключевых бенчмарках» и «способны работать непосредственно на ноутбуке или настольном компьютере разработчика». Они будут доступны через Kaggle, Hugging Face, NeMo от Nvidia и Vertex AI от Google.
Выход Gemma в экосистему с открытым исходным кодом разительно отличается от того, как был выпущен Gemini. Хотя разработчики могут создавать свои продукты на основе Gemini, они делают это либо через API, либо работая на платформе Google Vertex AI. Gemini считается закрытой ИИ-моделью. Сделав Gemma открытой, Google дает большему количеству людей возможность экспериментировать с ИИ Google, а не обращаться к конкурентам.
Оба размера моделей будут доступны по коммерческой лицензии независимо от размера организации, количества пользователей и типа проекта. Однако Google, как и другие компании, часто запрещает использовать свои модели для решения конкретных задач, таких как программы разработки оружия.
Gemma также будет поставляться с «ответственными наборами ИИ-инструментов», поскольку в открытых моделях бывает сложнее установить защитные ограждения, чем в более закрытых системах, таких как Gemini. Трис Варкентин, директор по управлению продуктами Google DeepMind, сказал, что компания провела «более обширное тестирование Gemma из-за рисков, присущих открытым моделям».
Инструментарий ответственного ИИ позволит разработчикам создавать собственные рекомендации или список запрещенных слов при внедрении Gemma в свои проекты. Он также включает в себя инструмент отладки модели, позволяющий пользователям исследовать поведение Gemma и устранять проблемы.
По словам Варкентина, пока что модели лучше всего работают с английским языком. «Мы надеемся, что вместе с сообществом сможем удовлетворить потребности рынка и за пределами англоязычных задач», — сказал он.
Разработчики могут бесплатно использовать Gemma в Kaggle, а первые пользователи Google Cloud получат 300 долларов в виде кредитов для использования моделей. По словам компании, исследователи могут претендовать на облачные кредиты на сумму до 500,000 долларов.
Пока неясно, насколько востребованы такие маленькие модели, как Gemma, но другие компании, занимающиеся разработкой искусственного интеллекта, тоже выпустили облегченные версии своих флагманских базовых моделей. В прошлом году Meta* выпустила Llama 2 7B, самую маленькую итерацию Llama 2. Сам Gemini выпускается в нескольких вариантах, включая Gemini Nano, Gemini Pro и Gemini Ultra, а недавно Google анонсировала более быстрый Gemini 1.5 — опять же, пока для бизнес-пользователей и разработчиков.