Видео и подкасты для разработчиков
Маленькие языковые модели — Open source, локальный ИИ, SLM
Чтобы разобраться в теме мы позвали Ивана Ямщикова из Pleias, и поговорили про то, как устроены маленькие языковые модели.
Что делать, чтобы рынок ИИ не захватили монополисты, и мы все не стали радикально зависимы от OpenAI, Anthropic и других корпораций? Научиться работать с локальным ИИ! Чтобы разобраться в теме мы позвали Ивана Ямщикова из Pleias, и поговорили про то, как устроены маленькие языковые модели.
Занятный факт: пока мы писали выпуск, вышла новость о том, что Nvidia в партнерстве с Pleias выпустила открытый датасет в рамках проекта Nvidia Nemotron. Почему открытые датасеты важны для маленьких моделей – тоже обсудили в выпуске!
Содержание:
- 00:00 О чём выпуск?
- 07:03 Преимущества маленьких моделей
- 11:21 Классификация моделей
- 19:21 Мотивация использования маленьких моделей
- 27:49 Минусы независимых моделей ИИ
- 55:46 Как создаются маленькие модели?
- 01:06:15 Дистиляция знаний
- 01:14:19 Прунинг в нейронных сетях
- 01:19:22 Common Corpus
- 01:26:26 Выбор между дистиляцией и обучением с нуля
- 01:35:02 С чего начать работу с языковыми моделями?
- 01:39:14 Заключение
-
Новости4 недели назадВидео и подкасты о мобильной разработке 2026.11
-
Новости2 недели назадВидео и подкасты о мобильной разработке 2026.13
-
Новости3 недели назадВидео и подкасты о мобильной разработке 2026.12
-
Разработка2 недели назад10 ошибок, которые Android-разработчики до сих пор допускают при работе с Jetpack Compose
