Cactus — это кроссплатформенный фреймворк для локального развёртывания моделей LLM/VLM/TTS в вашем приложении.
По мере того, как небольшие устройства становятся всё более мощными, на них теперь можно запускать большие языковые модели (LLM). Это критически важно для полной конфиденциальности и контроля, поскольку модели, использующие приватные данные, могут работать локально без подключения к внешним серверам. Cactus — это лёгкий, высокопроизводительный фреймворк с открытым исходным кодом, который делает именно это, позволяя запускать ИИ-модели на мобильных устройствах.
Основные фичи Cactus:
- Поддерживает Flutter, React Native и Kotlin Multiplatform
- GGUF модели: работает с любой моделью GGUF от Hugging Face, включая Qwen, Gemma, Llama и DeepSeek
- Мультимодальный ИИ: запуск различных моделей, включая LLM, VLM, Embedding модели и модели TTS (преобразование текста в речь)
- Оптимизированная производительность: эффективное выполнение моделей от FP32 до 2-битных квантованных версий
- Работа с агентами: используйте агенты Cactus для интеграции пользовательских инструментов для сложных, расширенных рабочих процессов
- Нативная поддержка: включает iOS xcframework и JNILibs для нативной работы
- Компактная сборка C++: идеально подходит для развертывания на кастомном оборудовании
Cactus также ориентирован на «local first». Последствия отсутствия владения данными широко известны, и локальный подход направлен на решение этой проблемы путем создания адаптивных и удобных для пользователей приложений, которые при этом позволяют им работать в автономном режиме. Cactus особенно эффективен в сценариях, где не гарантируется постоянное подключение к данным или когда предпочтителен полностью автономный режим работы. Однако при необходимости он может использовать облачный вывод для длительных или асинхронных задач.

