LM Studio
Note
Это документация для Careti. Она основана на версии Careti v3.38.1. Любые специфические политики Careti (поддерживаемые локальные среды выполнения, аутентификация/маршрутизация, ограничения моделей) будут отмечены тегом <Note> в тексте.
Настройка LM Studio для Careti
Запускайте AI-модели локально, используя LM Studio совместно с Careti.
Предварительные требования
- Компьютер на базе Windows, macOS или Linux с поддержкой AVX2
- Установленный Careti в VS Code
Этапы настройки
1. Установка LM Studio
- Перейдите на сайт lmstudio.ai
- Загрузите и установите версию для вашей операционной системы
2. Запуск LM Studio
- Откройте установленное приложение
- Слева вы увидите четыре вкладки: Chat, Developer (где вы будете запускать сервер), My Models (где хранятся ваши загруженные модели), Discover (поиск новых моделей)
3. Загрузка модели
- Изучите страницу «Discover»
- Выберите и загрузите подходящую модель
- Дождитесь завершения загрузки
4. Запуск сервера
- Перейдите на вкладку «Developer»
- Переключите тумблер сервера в положение «Running»
- Примечание: Сервер будет запущен по адресу
http://localhost:1234
5. Настройка Careti
- Откройте VS Code
- Нажмите на иконку настроек Careti
- Выберите «LM Studio» в качестве API provider
- Выберите свою модель из списка доступных вариантов
Рекомендуемая модель и настройки
Для наилучшей работы с Careti используйте Qwen3 Coder 30B A3B Instruct. Эта модель обеспечивает высокую производительность при написании кода и надежную работу с инструментами.
Критические настройки
После загрузки модели на вкладке Developer настройте следующие параметры:
- Context Length: Установите значение 262,144 (максимум для этой модели)
- KV Cache Quantization: Оставьте флажок снятым (важно для стабильной производительности)
- Flash Attention: Включите, если доступно (повышает производительность)
Руководство по квантованию
Выбирайте квантование в зависимости от объема вашей RAM:
- 32GB RAM: Используйте 4-bit квантование (~17GB для загрузки)
- 64GB RAM: Используйте 8-bit квантование (~32GB для загрузки) для лучшего качества
- 128GB+ RAM: Рассмотрите возможность использования полной точности (full precision) или более крупных моделей
Формат моделей
- Mac (Apple Silicon): Используйте формат MLX для оптимизированной производительности
- Windows/Linux: Используйте формат GGUF
Включение Compact Prompts
Для оптимальной работы с локальными моделями включите компактные промпты в настройках Careti. Это уменьшит размер промпта на 90%, сохраняя при этом основную функциональность.
Перейдите в Careti Settings → Features → Use Compact Prompt и включите эту опцию.
Важные примечания
- Запускайте LM Studio перед использованием Careti
- Оставляйте LM Studio работающим в фоновом режиме
- Первая загрузка модели может занять несколько минут в зависимости от размера
- После загрузки модели хранятся локально
Устранение неполадок
- Если Careti не может подключиться к LM Studio:
- Убедитесь, что сервер LM Studio запущен (проверьте вкладку Developer)
- Убедитесь, что модель загружена
- Проверьте, соответствует ли ваша система аппаратным требованиям
.png)
.png)


