Ollama
Careti поддерживает локальный запуск моделей с помощью Ollama. Этот подход обеспечивает приватность, автономный доступ и потенциальное снижение затрат. Для этого требуется первоначальная настройка и достаточно мощный компьютер. Учитывая текущее состояние потребительского оборудования, не рекомендуется использовать Ollama с Careti, так как производительность на средних конфигурациях железа, скорее всего, будет низкой.
Веб-сайт: https://ollama.com/
Настройка Ollama
-
Скачивание и установка Ollama: Загрузите установщик Ollama для вашей операционной системы с веб-сайта Ollama и следуйте их руководству по установке. Убедитесь, что Ollama запущена. Обычно её можно запустить командой:
ollama serve -
Загрузка модели: Ollama поддерживает множество различных моделей. Список доступных моделей можно найти в библиотеке моделей Ollama. Некоторые модели, рекомендуемые для задач программирования:
codellama:7b-code(хорошая и легкая модель для старта)codellama:13b-code(обеспечивает лучшее качество, больший размер)codellama:34b-code(обеспечивает еще более высокое качество, очень большая)qwen2.5-coder:32bmistralai/Mistral-7B-Instruct-v0.1(надежная модель общего назначения)deepseek-coder:6.7b-base(эффективна для кодинга)llama3:8b-instruct-q5_1(подходит для общих задач)
Чтобы загрузить модель, откройте терминал и выполните:
ollama pull <model_name>Например:
ollama pull qwen2.5-coder:32b -
Настройка окна контекста модели: По умолчанию модели Ollama часто используют окно контекста в 2048 токенов, чего может быть недостаточно для многих запросов Careti. Для получения приемлемых результатов рекомендуется минимум 12 000 токенов, а идеальным вариантом будет 32 000 токенов. Чтобы изменить этот параметр, вам потребуется модифицировать параметры модели и сохранить её как новую версию.
Сначала загрузите модель (на примере
qwen2.5-coder:32b):ollama run qwen2.5-coder:32bПосле загрузки модели в интерактивной сессии Ollama установите параметр размера контекста:
/set parameter num_ctx 32768Затем сохраните настроенную модель под новым именем:
/save your_custom_model_name(Замените
your_custom_model_nameна любое имя по вашему выбору.) -
Настройка Careti:
- Откройте боковую панель Careti (обычно обозначается иконкой Careti).
- Нажмите на иконку шестерёнки настроек (⚙️).
- Выберите «ollama» в качестве API Provider.
- Введите Model name, которое вы сохранили на предыдущем шаге (например,
your_custom_model_name). - (Опционально) Измените base URL, если Ollama запущена на другом компьютере или порту. Значение по умолчанию:
http://localhost:11434. - (Опционально) Настройте Model context size в Advanced настройках Careti. Это поможет Careti эффективно управлять окном контекста вашей кастомной модели Ollama.
Советы и примечания
- Требования к ресурсам: Локальный запуск больших языковых моделей может быть требовательным к системным ресурсам. Убедитесь, что ваш компьютер соответствует требованиям выбранной модели.
- Выбор модели: Экспериментируйте с различными моделями, чтобы найти ту, которая лучше всего подходит для ваших задач и предпочтений.
- Автономная работа: После загрузки модели вы сможете использовать Careti с этой моделью даже без подключения к интернету.
- Отслеживание использования токенов: Careti отслеживает использование токенов для моделей, доступ к которым осуществляется через Ollama, что позволяет вам контролировать потребление.
- Собственная документация Ollama: Для получения более подробной информации обратитесь к официальной документации Ollama.