Requesty
Careti поддерживает доступ к моделям через AI-платформу Requesty. Requesty предоставляет простой и оптимизированный API для взаимодействия с более чем 150 большими языковыми моделями (LLM).
Веб-сайт: https://www.requesty.ai/
Получение API Key
- Регистрация/Вход: Перейдите на веб-сайт Requesty и создайте учетную запись или войдите в систему.
- Получение API Key: Вы можете получить API Key в разделе API Management вашей панели управления Requesty.
Поддерживаемые модели
Requesty предоставляет доступ к широкому спектру моделей. Careti автоматически загрузит актуальный список доступных моделей. Вы можете просмотреть полный список доступных моделей на странице Model List.
Настройка в Careti
- Откройте настройки Careti: Нажмите на иконку настроек (⚙️) на панели Careti.
- Выберите провайдера: Выберите «Requesty» в выпадающем списке «API Provider».
- Введите API Key: Вставьте ваш Requesty API Key в поле «Requesty API Key».
- Выберите модель: Выберите нужную модель в выпадающем списке «Model».
Советы и примечания
- Оптимизация: Requesty предлагает ряд оптимизаций затрат «на лету» для снижения ваших расходов.
- Единая и упрощенная система оплаты: Неограниченный доступ ко всем провайдерам и моделям, автоматическое пополнение баланса и многое другое через один API Key.
- Отслеживание затрат: Отслеживайте стоимость в разрезе моделей, языков программирования, измененных файлов и многого другого через Cost dashboard или Requesty VS Code extension.
- Статистика и логи: Просматривайте свою панель статистики кодинга или изучайте логи взаимодействия с LLM.
- Резервные политики (Fallback policies): Поддерживайте работу вашей LLM с помощью резервных политик на случай сбоев у провайдеров.
- Prompt Caching: Некоторые провайдеры поддерживают кэширование промптов. Поиск моделей с кэшированием.