Requesty
Careti prend en charge l'accès aux modèles via la plateforme IA Requesty. Requesty fournit une API simple et optimisée pour interagir avec plus de 150 grands modèles de langage (LLMs).
Site web : https://www.requesty.ai/
Obtenir une API Key
- S'inscrire/Se connecter : Rendez-vous sur le site web de Requesty et créez un compte ou connectez-vous.
- Obtenir une API Key : Vous pouvez obtenir une API Key depuis la section API Management de votre tableau de bord Requesty.
Modèles pris en charge
Requesty donne accès à une large gamme de modèles. Careti récupérera automatiquement la liste la plus récente des modèles disponibles. Vous pouvez consulter la liste complète des modèles disponibles sur la page Model List.
Configuration dans Careti
- Ouvrir les paramètres de Careti : Cliquez sur l'icône des paramètres (⚙️) dans le panneau de Careti.
- Sélectionner le fournisseur : Choisissez "Requesty" dans le menu déroulant "API Provider".
- Saisir l'API Key : Collez votre API Key Requesty dans le champ "Requesty API Key".
- Sélectionner le modèle : Choisissez le modèle souhaité dans le menu déroulant "Model".
Conseils et remarques
- Optimisations : Requesty propose une gamme d'optimisations de coûts en temps réel pour réduire vos dépenses.
- Facturation unifiée et simplifiée : Accès illimité à tous les fournisseurs et modèles, rechargements automatiques de solde et plus encore via une seule API key.
- Suivi des coûts : Suivez le coût par modèle, par langage de programmation, par fichier modifié et plus encore via le Cost dashboard ou l'extension Requesty pour VS Code.
- Statistiques et logs : Consultez votre tableau de bord de statistiques de codage ou parcourez vos logs d'interaction LLM.
- Politiques de fallback : Maintenez votre LLM opérationnel grâce aux politiques de fallback lorsque les fournisseurs sont indisponibles.
- Prompt Caching : Certains fournisseurs prennent en charge le Prompt Caching. Rechercher des modèles avec caching.