Skip to main content

Ollama

ℹ️Note

Il s'agit d'un document basé sur Careti. Il suit la version Careti v3.38.1, et si des politiques spécifiques à Careti (runtime local pris en charge, authentification/routage, limites de modèle) s'appliquent, elles sont indiquées par <Note> dans le corps du texte.

Prérequis

  • Un ordinateur sous Windows, macOS ou Linux
  • Careti installé dans VS Code

Étapes de configuration

1. Installer Ollama

  • Visitez ollama.com
  • Téléchargez et installez-le pour votre système d'exploitation
Ollama download page

2. Choisir et télécharger un modèle

  • Parcourez les modèles sur ollama.com/search

  • Sélectionnez un modèle et copiez la commande :

    ollama run [model-name]
Selecting a model in Ollama
  • Ouvrez votre Terminal et exécutez la commande :

    • Exemple :

      ollama run llama2
Running Ollama in terminal

Votre modèle est maintenant prêt à être utilisé avec Careti.

3. Configurer Careti

Complete Ollama setup process

Ouvrez VS Code et configurez Careti :

  1. Cliquez sur l'icône des paramètres de Careti
  2. Sélectionnez "Ollama" comme fournisseur d'API
  3. Base URL : http://localhost:11434/ (par défaut, généralement pas besoin de changer)
  4. Sélectionnez votre modèle dans la liste déroulante

Modèles recommandés

Pour une expérience optimale avec Careti, utilisez Qwen3 Coder 30B. Ce modèle offre de solides capacités de codage et une utilisation fiable des outils pour le développement local.

Pour le télécharger :

ollama run qwen3-coder-30b

D'autres modèles performants incluent :

  • mistral-small - Bon équilibre entre performance et rapidité
  • devstral-small - Optimisé pour les tâches de codage

Remarques importantes

  • Démarrez Ollama avant de l'utiliser avec Careti
  • Laissez Ollama s'exécuter en arrière-plan
  • Le premier téléchargement du modèle peut prendre plusieurs minutes

Activer les Compact Prompts

Pour de meilleures performances avec les modèles locaux, activez les compact prompts dans les paramètres de Careti. Cela réduit la taille du prompt de 90 % tout en conservant les fonctionnalités de base.

Accédez à Careti Settings → Features → Use Compact Prompt et activez l'option.

Dépannage

Si Careti ne parvient pas à se connecter à Ollama :

  1. Vérifiez qu'Ollama est en cours d'exécution
  2. Vérifiez que l'URL de base est correcte
  3. Assurez-vous que le modèle est téléchargé

Besoin de plus d'informations ? Lisez la documentation d'Ollama.