Skip to main content

モデル選択ガイド

新しいモデルが継続的に登場するため、このガイドは現在 Careti に最適なモデル選択に焦点を当てています。環境の変化に合わせて更新していきます。

💬Callout

モデル選びが初めてですか? モデル比較とコンテキスト設定をまとめた モデル比較ガイドコンテキストウィンドウガイド を先に確認してください。

AIモデルとは?

AIモデルは Careti の「頭脳」です。コード作成、バグ修正、リファクタリングを依頼したときに理解し、応答を生成する主体がモデルです。

重要ポイント:

  • モデルは自然言語とコードを理解するように学習されたAIシステム
  • モデルごとに強みが異なる 推論に強いものもあれば、速度やコスト重視のものもあります
  • Careti が使うモデルを自分で選べる 作業タイプに合う専門家を選ぶイメージです
  • モデルはAPIプロバイダー経由で利用 Anthropic、OpenAI、OpenRouter などがモデルをホスティング

なぜ重要? 選んだモデルは Careti の性能、応答品質、速度、コストに直結します。高性能モデルは複雑なリファクタリングに強い一方で高価になりがちで、低コストモデルは日常作業に効率的です。

Caretiでモデルを選ぶ

以下の5ステップでモデルを設定できます。

ステップ1: Careti設定を開く

まず Careti の設定パネルにアクセスします。

設定を開く2つの方法:

  • クイック: Careti チャットUI右上の 歯車(⚙️) をクリック
  • コマンドパレット: Cmd/Ctrl + Shift + P → "Careti: Open Settings" と入力
Careti Settings Panel

設定パネルを開くと上部に「API Provider」項目が表示されます。

ℹ️Note

設定パネルは最後の構成を記憶するため、一度設定すれば繰り返す必要はありません。

ステップ2: APIプロバイダーを選択

ドロップダウンから希望のAIプロバイダーを選択します。

Careti Settings Panel

人気プロバイダーの目安:

プロバイダーおすすめ用途備考
Careti最も簡単な開始APIキー不要、stealthモデル含む複数モデルにアクセス
OpenRouterコスパ重視多数のモデルと競争力ある価格
Anthropic安定性Claudeモデル、ツール使用が安定
OpenAI最新技術GPTモデル
Google Gemini大きなコンテキストGoogleモデル
AWS Bedrockエンタープライズ高度な機能
Ollamaプライバシーローカル実行可能

Cerebras、Vertex AI、Azure などさらに多くの選択肢は プロバイダー設定ガイド を参照してください。

ℹ️Info

初めての方におすすめ: まず Careti プロバイダーから始めましょう。APIキー管理が不要で複数モデルにすぐアクセスでき、パートナープロバイダー経由で無料推論が提供されることもあります。

ステップ3: APIキーを追加 (またはログイン)

選択したプロバイダーによって次の手順が変わります。

Careti プロバイダーを選んだ場合:

  • APIキーは不要 で、CaretiアカウントへのログインだけでOK
  • 画面の案内に従って Sign In をクリック
  • careti.ai に移動して認証
  • 認証後にIDEへ戻る

その他のプロバイダーを選んだ場合:

選択したプロバイダーでAPIキーを発行します:

  1. プロバイダーサイトでAPIキーを発行:

  2. 新しいAPIキーを生成

  3. APIキーをコピー

  4. Careti 設定の "API Key" 欄に貼り付け

  5. 自動保存 - キーはエディタのシークレットストレージに安全に保存されます

Careti API Selection
⚠️Warning

多くのプロバイダーは支払いが必要です。 APIキー発行前に支払い情報を求められることが多く、通常はタスクあたり $0.01〜$0.10 程度の従量課金です。

ステップ4: モデルを選択

APIキーを入力またはログインすると "Model" ドロップダウンが有効になります。

Careti Model Selection

クイックモデル選択ガイド:

優先度おすすめモデル理由
最大の安定性Claude Sonnet 4.5ツール使用の安定性が最も高く、複雑な作業に強い
コスパDeepSeek V3 または Qwen3 Coder予算に対して高性能
最高速度Cerebras の Qwen3 Coder応答が最速
ローカル実行Ollama モデル完全なプライバシー、ネット不要
最新機能GPT-5OpenAI の最新機能

迷ったら Claude Sonnet 4.5 (安定性) か DeepSeek V3 (コスパ) から始めるのがおすすめです。

💡Tip

会話履歴を失わず、いつでもモデルを切り替えられます。タスクに応じて複数モデルを試してください。

下の モデル比較表 で仕様と価格を詳しく確認できます。

現在人気のモデル

現在よく選ばれているモデルは次のとおりです:

  • 安定性: Claude Sonnet 4.5
  • コスパ: DeepSeek V3 または Qwen3 Coder
  • 速度: Cerebras の Qwen3 Coder
  • ローカル: Ollama ホストモデル
  • 最新機能: GPT-5

ステップ5: Careti を始める

設定完了! これで Careti でコーディングを始められます:

  1. Careti チャットにリクエストを入力

    • 例: "Create a React component for a login form"
    • 例: "Debug this TypeScript error"
    • 例: "Refactor this function to be more efficient"
  2. Enter または送信アイコンをクリック

正しいモデルを選ぶ基準

モデル選択は複数要素のバランスです。以下のフレームワークを参考に最適なモデルを選びましょう。

ℹ️Note

プロのヒント: Plan モードと Act モードで別々のモデルを設定してみてください。例えば計画は安価なモデル、実装は高性能モデルにすると効率的です。

主な選択要素

要素考慮点おすすめ
タスクの複雑さ単純修正 vs 複雑なリファクタリングルーチンは低コスト、複雑はプレミアム
予算月の支出規模$10-$30: 低コスト, $30-$100: 中間, $100+: プレミアム
コンテキストウィンドウプロジェクト規模/ファイル数小: 32K-128K, 中: 128K-200K, 大: 400K+
速度応答時間要件対話は高速モデル、バックグラウンドは推論型も可
ツール信頼性複雑な作業の実行Claude がツールに強い。ワークフローに合わせて検証
プロバイダーアクセス性/価格OpenRouter: 選択肢が多い, Direct: 速く安定, Local: プライバシー

モデル比較リソース

価格・性能・指標は以下を参照:

オープンソース vs クローズドソース

オープンソースのメリット

  • 複数プロバイダーによるホスティング競争
  • 競争による 低価格
  • プロバイダー切り替え - 片方が落ちても切り替え可能
  • 高速なイノベーション

利用可能なオープンソースモデル

  • Qwen3 Coder (Apache 2.0)
  • Z AI GLM 4.5 (MIT)
  • Kimi K2 (オープンソース)
  • DeepSeek シリーズ (様々なライセンス)

クイック決定マトリクス

目的おすすめモデル
とにかく安定Claude Sonnet 4.5
コスト削減DeepSeek V3 または Qwen3 派生
大きなコンテキストGemini 2.5 Pro または Claude Sonnet 4.5
オープンソースQwen3 Coder, Z AI GLM 4.5, Kimi K2
最新技術GPT-5
速度Cerebras の Qwen3 Coder (最速)

みんなが使っているモデル

コミュニティの利用傾向は OpenRouter の Careti 利用統計 を確認してください。