xAI (Grok)
xAI ist das Unternehmen hinter Grok, einem Large Language Model, das für seine Konversationsfähigkeiten und sein großes Context Window bekannt ist. Grok-Modelle sind darauf ausgelegt, hilfreiche, informative und kontextuell relevante Antworten zu liefern.
Website: https://x.ai/
Getting an API Key
- Anmelden/Registrieren: Rufen Sie die xAI Console auf. Erstellen Sie ein Konto oder melden Sie sich an.
- Zu API-Keys navigieren: Gehen Sie zum Bereich API-Keys in Ihrem Dashboard.
- Key erstellen: Klicken Sie hier, um einen neuen API-Key zu erstellen. Geben Sie Ihrem Key einen aussagekräftigen Namen (z. B. „Careti“).
- Key kopieren: Wichtig: Kopieren Sie den API-Key sofort. Sie können ihn später nicht mehr einsehen. Bewahren Sie ihn sicher auf.
Supported Models
Careti unterstützt die folgenden xAI Grok-Modelle:
Grok-3 Models
grok-3-beta(Default) – xAIs Grok-3 Beta-Modell mit 131K Context Windowgrok-3-fast-beta– xAIs Grok-3 Fast Beta-Modell mit 131K Context Windowgrok-3-mini-beta– xAIs Grok-3 Mini Beta-Modell mit 131K Context Windowgrok-3-mini-fast-beta– xAIs Grok-3 Mini Fast Beta-Modell mit 131K Context Window
Grok-2 Models
grok-2-latest– xAIs Grok-2 Modell – neueste Version mit 131K Context Windowgrok-2– xAIs Grok-2 Modell mit 131K Context Windowgrok-2-1212– xAIs Grok-2 Modell (Version 1212) mit 131K Context Window
Grok Vision Models
grok-2-vision-latest– xAIs Grok-2 Vision Modell – neueste Version mit Bildunterstützung und 32K Context Windowgrok-2-vision– xAIs Grok-2 Vision Modell mit Bildunterstützung und 32K Context Windowgrok-2-vision-1212– xAIs Grok-2 Vision Modell (Version 1212) mit Bildunterstützung und 32K Context Windowgrok-vision-beta– xAIs Grok Vision Beta-Modell mit Bildunterstützung und 8K Context Window
Legacy Models
grok-beta– xAIs Grok Beta-Modell (Legacy) mit 131K Context Window
Configuration in Careti
- Careti-Einstellungen öffnen: Klicken Sie auf das Einstellungs-Icon (⚙️) im Careti-Panel.
- Provider auswählen: Wählen Sie „xAI“ aus dem „API Provider“-Dropdown-Menü.
- API-Key eingeben: Fügen Sie Ihren xAI API-Key in das Feld „xAI API Key“ ein.
- Modell auswählen: Wählen Sie Ihr gewünschtes Grok-Modell aus dem „Model“-Dropdown-Menü.
Reasoning Capabilities
Grok 3 Mini-Modelle verfügen über spezialisierte Reasoning-Funktionen, die es ihnen ermöglichen, „vor der Antwort nachzudenken“ – besonders nützlich für komplexe Problemlösungsaufgaben.
Reasoning-Enabled Models
Reasoning wird nur unterstützt von:
grok-3-mini-betagrok-3-mini-fast-beta
Die Grok 3-Modelle grok-3-beta und grok-3-fast-beta unterstützen kein Reasoning.
Controlling Reasoning Effort
Bei der Verwendung von Reasoning-fähigen Modellen können Sie mit dem Parameter reasoning_effort steuern, wie intensiv das Modell nachdenkt:
low: Minimale Bedenkzeit, verbraucht weniger Tokens für schnelle Antwortenhigh: Maximale Bedenkzeit, nutzt mehr Tokens für komplexe Probleme
Wählen Sie low für einfache Abfragen, die schnell abgeschlossen werden sollen, und high für schwierigere Probleme, bei denen die Antwortlatenz weniger wichtig ist.
Key Features
- Schritt-für-Schritt-Problemlösung: Das Modell durchdenkt Probleme methodisch, bevor es eine Antwort liefert
- Stärke in Mathematik & Quantitativen Aufgaben: Hervorragend bei numerischen Herausforderungen und Logikrätseln
- Zugriff auf Reasoning-Trace: Der Denkprozess des Modells ist über das Feld
reasoning_contentim Response Completion Object verfügbar
Tips and Notes
- Context Window: Die meisten Grok-Modelle verfügen über große Context Windows (bis zu 131K Tokens), sodass Sie umfangreiche Mengen an Code und Kontext in Ihre Prompts aufnehmen können.
- Vision-Fähigkeiten: Wählen Sie Vision-fähige Modelle (
grok-2-vision-latest,grok-2-visionusw.), wenn Sie Bilder verarbeiten oder analysieren müssen. - Preise: Die Preise variieren je nach Modell, wobei die Input-Kosten zwischen 0,3 $ und 5,0 $ pro Million Tokens und die Output-Kosten zwischen 0,5 $ und 25,0 $ pro Million Tokens liegen. Weitere Informationen zu den aktuellen Preisen finden Sie in der xAI-Dokumentation.
- Leistungsabwägungen: „Fast“-Varianten bieten in der Regel schnellere Antwortzeiten, können aber höhere Kosten verursachen, während „Mini“-Varianten wirtschaftlicher sind, aber möglicherweise einen geringeren Funktionsumfang haben.