Skip to main content

Leitfaden zum Context Window

ℹ️Note

Dies ist ein auf Careti basierendes Dokument. Es folgt dem Careti v3.38.1 Merge-Stand. Falls es Careti-spezifische Richtlinien gibt (Context-Beschränkungen nach unterstützten/blockierten Modellen, Authentifizierung/Routing), werden diese im Text mit <Note> gekennzeichnet.

Was ist ein Context Window?

Ein Context Window ist die maximale Menge an Text, die ein KI-Modell gleichzeitig verarbeiten kann. Stellen Sie es sich als das „Arbeitsgedächtnis“ des Modells vor – es bestimmt, wie viel von Ihrer Konversation und Ihrem Code das Modell bei der Generierung von Antworten berücksichtigen kann.

ℹ️Note

Wichtiger Punkt: Größere Context Windows ermöglichen es dem Modell, mehr von Ihrer Codebase auf einmal zu verstehen, können jedoch die Kosten und Antwortzeiten erhöhen.

Context Window Größen

Kurzreferenz

GrößeTokensUngefähre WörterAnwendungsfall
Klein8K-32K6.000-24.000Einzelne Dateien, schnelle Korrekturen
Mittel128K~96.000Die meisten Coding-Projekte
Groß200K~150.000Komplexe Codebases
Extra Groß400K+~300.000+Ganze Applikationen
Massiv1M+~750.000+Analyse mehrerer Projekte

Modell Context Windows

ModellContext WindowEffektives Window*Anmerkungen
Claude Sonnet 4.51M Tokens~500K TokensBeste Qualität bei hohem Kontext
GPT-5400K Tokens~300K TokensDrei Modi beeinflussen die Performance
Gemini 2.5 Pro1M+ Tokens~600K TokensExzellent für Dokumente
DeepSeek V3128K Tokens~100K TokensOptimal für die meisten Aufgaben
Qwen3 Coder256K Tokens~200K TokensGute Balance

*Das effektive Window ist der Bereich, in dem das Modell eine hohe Qualität beibehält.

Kontext effizient verwalten

Was zum Kontext zählt

  1. Deine aktuelle Konversation – Alle Nachrichten im Chat
  2. Dateiinhalte – Alle Dateien, die du geteilt hast oder die Careti gelesen hat
  3. Tool-Outputs – Ergebnisse von ausgeführten Befehlen
  4. System-Prompts – Anweisungen von Careti (minimaler Einfluss)

Optimierungsstrategien

1. Neu beginnen für neue Features

/new - Creates a new task with clean context

Vorteile:

  • Maximaler verfügbarer Kontext
  • Keine irrelevanten Historien
  • Besserer Fokus des Modells

2. @ Mentions strategisch nutzen

Statt ganze Dateien einzubinden:

  • @filename.ts – Nur bei Bedarf einbinden
  • Suche verwenden, anstatt große Dateien zu lesen
  • Beziehe dich auf spezifische Funktionen statt auf ganze Dateien

3. Auto-compact aktivieren

Careti kann lange Konversationen automatisch zusammenfassen:

  • Settings → Features → Auto-compact
  • Bewahrt wichtigen Kontext
  • Reduziert den Token-Verbrauch

Context Window Warnungen

Anzeichen dafür, dass Limits erreicht werden

WarnsignalBedeutungLösung
„Context window exceeded“Hard Limit erreichtNeuen Task starten oder Auto-compact aktivieren
Langsamere AntwortenModell hat Schwierigkeiten mit dem KontextEnthaltene Dateien reduzieren
Repetitive VorschlägeKontext-FragmentierungZusammenfassen und neu beginnen
Fehlende aktuelle ÄnderungenKontext-ÜberlaufCheckpoints verwenden, um Änderungen zu verfolgen

Best Practices nach Projektgröße

Kleine Projekte (< 50 Dateien)

  • Jedes Modell funktioniert gut
  • Relevante Dateien können frei eingebunden werden
  • Keine spezielle Optimierung erforderlich

Mittlere Projekte (50-500 Dateien)

  • Modelle mit 128K+ Kontext verwenden
  • Nur das aktuell benötigte Set an Dateien einbinden
  • Kontext zwischen verschiedenen Features leeren

Große Projekte (500+ Dateien)

  • Modelle mit 200K+ Kontext verwenden
  • Auf spezifische Module fokussieren
  • Suche verwenden, anstatt viele Dateien zu lesen
  • Arbeit in kleinere Tasks aufteilen

Erweitertes Kontextmanagement

Plan/Act Mode Optimierung

Nutze den Plan/Act Mode für eine bessere Kontextausnutzung:

  • Plan Mode: Kleineren Kontext für Diskussionen verwenden
  • Act Mode: Notwendige Dateien für die Implementierung einbinden

Konfiguration:

Plan Mode: DeepSeek V3 (128K) - Kostengünstigere Planung
Act Mode: Claude Sonnet (1M) - Maximaler Kontext für Coding

Strategien zum Context Pruning

  1. Temporales Pruning: Alte Konversationsteile entfernen
  2. Semantisches Pruning: Nur relevante Codeabschnitte behalten
  3. Hierarchisches Pruning: Struktur auf hoher Ebene beibehalten, Details kürzen

Tipps zum Zählen von Tokens

Grobe Schätzungen

  • 1 Token ≈ 0,75 Wörter
  • 1 Token ≈ 4 Zeichen
  • 100 Zeilen Code ≈ 500-1000 Tokens

Richtlinien zur Dateigröße

DateitypTokens pro KB
Code~250-400
JSON~300-500
Markdown~200-300
Klartext~200-250

Context Window FAQ

F: Warum werden die Antworten bei sehr langen Konversationen schlechter?

A: Modelle können bei zu viel Kontext den Fokus verlieren. Das „effektive Window“ liegt typischerweise bei 50-70 % des angegebenen Limits.

F: Sollte ich immer das größte verfügbare Context Window nutzen?

A: Nicht unbedingt. Größere Kontexte erhöhen die Kosten und können die Antwortqualität verringern. Passen Sie den Kontext an die Größe Ihrer Aufgabe an.

F: Wie sehe ich, wie viel Kontext ich gerade verbrauche?

A: Careti zeigt den Token-Verbrauch im Interface an. Achten Sie auf die Kontext-Anzeige, wenn sie sich den Limits nähert.

F: Was passiert, wenn ich das Kontext-Limit überschreite?

A: Careti wird entweder:

  • Die Konversation automatisch zusammenfassen (falls aktiviert)
  • Einen Fehler anzeigen und vorschlagen, einen neuen Task zu starten
  • Ältere Nachrichten kürzen (mit Warnung)

Empfehlungen nach Anwendungsfall

AnwendungsfallEmpfohlener KontextModell-Vorschlag
Schnelle Korrekturen32K-128KDeepSeek V3
Feature-Entwicklung128K-200KQwen3 Coder
Große Refactorings400K+Claude Sonnet 4.5
Code-Review200K-400KGPT-5
Dokumentation128KBeliebiges Budget-Modell