Skip to main content

Automatische Kontextzusammenfassung

Wenn Ihre Konversation sich dem Kontextfensterlimit des Modells nähert, fasst Careti diese automatisch zusammen, um Platz freizugeben und das Arbeiten fortzusetzen.

Auto-compact feature condensing conversation context

Wie es funktioniert

Careti überwacht die Token-Nutzung während Ihrer Konversation. Wenn Sie sich dem Limit nähern, macht er Folgendes:

  1. Erstellt eine umfassende Zusammenfassung von allem, was passiert ist
  2. Bewahrt alle technischen Details, Code-Änderungen und Entscheidungen
  3. Ersetzt den Konversationsverlauf durch die Zusammenfassung
  4. Macht genau dort weiter, wo er aufgehört hat

Sie sehen einen Tool-Aufruf zur Zusammenfassung, wenn dies geschieht, der die Gesamtkosten wie jeder andere API-Aufruf in der Chat-Ansicht anzeigt.

Warum das wichtig ist

Bisher hat Careti ältere Nachrichten abgeschnitten, wenn er an Kontextgrenzen stieß. Dies bedeutete, dass wichtiger Kontext von früher in der Konversation verloren ging.

Jetzt mit Zusammenfassung:

  • Alle technischen Entscheidungen und Codemuster werden beibehalten
  • Dateiänderungen und Projektkontext bleiben intakt
  • Careti erinnert sich an alles, was er getan hat
  • Sie können an viel größeren Projekten ohne Unterbrechung arbeiten
💡Tip

Die Kontextzusammenfassung harmoniert wunderbar mit Focus Chain. Wenn Focus Chain aktiviert ist, bleiben Aufgabenlisten über Zusammenfassungen hinweg bestehen. Dies bedeutet, dass Careti an langfristigen Aufgaben arbeiten kann, die sich über mehrere Kontextfenster erstrecken, während er mit der Aufgabenliste, die ihn durch jeden Reset führt, auf dem richtigen Weg bleibt.

Technische Details

Die Zusammenfassung erfolgt über Ihren konfigurierten API-Provider mit demselben Modell, das Sie bereits verwenden. Es nutzt Prompt-Caching, um die Kosten zu minimieren.

  1. Careti verwendet einen Summarization Prompt, um eine Zusammenfassung der Konversation anzufordern.

  2. Sobald die Zusammenfassung generiert wurde, ersetzt Careti den Konversationsverlauf durch einen Continuation Prompt, der Careti auffordert, weiterzuarbeiten, und die Zusammenfassung als Kontext bereitstellt.

Verschiedene Modelle haben unterschiedliche Kontextfenster-Schwellenwerte, ab wann die automatische Zusammenfassung ausgelöst wird. Sie können sehen, wie Schwellenwerte in context-window-utils.ts bestimmt werden.

Kostenbetrachtung

Die Zusammenfassung nutzt Ihren bestehenden Prompt-Cache aus der Konversation, sodass sie ungefähr so viel kostet wie jeder andere Tool-Aufruf.

Da die meisten Eingabe-Token bereits zwischengespeichert sind, zahlen Sie hauptsächlich für die Generierung der Zusammenfassung (Ausgabe-Token), was sie sehr kosteneffektiv macht.

Kontext mit Checkpoints wiederherstellen

Sie können Checkpoints verwenden, um Ihren Aufgabenstatus von vor einer Zusammenfassung wiederherzustellen. Das bedeutet, dass Sie nie wirklich den Kontext verlieren - Sie können immer zu früheren Versionen Ihrer Konversation zurückkehren.

ℹ️Note

Das Bearbeiten einer Nachricht vor einem Tool-Aufruf zur Zusammenfassung funktioniert ähnlich wie ein Checkpoint, sodass Sie die Konversation zu diesem Zeitpunkt wiederherstellen können.

Unterstützung für Modelle der nächsten Generation

Auto-Kompakt verwendet eine fortschrittliche LLM-basierte Zusammenfassung, die unserer Erfahrung nach bei Modellen der nächsten Generation deutlich besser funktioniert. Wir unterstützen diese Funktion derzeit für die folgenden Modelle:

  • Claude 4 series
  • Gemini 2.5 series
  • GPT-5
  • Grok 4
ℹ️Note

Bei Verwendung anderer Modelle greift Careti automatisch auf die standardmäßige regelbasierte Methode zum Abschneiden des Kontexts zurück, auch wenn Auto-Kompakt in den Einstellungen aktiviert ist.