KI Deep Dive

Claude-Mem: Der vollständige Leitfaden für persistenten Speicher für Claude Code

Ihr KI-Coding-Agent vergisst zwischen den Sessions alles. Claude-Mem behebt dies — durch das automatische Erfassen der Tool-Nutzung, das Komprimieren von Beobachtungen mittels KI und das Injizieren von relevantem Kontext in zukünftige Sessions. Wir analysieren die Architektur, die Installation und warum es zu einem der am schnellsten wachsenden Open-Source-Plugins im KI-Coding-Ökosystem wurde.

Claude-Mem: Persistentes Speicher-Plugin für KI-Coding — Ein leuchtendes Gehirn aus neuronalen Schaltkreisen, verbunden mit einem Code-Editor, mit fließenden Datenströmen, die die Kontexterhaltung über Coding-Sessions hinweg darstellen

Jeder Entwickler, der KI-Coding-Agenten nutzt, hat es schon erlebt: Man verbringt eine Stunde damit, Claude Code die Projektarchitektur, Präferenzen und Konventionen zu erklären. Die Session endet. Man startet eine neue. Es ist ein unbeschriebenes Blatt. Claude-Mem ist das Open-Source-Plugin, das dieses Problem löst — und es hat sich zu einem der beliebtesten Tools im KI-Coding-Ökosystem entwickelt. Wir haben es auf GitHub, Reddit, Twitter/X und im Quellcode selbst recherchiert — hier ist der ultimative Leitfaden.

Get the latest on AI, LLMs & developer tools

New MCP servers, model updates, and guides like this one — delivered weekly.

1. Warum es wichtig ist

Claude-Mem ist eines der meist-gesternten Plugins im Claude Code-Ökosystem, mit zehntausenden GitHub-Stars, hunderten Releases und tausenden Forks. Für ein Plugin, das einem KI-Coding-Agenten im Wesentlichen ein Gedächtnis verleiht, ist das eine außergewöhnliche Akzeptanz. Es ist kein Framework und keine Bibliothek — es ist eine Verhaltens-Augmentierung für Claude Code.

Warum das wichtig ist

KI-Agenten sind konzeptbedingt zustandslos — jede Sitzung beginnt bei Null. Aber echte Entwicklungsprojekte erstrecken sich über Wochen und Monate. Jede erneute Erklärung kostet Tokens, Zeit und birgt das Risiko, dass der Agent etwas missversteht, das man bereits klargestellt hat. Claude-Mem schließt diese Lücke automatisch.

Das Projekt wurde primär mit TypeScript, mit JavaScript, Shell-Skripten, und HTML für seinen Web-Viewer. Es ist lizenziert unter AGPL-3.0, was bedeutet, dass man es frei verwenden und modifizieren kann, aber abgeleitete Werke, die über ein Netzwerk bereitgestellt werden, ebenfalls quelloffen sein müssen.

2. Die Entstehungsgeschichte

Claude-Mem wurde erstellt von Alex Newman, online bekannt als @thedotmack. Newmans Hintergrund umfasst AI Product Management, Solutions Architecture und Forward Deployed Engineering — eine Kombination, die erklärt, warum sich claude-mem weniger wie ein Hobbyprojekt und mehr wie eine Produktionsinfrastruktur anfühlt.

Das Projekt entstand aus einer einfachen Beobachtung: Claude Code ist unglaublich leistungsfähig, aber es behandelt jede Session so, als würde es Sie zum ersten Mal treffen. Newman entwickelte claude-mem, um sein eigenes Problem zu lösen — und die Entwickler-Community hat es massiv bestätigt.

Die entscheidende Erkenntnis

Newman erkannte, dass das Problem nicht das Speichern von Erinnerungen war — sondern das Komprimieren und Abrufen derselben auf effiziente Weise. Rohe Konversationsprotokolle sind zu umfangreich und unfokussiert. Claude-Mem nutzt die KI selbst, um semantische Zusammenfassungen der Ereignisse jeder Session zu erstellen, und ruft dann nur den relevanten Kontext für die nächste ab.

Das Projekt hat einen offiziellen X/Twitter-Account (@Claude_Memory), eine Discord-Community, und sogar eine offizielle Website unter claude-mem.ai mit einer umfassenden Dokumentation.

3. Das Problem, das es löst

Wenn Sie Claude Code, Cursor oder einen anderen AI-Coding-Agenten länger als einen Tag benutzt haben, kennen Sie das Problem:

Problem 1: Kontext-Amnesie

Du erklärst deine Projektarchitektur, dein Datenbank-Schema und deine Coding-Conventions. Die Session endet. Nächste Session: “Was für ein Projekt ist das?” Jedes. Einzelne. Mal.

Problem 2: Wiederholte Entscheidungen

Du entscheidest dich für ein bestimmtes Pattern (z. B. “immer Server Actions verwenden, niemals API-Routes”). In der nächsten Session generiert der Agent API-Routes, weil er sich nicht an deine Präferenz erinnert.

Problem 3: Verlorener Bug-Kontext

Du hast 30 Minuten damit verbracht, eine knifflige Race Condition zu debuggen. Die Lösung erforderte das Verständnis von drei interagierenden Services. In der nächsten Session schlägt der Agent genau den Ansatz vor, den du bereits ausprobiert und verworfen hast.

Problem 4: Token-Verschwendung

Jede erneute Erklärung verbraucht Tokens. Wenn du einen nutzungsbasierten Tarif nutzt, summieren sich die Kosten für die Wiederherstellung des Kontexts bei Dutzenden täglicher Sessions schnell auf.

Claude-Mem löst alle vier Probleme. Es läuft unbemerkt im Hintergrund und erfasst, was Claude tut (nicht nur, was du sagst), komprimiert diese Beobachtungen in semantische Zusammenfassungen und speist die relevanten Informationen zu Beginn jeder neuen Session ein.

4. Wie es funktioniert

Claude-Mem operiert über 6 Kernkomponenten, die alle zusammenarbeiten, um eine nahtlose Memory-Ebene zu schaffen:

KomponenteFunktion
5 Lifecycle-HooksSessionStart, UserPromptSubmit, PostToolUse, Stop, SessionEnd — erfassen Ereignisse in jeder Phase
Smart InstallGecachter Dependency-Checker, der vor den Hooks ausgeführt wird (stellt sicher, dass Bun, uv und Abhängigkeiten bereit sind)
Worker-ServiceHTTP-API auf Port 37777 mit Web-Viewer-UI und 10 Such-Endpunkten, verwaltet von Bun
SQLite-DatenbankSpeichert Sitzungen, Beobachtungen und Zusammenfassungen lokal mit FTS5-Volltextsuche
mem-search SkillAbfragen in natürlicher Sprache mit Progressive Disclosure zur Abfrage der Projekthistorie
Chroma Vector DBHybride semantische + Keyword-Suche für intelligenten Kontext-Abruf

Der Lifecycle-Flow

Das passiert während einer typischen Sitzung:

SITZUNGS-LIFECYCLE

1. SessionStart Hook
   → Worker-Service startet (falls nicht aktiv)
   → Ruft relevante vergangene Beobachtungen ab
   → Fügt komprimierten Kontext in die Sitzung ein

2. UserPromptSubmit Hook
   → Protokolliert die Benutzeranfrage

3. PostToolUse Hook (wird nach JEDEM Tool-Aufruf ausgeführt)
   → Erfasst Tool-Name + Input + Output
   → Komprimiert Beobachtungen mittels KI
   → Speichert in SQLite + Vektor-DB

4. Stop Hook
   → Erfasst Session-Pause-Events

5. SessionEnd Hook
   → Generiert Session-Zusammenfassung
   → Speichert finalen Kontext-Snapshot

Die entscheidende Erkenntnis hierbei ist PostToolUse. Claude-Mem zeichnet nicht nur Ihre Nachrichten auf — es protokolliert, was der Agent tut: gelesene Dateien, geschriebener Code, ausgeführte Tests, aufgetretene Fehler. Dies ermöglicht ein weitaus tieferes Verständnis des Projektstatus als reine Konversationsprotokolle.

5. Progressive Disclosure

Dies ist das innovativste Design-Pattern von claude-mem. Anstatt den gesamten Speicher in das Context Window zu laden (was die Token-Kosten sprengen würde), nutzt es ein 3-stufiges Retrieval-System:

DAS 3-STUFIGE PROGRESSIVE-DISCLOSURE-MODELL

Ebene 1: Session Priming (<500 Token)
   → Schlanke Projektzusammenfassung
   → Wichtige Entscheidungen aus den letzten Sessions
   → Automatisch injiziert bei SessionStart

Layer 2: Suchindex (~50-100 Token/Ergebnis)
   → Kompakte Beobachtungs-IDs + Titel
   → Der Agent sucht, wenn er mehr Kontext benötigt
   → Gerade genug, um zu entscheiden: “Ist das relevant?”

Layer 3: Vollständige Details (~500-1000 Token/Ergebnis)
   → Vollständiger Inhalt der Beobachtung
   → NUR für relevante IDs abgerufen
   → Der Agent fordert explizit an, was er benötigt

Ergebnis: ~10x Token-Ersparnis gegenüber dem Dump-Everything-Ansatz

Dies ist die Architektur, die claude-mem in großem Maßstab praxistauglich macht. Ohne Progressive Disclosure verbrauchen Memory-Systeme entweder zu viele Token (teuer, verwässert den Fokus) oder rufen zu wenig ab (kritischer Kontext fehlt). Das 3-Layer-System von claude-mem erlaubt es dem Agenten, selbst über die Relevanz zu entscheiden.

6. MCP-Suchwerkzeuge

Claude-Mem stellt bereit: 4 MCP-Tools, die Claude nutzen kann, um das eigene Gedächtnis abzufragen:

ToolZweckToken-Kosten
SucheVolltextsuche mit Filtern (Typ, Datum, Projekt)~50-100/Ergebnis
TimelineChronologischer Kontext zu bestimmten Beobachtungen~100-200/Ergebnis
get_observationsVollständige Details über Observation-IDs abrufen (Batch)~500-1000/Ergebnis

Beispiel: Deinen Speicher durchsuchen

// Step 1: Search for compact index
search(query="Authentifizierungs-Bug",
       type="bugfix", limit=10)

// Step 2: Review index, identify relevant IDs
// e.g., observations #123, #456 look relevant

// Step 3: Fetch full details ONLY for those
get_observations(ids=[123, 456])

Dieser Workflow bedeutet, dass Claude nur die Token-Kosten für Observations bezahlt, die es tatsächlich benötigt, und nicht für alles in der Datenbank. Der Search-Layer fungiert als Filter, und der Retrieval-Layer bietet Tiefe.

7. Installation

Claude-Mem bietet drei Installationsmethoden an:

Option A: npx (Empfohlen)

Der schnellste Weg — ein Befehl:

# Für Claude Code installieren
npx claude-mem install

# Für Gemini CLI installieren
npx claude-mem install --ide gemini-cli

Option B: Plugin Marketplace (Innerhalb von Claude Code)

# Marketplace hinzufügen
/plugin marketplace add thedotmack/claude-mem

# Plugin installieren
/plugin install claude-mem

Option C: OpenClaw Gateway

curl -fsSL https://install.cmem.ai/openclaw.sh | bash

⚠️ Wichtiger Hinweis

npm install -g claude-mem installiert nur die SDK/Bibliothek — es werden keine Plugin-Hooks registriert oder der Worker-Service eingerichtet. Verwenden Sie immer npx claude-mem install oder die /plugin Befehle.

Systemanforderungen

AnforderungDetails
Node.js18.0.0 oder höher
Claude CodeNeueste Version mit Plugin-Unterstützung
BunJavaScript-Runtime (wird automatisch installiert, falls nicht vorhanden)
uvPython-Paketmanager für Vektorsuche (automatisch installiert)
SQLite 3Für persistente Speicherung (mitgeliefert)

Starten Sie nach der Installation Claude Code oder das Gemini CLI neu. Der Kontext aus vorherigen Sitzungen erscheint automatisch in neuen Sitzungen — kein manuelles Eingreifen erforderlich.

8. Deep-Dive in die Hauptfunktionen

🧠 Persistenter Speicher

Das Kernfeature: Der Kontext bleibt über Sitzungen hinweg erhalten. Wenn Sie eine neue Sitzung starten, weiß Claude bereits, an welchen Dateien Sie gearbeitet haben, welche Bugs Sie behoben haben, welche Architekturentscheidungen Sie getroffen haben und welche Patterns Sie bevorzugen.

🖥️ Web-Viewer-UI

Navigieren Sie zu http://localhost:37777 in Ihrem Browser, um einen Echtzeit-Memory-Stream zu sehen. Sie können Beobachtungen durchsuchen, die Historie durchforsten und überwachen, was claude-mem erfasst. Der Viewer bietet zudem Zugriff auf Beta-Funktionen und den Versionswechsel.

🔒 Datenschutz-Kontrolle

Schließen Sie beliebige Inhalte in <private> Tags ein, um sie von der Speicherung auszuschließen. API-Keys, Anmeldedaten, persönliche Informationen — alles innerhalb dieser Tags wird niemals persistiert. Die Daten verbleiben vollständig auf Ihrem Rechner in SQLite.

🔗 Zitate

Jede Beobachtung erhält eine eindeutige ID. Sie können auf vergangene Beobachtungen über deren IDs verweisen und auf diese zugreifen via http://localhost:37777/api/observation/{id}. Dies ermöglicht es, genau nachzuvollziehen, warum Claude eine bestimmte Entscheidung getroffen hat.

🧪 Beta-Kanal: Endless Mode

Der experimentelle “Endless Mode” implementiert eine biomimetische Speicherarchitektur, die für ausgedehnte Sessions konzipiert ist, die über Stunden laufen. Sie nutzt eine andere Kompressionsstrategie, die eine Sättigung des Kontextfensters während Marathon-Coding-Sessions verhindert. Wechseln Sie in der Web-Viewer-UI zwischen Stable und Beta.

⚙️ Kontext-Konfiguration

Einstellungen werden verwaltet in ~/.claude-mem/settings.json. Sie können das für die Kompression verwendete KI-Modell, den Worker-Port, das Datenverzeichnis, das Log-Level sowie eine feingranulare Steuerung darüber konfigurieren, welcher Kontext wann injiziert wird.

9. Architektur-Übersicht

Claude-Mem's Architektur hat sich über mehrere Hauptversionen hinweg signifikant weiterentwickelt. So greifen die Komponenten ineinander:

CLAUDE-MEM ARCHITEKTUR

┌─────────────────────────────────────┐
│          Claude Code Session          │
│                                     │
│ SessionStart → PostToolUse → End  │
└────────────────┬────────────────────┘
                 │ Hooks
                 ▼
┌─────────────────────────────────────┐
│  Worker-Service (Bun, Port 37777)  │
│                                     │
│ ┌──────────┐  ┌──────────────────┐ │
│ │ Web UI   │  │ 10 API-Endpunkte │ │
│ └──────────┘  └──────────────────┘ │
└────────────────┬────────────────────┘
                 │
                 ▼
┌─────────────────────────────────────┐
│           Storage-Layer            │
│                                     │
│ ┌──────────────┐  ┌──────────────┐│
│ │ SQLite + FTS5 │  │ Chroma VecDB ││
│ │ (strukturiert)│  │ (semantisch) ││
│ └──────────────┘  └──────────────┘│
└─────────────────────────────────────┘

Die Dual-Datenbank-Strategie

Claude-Mem nutzt zwei Datenbanken kombiniert:

  • SQLite mit FTS5 — Für strukturierte Abfragen, Exact-Match-Suchen und zeitbasierte Filterung. Schnell, lokal, Zero-Config.
  • Chroma Vektordatenbank — Für die semantische Ähnlichkeitssuche. Wenn Claude fragt “Was haben wir bezüglich des Auth-Systems unternommen?”, findet Chroma konzeptionell verwandte Beobachtungen, selbst wenn die exakten Wörter nicht übereinstimmen.

Zusammen bieten sie Hybrid-Suche: Exakte Treffer aus SQLite und Fuzzy-/semantische Treffer aus Chroma. Dies ist dasselbe Sucharchitektur-Muster, das von produktiven RAG-Systemen verwendet wird, miniaturisiert für den lokalen Einsatz.

10. Community-Reaktionen

Wir haben Diskussionen auf Reddit (r/ClaudeAI, r/ClaudeCode), Twitter/X und in Fachartikeln recherchiert. Hier ist der Konsens der Community:

Der “Blank Slate”-Killer

Die überwältigende Meinung auf Reddit: claude-mem ist die beste Lösung für das “Blank Slate”-Problem. Nutzer berichten, dass es die Reibungsverluste erheblich reduziert, die beim erneuten Erklären von Projektarchitekturen entstehen, und so Zeit, Tokens und Frustration spart. Mehrere Threads auf r/ClaudeCode beschreiben es als ein “Must-have”-Plugin.

Die Debatte um die Token-Ökonomie

Einige Nutzer waren anfangs besorgt über die Token-Kosten — ein aktives Memory-System, das Beobachtungen mittels KI-Aufrufen komprimiert, könnte selbst Tokens verbrauchen. Der Konsens der Community: Die Progressive-Disclosure-Architektur sorgt für eine positive Bilanz. Die Tokens, die durch das Wegfallen erneuter Kontexterklärungen gespart werden, übersteigen bei weitem die Tokens, die für die Memory-Komprimierung aufgewendet werden.

Die Spaltung zwischen “Heavy” und “Lite”

Da claude-mem ein System mit vollem Funktionsumfang ist (erfordert Bun, Python für die Vektorsuche, einen Background-Worker-Service), haben einige Entwickler leichtere Alternativen erstellt, wie zum Beispiel claude-mem-lite und memsearch. Diese nutzen eine einfachere textbasierte Speicherung und minimieren LLM-Aufrufe. Die Community sieht diese als ergänzend an: claude-mem für ernsthafte, mehrwöchige Projekte, leichtere Tools für schnelle Experimente.

Der Workflow-Integrations-Layer

Power-User auf Reddit beschreiben claude-mem als eine fundamentale Basis für benutzerdefinierte Workflows. Sie bauen spezialisierte “Skills” darauf auf — indem sie persistenten Speicher mit benutzerdefinierten Regeln und domänenspezifischem Wissen kombinieren, um KI-Agenten zu erstellen, die ihre spezifischen Projekte tiefgreifend verstehen.

Community-Urteil

Claude-Mem gilt weithin als die klassenbeste Lösung für persistenten KI-Agenten-Speicher. Die Hauptkritik ist, dass es “schwerfällig” sei — ein komplexes System mit mehreren Abhängigkeiten. Das Gegenargument: Speicher ist ein schwieriges Problem, und einfache Lösungen liefern einfache Ergebnisse.

11. Das Urteil: Lohnt sich die Nutzung von Claude-Mem?

Unsere Einschätzung

Ja, wenn Sie Claude Code für Projekte über mehrere Sessions hinweg nutzen. Claude-Mem ist die klassenbeste persistente Speicherlösung für KI-Coding-Agenten. Die Progressive-Disclosure-Architektur macht es Token-effizient, die duale SQLite + Chroma Suche bietet sowohl exaktes als auch semantisches Retrieval, und der vollautomatische Betrieb bedeutet null manuellen Overhead.

Nutzen Sie es, wenn:

  • Sie an Projekten arbeiten, die sich über mehrere Sessions erstrecken (Tage, Wochen, Monate)
  • Sie es leid sind, Ihre Projektarchitektur in jeder Session neu zu erklären
  • Sie möchten, dass Claude sich an vergangene Entscheidungen, Bugfixes und abgelehnte Ansätze erinnert
  • Sie mit dem Dependency-Footprint einverstanden sind (Node.js, Bun, Python für die Vektorsuche)

Verzichten Sie darauf, wenn:

  • Du nutzt Claude Code nur für schnelle, punktuelle Aufgaben
  • Du bevorzugst minimales Tooling und möchtest keine Hintergrunddienste
  • Du nutzt Cursor oder Windsurf (claude-mem funktioniert nur mit Claude Code, Gemini CLI und OpenClaw)
  • Eine gut gepflegte CLAUDE.md Datei ist für deinen Workflow ausreichend

12. Alternativen & Vergleich

Wie schneidet claude-mem im Vergleich zu anderen Ansätzen ab, um KI-Agenten ein Gedächtnis zu geben?

AnsatzVorteileNachteile
CLAUDE.md (Manuell)Einfach, keine Abhängigkeiten, volle KontrolleManuelle Wartung, keine automatische Erfassung, statisch
Claude-MemAutomatisch, semantische Suche, progressive disclosure, umfangreichKomplexes Setup, erfordert Bun + Python, Hintergrunddienst
claude-mem-liteLeichtgewichtig, textbasiert, weniger AbhängigkeitenKeine semantische Suche, einfachere Komprimierung
Benutzerdefinierte SkripteVollständig anpassbar, keine externen AbhängigkeitenAlles in Eigenregie, keine Unterstützung durch das Ökosystem
Integriertes Claude MemoryKein Setup erforderlich, native IntegrationBegrenzter Umfang, keine projektspezifische Persistenz

Für die meisten Entwickler, die an ernsthaften Projekten über mehrere Sitzungen hinweg arbeiten, bietet claude-mem den umfangreichsten Funktionsumfang. Für schnelle Experimente oder Entwickler, die minimales Tooling bevorzugen, kann eine gut gepflegte CLAUDE.md-Datei kombiniert mit einer Skills-Datei (wie Karpathy's Skills) ausreichend sein.

13. Das Gesamtbild

Von zustandslosen zu zustandsbehafteten Agenten

Claude-Mem repräsentiert einen Wandel in der Art und Weise, wie wir über KI-Coding-Agenten denken. Die erste Generation von KI-Assistenten war zustandslos — jede Interaktion begann bei Null. Die aktuelle Generation, mit Tools wie claude-mem, wird zustandsbehaftet — Agenten, die im Laufe der Zeit Wissen über dein Projekt ansammeln.

Das hat tiefgreifende Auswirkungen. Ein stateful Agent schreibt nicht nur Code — er versteht deine Codebase. Er weiß, welche Muster funktionierten, welche abgelehnt wurden und warum. Er erinnert sich, dass das Auth-System aufgrund einer früheren Migrationsbeschränkung ein bestimmtes Token-Format verwendet. Er weiß noch, dass die Datenbankabfrage einen bestimmten Index benötigt, weil du vor zwei Wochen ein Performance-Problem behoben hast.

Das Context Engineering-Ökosystem

Claude-Mem ist Teil eines umfassenderen “Context Engineering”-Ökosystems, das sich rasant weiterentwickelt:

  • CLAUDE.md / Rules-Dateien — Statischer Kontext (Projektkonventionen, Coding-Standards)
  • Skills/Plugins — Verhaltensrichtlinien (wie Karpathys Skills-Datei)
  • Memory-Plugins — Dynamischer Kontext (claude-mem, Session-History)
  • MCP-Server — Externes Wissen (Datenbanken, APIs, Dokumentation)

Zusammen erschaffen diese Ebenen Agenten, die tiefgreifend angepasst an spezifische Projekte und Entwickler sind. Die “Vibe Coding”-Ära loser, unstrukturierter KI-Interaktion entwickelt sich zu “Agentic Engineering” — einer disziplinierten Praxis, bei der Context Management genauso wichtig ist wie die Prompts selbst.

Was kommt als Nächstes

Mit v12 unterstützt claude-mem bereits Claude Code, Gemini CLI und OpenClaw-Gateways. Die Entwicklung deutet hin auf ein universelles Agent-Memory — eine persistente Wissensebene, die über jedes AI-Coding-Tool, jeden Editor oder jede Plattform hinweg funktioniert. Der $CMEM-Token (ein von der Community getriebener Solana-Token, den der Entwickler offiziell unterstützt) deutet auf noch ambitioniertere Pläne für den Datenaustausch zwischen Agents in Echtzeit und die Zusammenarbeit von Entwicklern hin.

14. Häufig gestellte Fragen

F: Funktioniert claude-mem mit Gemini CLI oder nur mit Claude Code?

Claude-Mem unterstützt sowohl Claude Code als auch Gemini CLI. Installieren Sie es für Gemini CLI mit 'npx claude-mem install --ide gemini-cli'. Es funktioniert auch mit OpenClaw-Gateways.

F: Sendet claude-mem meinen Code oder meine Daten in die Cloud?

Nein. Alle Daten werden lokal in einer SQLite-Datenbank unter ~/.claude-mem/claude-mem.db gespeichert. Nichts verlässt Ihren Rechner. Die HTTP API auf Port 37777 läuft ebenfalls lokal, ohne dass eine Authentifizierung erforderlich ist.

F: Verbraucht claude-mem zusätzliche Token?

Es nutzt Token für das Komprimieren von Beobachtungen, aber die Progressive Disclosure Architektur führt zu Netto-Einsparungen. Die Token, die gespart werden, weil der Kontext nicht über Sitzungen hinweg neu erklärt werden muss, übersteigen die Kompressionskosten bei weitem.

F: Warum startet der Worker nicht oder warum ist Port 37777 belegt?

Prüfen Sie mit 'lsof -i :37777', was den Port belegt, und beenden Sie den Prozess mit 'kill -9 $(lsof -t -i:37777)'. Sie können den Port auch in ~/.claude-mem/settings.json ändern.

F: Was ist der Unterschied zwischen claude-mem und CLAUDE.md?

CLAUDE.md ist eine statische Datei, die Sie manuell mit Projektkonventionen pflegen. Claude-Mem arbeitet automatisch – es erfasst, komprimiert und ruft Kontext dynamisch ab. Sie ergänzen einander: Nutzen Sie CLAUDE.md für Regeln und claude-mem für das Gedächtnis.

F: Kann ich claude-mem mit Cursor oder Windsurf verwenden?

Nein. Claude-Mem wurde speziell für das Plugin/Hooks-System von Claude Code entwickelt. Es unterstützt auch Gemini CLI und OpenClaw-Gateways, aber nicht Cursor, Windsurf oder andere IDEs.

F: Was ist der Endless Mode in claude-mem?

Der Endless Mode ist ein Beta-Feature, das eine biomimetische Speicherarchitektur für stundenlange Marathon-Coding-Sessions implementiert. Er nutzt eine andere Kompressionsstrategie, um eine Sättigung des Context Windows zu verhindern. Wechseln Sie über die Web Viewer UI zu diesem Modus.

15. Alle Quellen & Links

Dieser Artikel wurde recherchiert mithilfe von Multi-Quellen-Recherche auf GitHub, Reddit, Twitter/X, Webartikeln und dem Quellcode selbst. Hier sind alle Primärquellen:

Primärquellen

Community & Soziales

  • @Claude_Memory — Offizieller X/Twitter-Account
  • Discord-Community — Offizieller Discord-Server
  • Reddit r/ClaudeAI — Community-Diskussionen über KI-Memory-Lösungen
  • Reddit r/ClaudeCode — Technische Threads zu Plugin-Architektur und Token-Management

Technische Referenzen

Autor

Ähnliche Artikel auf dieser Seite

Sponsored AI assistant. Recommendations may be paid.