Vous avez installé OpenClaw, configuré la sécurité, connecté votre appli de chat… et votre homard IA oublie tout le lendemain. Ce guide vous explique exactement comment activer la mémoire longue durée d’OpenClaw — sans coder, sans jargon, en 20 minutes chrono.
À retenir
- La mémoire longue durée d’OpenClaw repose sur quatre fichiers Markdown : MEMORY.md, AGENTS.md, SOUL.md et WIP.md
- Le vrai levier, c’est AGENTS.md — pas les messages de chat. Il survit aux resets de session
- LanceDB active la recherche vectorielle locale et ne charge que les souvenirs vraiment pertinents dans chaque prompt
- Les modèles les plus compatibles avec la mémoire OpenClaw sont ceux qui suivent les instructions longues : Claude 3.5 Sonnet, Gemini 1.5 Pro et GPT-4o
- Les erreurs classiques : stocker les règles dans le chat au lieu d’AGENTS.md, laisser MEMORY.md grossir sans distillation, ne pas activer le RAG
Pourquoi votre homard oublie (l’explication honnête)
Les chatbots classiques fonctionnent avec une fenêtre de contexte — une mémoire à court terme. Fermez l’onglet, et c’est reparti de zéro. OpenClaw est fondamentalement différent : il repose sur un système mémoire local-first, avec des fichiers Markdown structurés couplés à une base vectorielle SQLite légère. L’IA ne “se souvient” que de ce qui est écrit dans ces fichiers, mais quand c’est bien configuré, elle retrouve n’importe quelle information passée en quelques secondes.
La nuance que personne ne mentionne au départ : sans RAG correctement configuré, votre MEMORY.md finit par peser plusieurs milliers de mots. Chaque token chargé inutilement vous coûte de l’argent si vous utilisez un modèle en API. Ce n’est pas qu’un détail de performance — c’est une question de coût réel sur la durée.
💡 Un utilisateur expérimenté de la communauté résume parfaitement : “Je le fais tourner comme une vraie couche RAG locale qui découpe et vectorise tout, puis ne charge que les 5 à 8 souvenirs les plus pertinents dans le prompt.”
Et si on vous disait que la solution tient dans quatre fichiers texte ?

Étape 1 : les quatre fichiers de mémoire OpenClaw
Le guide Reddit original parle de deux fichiers. La réalité des utilisateurs avancés, c’est quatre fichiers avec des rôles bien distincts. Ouvrez ~/.openclaw/workspace dans votre éditeur de texte et créez-les.
MEMORY.md — les faits durables. Préférences, projets, décisions importantes. Règle d’or : gardez ce fichier sous 20 000 caractères. Au-delà, ça devient du bruit et la qualité des réponses chute.
## À mon sujet
- Prénom : [Votre prénom]
- Ville : [Votre ville]
- Fuseau : Europe/Paris
- Préférences : réponses courtes, cuisine végétarienne, pas de réunions le lundi
## Décisions importantes
- [Décisions prises avec l'IA]
## Projets en cours
- [Liste de vos projets actifs]
AGENTS.md — le vrai chef d’orchestre. C’est ici que vous inscrivez les règles de comportement, pas dans le chat. Ce fichier est lu automatiquement à chaque démarrage de session, sans exception.
SOUL.md — la personnalité. MEMORY.md stocke les faits, SOUL.md définit qui est votre agent : son ton, son style, sa façon de vous parler. La différence se ressent dès le premier échange — l’agent gagne en cohérence et en naturel.
WIP.md — le carnet de chantier. Quand une session longue approche des 70% de la limite de contexte, demandez à votre agent d’écrire ce qu’il est en train de faire dans WIP.md. Après le reset, il relit ce fichier et reprend exactement là où il s’était arrêté.
Ces quatre fichiers configurés, votre homard a enfin une vraie colonne vertébrale. Place au cœur du système.
Étape 2 : AGENTS.md, le vrai levier mémoire
C’est l’erreur classique des débutants — et celle que tout le monde fait pendant les deux premières semaines. Envoyer “souviens-toi de ça pour toujours” dans le chat marche… jusqu’à la prochaine compaction de session, où l’instruction disparaît sans laisser de trace.
La bonne méthode : inscrire vos règles directement dans AGENTS.md. Exemple minimal fonctionnel :
## Règles mémoire
- Avant toute référence à une décision ou préférence passée, lancer memory_search
sur MEMORY.md et memory/*.md
- Chaque soir à 20h, résumer la journée et extraire les faits importants vers MEMORY.md
- Écrire dans le fichier du jour dès qu'on prend une décision notable
- Quand l'utilisateur dit "retiens ça" → écrire immédiatement dans MEMORY.md
Sauvegardez, redémarrez avec openclaw restart. Ces règles s’appliquent désormais à chaque session, sans exception.
Anecdote : un utilisateur a demandé à son agent de noter sa frustration face à un bug de débogage en boucle. L’agent a immédiatement créé une règle pour lui-même dans AGENTS.md : “prendre des notes structurées pendant le débogage pour éviter de tourner en rond.” Depuis, il applique cette règle automatiquement, sans qu’on le lui redemande.
Un seul fichier bien rédigé, et votre homard change de dimension. Maintenant, activons le moteur de recherche interne.
Étape 3 : activer la recherche vectorielle (le vrai bouton magique)
OpenClaw intègre nativement des embeddings pour la recherche sémantique dans vos fichiers mémoire. Ce qui manque souvent, c’est simplement l’instruction dans AGENTS.md pour que l’agent pense à les utiliser proactivement. Installez ensuite LanceDB comme couche RAG locale :
openclaw skill install memory-lancedb # léger, rapide, recommandé en premieropenclaw skill install summarize # aide à l'auto-résumé vers MEMORY.md
LanceDB découpe vos fichiers en morceaux, les vectorise localement, et ne charge que les passages vraiment pertinents dans chaque prompt. Résultat : zéro token gaspillé, rappel plus précis, coût API divisé par 3 sur les longues sessions.
Votre mémoire de base est opérationnelle. Pour ceux qui veulent aller encore plus loin — voici l’option premium à zéro euro.
Étape 4 (optionnelle) : Qdrant ou Mem0 pour les usages intensifs
Après quelques semaines d’utilisation, si vos fichiers mémoire grossissent vite, Qdrant est l’option recommandée. C’est une base de données vectorielle open-source qui tourne entièrement en local, sans frais :
openclaw skill install mem0
Le plugin Mem0, disponible dans le marketplace de skills OpenClaw, gère l’interface avec Qdrant automatiquement. C’est l’option taillée pour les usages professionnels ou les collections de mémoires volumineuses — des centaines de notes, des années de contexte.
Anecdote : la première fois que j’ai zippé mon dossier
~/.openclaw/workspacepour le sauvegarder, j’ai réalisé que j’avais accumulé plusieurs mois de contexte personnel — des préférences, des décisions, des projets entiers. Perdre ça sans backup aurait été catastrophique. Zip hebdomadaire, sans exception.
Quels modèles IA fonctionnent le mieux avec la mémoire OpenClaw ?
Tous les modèles compatibles avec OpenClaw ne se valent pas sur la gestion mémoire. Le système repose sur la capacité du modèle à suivre des instructions longues et structurées sur plusieurs tours de conversation.
| Modèle | Points forts pour la mémoire OpenClaw | Limite |
|---|---|---|
| Claude 3.5 Sonnet / 3.7 | Excellent suivi d’instructions, cohérence sur longues sessions, idéal pour AGENTS.md complexes | Coût API plus élevé |
| Gemini 1.5 Pro / 2.0 | Très grande fenêtre de contexte (1M tokens), embeddings natifs intégrés avec OpenClaw | Latence parfois plus élevée |
| GPT-4o | Bon équilibre vitesse/précision, fiable sur les rappels structurés | Moins performant sur les instructions imbriquées |
| Llama 3 / Mistral (local) | 100% local, aucun coût API, confidentialité maximale | Moins fiable sur les instructions longues complexes |
Pour un usage quotidien avec mémoire active, Claude 3.5 Sonnet ou Gemini 1.5 Pro restent les choix les plus recommandés par la communauté. Si la confidentialité prime sur tout, un modèle Llama local avec LanceDB offre un excellent compromis.
Erreurs classiques à éviter absolument
C’est la section que les guides Reddit n’écrivent jamais — parce qu’elle implique d’admettre ses propres erreurs.
Stocker les règles dans le chat, pas dans AGENTS.md. C’est l’erreur numéro un. Les instructions envoyées par message disparaissent à la prochaine compaction de contexte. Seul AGENTS.md persiste vraiment.
Laisser MEMORY.md grossir sans distillation. Un fichier de 50 000 caractères chargé en entier à chaque session, c’est du bruit pur. Automatisez la distillation hebdomadaire : fichiers journaliers → résumé vers MEMORY.md.
Ne pas activer le RAG. Sans LanceDB ou équivalent, OpenClaw charge tout le fichier mémoire dans le prompt. C’est lent, coûteux, et moins précis qu’une vraie recherche vectorielle.
Oublier WIP.md sur les longues tâches. Si votre session approche la limite de contexte sans point de sauvegarde, vous perdez le fil de travail en cours. WIP.md règle ce problème en 30 secondes.
Ne jamais tester la mémoire. Configurez, puis vérifiez avec des questions directes. Si l’agent répond “je ne me souviens pas”, c’est que memory_search n’est pas déclenché automatiquement — ajoutez l’instruction dans AGENTS.md.
Test rapide : votre mémoire est-elle bien configurée ?
Envoyez ces trois messages après configuration :
- “Quelles sont mes 3 préférences principales pour le dîner ?”
- “Rappelle-moi la décision qu’on a prise la semaine dernière sur mon projet pro”
- “Recherche dans ma mémoire tout ce qui concerne les anniversaires de ma famille”
Si les réponses sont précises et sourcées depuis vos fichiers, votre second cerveau est opérationnel. Si l’agent répond en improvisant, retournez dans AGENTS.md et ajoutez l’instruction de lancer memory_search proactivement avant chaque réponse.
FAQ — OpenClaw mémoire longue durée
La mémoire OpenClaw fonctionne-t-elle hors ligne ?
Oui, si vous utilisez un modèle local (Llama, Mistral via Ollama). Les fichiers Markdown et LanceDB tournent entièrement sur votre machine, sans aucune connexion requise.
Combien de mémoire peut stocker OpenClaw ?
Techniquement illimitée côté fichiers. En pratique, gardez MEMORY.md sous 20 000 caractères et laissez LanceDB gérer le reste en vectorisant vos archives.
La mémoire est-elle partagée entre plusieurs agents OpenClaw ?
Par défaut, non. Chaque agent a son propre workspace. Vous pouvez partager MEMORY.md entre agents en le référençant dans chaque AGENTS.md respectif.
Que se passe-t-il si je change de modèle IA ?
Vos fichiers mémoire restent intacts — ils sont indépendants du modèle. Seules les instructions d’AGENTS.md peuvent nécessiter un ajustement si le nouveau modèle interprète différemment certaines commandes.
OpenClaw mémoire est-il sécurisé ?
Tout reste en local sur votre machine, sauf si vous utilisez une API externe. Aucune donnée personnelle n’est envoyée à OpenClaw elle-même. Pensez tout de même à chiffrer votre dossier ~/.openclaw/workspace si votre machine est partagée.
Dois-je relancer OpenClaw après chaque modification de MEMORY.md ?
Non. Les fichiers Markdown sont relus à chaque nouvelle session. Seule une modification d’AGENTS.md ou de la configuration du gateway nécessite un openclaw restart.
Maintenance mensuelle (30 secondes, vraiment)
openclaw update
openclaw security audit --deep --fix
Une fois ces quatre fichiers en place et la recherche vectorielle activée, OpenClaw cesse d’être un assistant qui répond pour devenir un assistant qui vous connaît. La différence se ressent dès le premier échange du lendemain matin.
Partagez en commentaires le premier souvenir que vous avez appris à votre homard — et s’il vous l’a restitué parfaitement le lendemain. 🦞
💾 Pensez à zipper votre dossier ~/.openclaw/workspace une fois par semaine. Ça prend 10 secondes et ça sauve des mois de contexte.




