Você estava conversando com seu assistente IA. Saiu para resolver algo. Voltou. E ele perguntou do zero quem você é.
Não é bug. É como toda IA generativa funciona por baixo — e no OpenClaw, você tem mais controle sobre isso do que em qualquer plataforma fechada.
Para entender o que aconteceu, você precisa conhecer 3 conceitos: contexto (curto prazo), sessão (médio prazo) e memória persistente (longo prazo). Cada um funciona diferente. Cada um tem um ponto de falha diferente.
IAs não lembram. Elas releem.
O ponto central: modelos de linguagem são sem memória própria — cada conversa começa do zero.
O que parece memória é o sistema — OpenClaw, ChatGPT, Claude.ai — reinjetando informação no prompt (as instruções que você manda para a IA) antes de cada resposta. A IA não “lembra”. Ela relê.
Pense num médico brilhante que atende por telefone. Cada ligação, ele não lembra de você. Mas se a secretária entrega o prontuário antes, ele continua de onde parou.
No OpenClaw, a “secretária” são 3 mecanismos que funcionam em camadas.
A diferença em relação ao ChatGPT e Claude.ai: nessas plataformas, a memória é uma caixa preta. No OpenClaw, são arquivos markdown no seu disco — você lê, edita, apaga. Transparência total.
As 3 camadas de memória
┌─────────────────────────────────────────────────┐
│ MEMÓRIA PERSISTENTE │
│ (MEMORY.md + memory/YYYY-MM-DD.md) │
│ Dura: até você apagar │
│ ✅ Sobrevive entre conversas │
│ │
│ ┌─────────────────────────────────────────┐ │
│ │ SESSÃO │ │
│ │ Dura: até 48h sem atividade (v2026.3.22) │ │
│ │ ⚠️ Expira se você sair e demorar │ │
│ │ │ │
│ │ ┌─────────────────────────────────┐ │ │
│ │ │ JANELA DE CONTEXTO │ │ │
│ │ │ (o que a IA "vê" agora) │ │ │
│ │ │ Dura: até encher de tokens │ │ │
│ │ │ 🔄 Compacta quando enche │ │ │
│ │ └─────────────────────────────────┘ │ │
│ └─────────────────────────────────────────┘ │
└─────────────────────────────────────────────────┘
| Camada | O que é | Duração | Quando “esquece” |
|---|---|---|---|
| Contexto | Tudo que a IA vê numa resposta (prompt + histórico + ferramentas) | Limite de tokens (unidades de texto) do modelo | Compactação: msgs antigas viram resumo |
| Sessão | Contêiner da conversa ativa | Padrão 48h sem atividade (v2026.3.22), ou reset diário 4h | Sessão nova = contexto zerado |
| Memória | Arquivos .md no disco (MEMORY.md + diários) | Permanente | Só se você apagar o arquivo |
Camada 1: Janela de contexto (a mesa de trabalho)
A janela de contexto é como uma mesa de trabalho com tamanho fixo. Tudo que a IA precisa para responder está na mesa.
O que ocupa espaço nessa mesa:
- System prompt (identidade do agente, ferramentas, Skills (habilidades configuradas), timezone)
- Arquivos do workspace (MEMORY.md, SOUL.md, IDENTITY.md)
- Histórico de mensagens da sessão
- Resultados de ferramentas e anexos
Quando a mesa enche, acontece compactação automática. Mensagens antigas são resumidas — as mais recentes ficam intactas. Detalhes finos podem se perder no resumo.
Antes de compactar, o OpenClaw tenta salvar notas importantes no disco. Resultados antigos de ferramentas são removidos silenciosamente.
Comandos úteis: /status para ver a ocupação atual, /compact para forçar compactação manualmente antes de encher.
Camada 2: Sessão (o turno de atendimento)
Uma sessão (a conversa ativa entre você e o agente) é como um turno de atendimento. Enquanto está ativo, o atendente (IA) mantém o contexto. Quando o turno acaba, o próximo começa do zero.
A sessão expira em três situações:
- Inatividade: padrão de 48h sem mensagem (desde v2026.3.22)
- Reset diário: 4h da manhã (horário do gateway)
- Manual: comandos
/newou/reset
Com 48h de timeout padrão, sessão expirada deixou de ser a causa mais comum de “esquecimento”. O que acontece com mais frequência agora é compactação de contexto — a janela enche, mensagens antigas viram resumo, detalhes finos se perdem. Se você saiu e voltou e o assistente não lembra de algo, provavelmente foi isso.
A diferença das plataformas fechadas é clara. No ChatGPT, o histórico de chat dá uma ilusão de continuidade. No OpenClaw, a separação entre sessões é explícita — você sabe quando começa uma nova.
Para ajustar: session.idleMinutes no openclaw.json. Com o padrão em 48h, a maioria dos usuários não precisa mexer. Quem quiser reduzir por segurança (ex: máquina compartilhada) pode configurar para algo menor.
Camada 3: Memória persistente (o prontuário)
A memória persistente é o prontuário do médico. Fatos que sobrevivem entre conversas.
O OpenClaw tem dois tipos:
MEMORY.md: fatos de longo prazo, carregado automaticamente em toda sessãomemory/YYYY-MM-DD.md: notas diárias, acessadas sob demanda via busca
Memória não é histórico de conversa. Memória é o que foi explicitamente salvo.
Antes de compactar o contexto, o OpenClaw tenta salvar notas duráveis automaticamente. A busca combina palavras-chave exatas com busca por significado, o que funciona bem mesmo quando você não lembra do termo exato.
Desde a v2026.3.22, a busca por memória usa indexação vetorial com busca híbrida (BM25 + semântica), re-ranking por diversidade (MMR) e decaimento temporal — memórias antigas perdem relevância automaticamente, a não ser que sejam reforçadas.
A vantagem central: no OpenClaw, a memória é um arquivo markdown no seu disco. Você abre, lê, edita com qualquer editor. No ChatGPT, a memória é opaca — você não sabe o que está lá nem como foi salvo.
O que fazer quando acontecer com você
Checklist prático para as próximas vezes:
- Peça para salvar na memória: “Anota na memória: meu nome é X, estou trabalhando em Y”
- Mantenha o MEMORY.md enxuto: fatos-chave, não transcrições inteiras
- Antes de sair por tempo: mande
/compactpara preservar um resumo bom antes da compactação automática - Se voltou e perdeu contexto: dê um resumo rápido (“estávamos discutindo X, decidimos Y”)
- O timeout padrão agora é 48h (v2026.3.22). Se precisar ajustar:
session.idleMinutesnoopenclaw.json - Use
/statuspara monitorar a ocupação da janela de contexto antes de conversas longas - Para tarefas longas: use sub-agentes — eles dividem o trabalho sem estourar o contexto de uma única sessão
Comparação rápida: OpenClaw vs ChatGPT vs Claude.ai
| Aspecto | ChatGPT | Claude.ai | OpenClaw |
|---|---|---|---|
| Memória entre conversas | Automática (opaca) | Opt-in (opaca) | Arquivos .md no disco (transparente) |
| Você edita a memória? | Parcial (UI limitada) | Parcial (UI limitada) | Total (editor de texto, git, etc.) |
| Sessão expira? | Não (chat history persiste) | Não (chat history persiste) | Sim (48h padrão desde v2026.3.22, configurável) |
| Dados ficam onde? | Servidores OpenAI | Servidores Anthropic | Seu computador/VPS (um computador na nuvem que fica ligado 24 horas) |
| Custo da memória | Incluído no plano | Incluído no plano | Tokens do provedor que você escolheu |
A troca é clara: no OpenClaw você tem controle total, mas precisa entender como funciona.
Conclusão
Não é bug. É arquitetura. E agora que você entende as 3 camadas, sabe exatamente onde agir quando o assistente “esquecer”.
Para aprofundar: