Pular para conteúdo

Por que a IA esqueceu a conversa? Memória no OpenClaw

Categoria Guia

Você estava conversando com seu assistente IA. Saiu para resolver algo. Voltou. E ele perguntou do zero quem você é.

Não é bug. É como toda IA generativa funciona por baixo — e no OpenClaw, você tem mais controle sobre isso do que em qualquer plataforma fechada.

Para entender o que aconteceu, você precisa conhecer 3 conceitos: contexto (curto prazo), sessão (médio prazo) e memória persistente (longo prazo). Cada um funciona diferente. Cada um tem um ponto de falha diferente.


IAs não lembram. Elas releem.

O ponto central: modelos de linguagem são sem memória própria — cada conversa começa do zero.

O que parece memória é o sistema — OpenClaw, ChatGPT, Claude.ai — reinjetando informação no prompt (as instruções que você manda para a IA) antes de cada resposta. A IA não “lembra”. Ela relê.

Pense num médico brilhante que atende por telefone. Cada ligação, ele não lembra de você. Mas se a secretária entrega o prontuário antes, ele continua de onde parou.

No OpenClaw, a “secretária” são 3 mecanismos que funcionam em camadas.

A diferença em relação ao ChatGPT e Claude.ai: nessas plataformas, a memória é uma caixa preta. No OpenClaw, são arquivos markdown no seu disco — você lê, edita, apaga. Transparência total.


As 3 camadas de memória

┌─────────────────────────────────────────────────┐
│              MEMÓRIA PERSISTENTE                 │
│         (MEMORY.md + memory/YYYY-MM-DD.md)      │
│         Dura: até você apagar                    │
│         ✅ Sobrevive entre conversas             │
│                                                  │
│   ┌─────────────────────────────────────────┐   │
│   │            SESSÃO                        │   │
│   │     Dura: até 48h sem atividade (v2026.3.22)  │   │
│   │     ⚠️ Expira se você sair e demorar     │   │
│   │                                          │   │
│   │   ┌─────────────────────────────────┐   │   │
│   │   │     JANELA DE CONTEXTO          │   │   │
│   │   │   (o que a IA "vê" agora)       │   │   │
│   │   │   Dura: até encher de tokens    │   │   │
│   │   │   🔄 Compacta quando enche      │   │   │
│   │   └─────────────────────────────────┘   │   │
│   └─────────────────────────────────────────┘   │
└─────────────────────────────────────────────────┘
CamadaO que éDuraçãoQuando “esquece”
ContextoTudo que a IA vê numa resposta (prompt + histórico + ferramentas)Limite de tokens (unidades de texto) do modeloCompactação: msgs antigas viram resumo
SessãoContêiner da conversa ativaPadrão 48h sem atividade (v2026.3.22), ou reset diário 4hSessão nova = contexto zerado
MemóriaArquivos .md no disco (MEMORY.md + diários)PermanenteSó se você apagar o arquivo

Camada 1: Janela de contexto (a mesa de trabalho)

A janela de contexto é como uma mesa de trabalho com tamanho fixo. Tudo que a IA precisa para responder está na mesa.

O que ocupa espaço nessa mesa:

  • System prompt (identidade do agente, ferramentas, Skills (habilidades configuradas), timezone)
  • Arquivos do workspace (MEMORY.md, SOUL.md, IDENTITY.md)
  • Histórico de mensagens da sessão
  • Resultados de ferramentas e anexos

Quando a mesa enche, acontece compactação automática. Mensagens antigas são resumidas — as mais recentes ficam intactas. Detalhes finos podem se perder no resumo.

Antes de compactar, o OpenClaw tenta salvar notas importantes no disco. Resultados antigos de ferramentas são removidos silenciosamente.

Comandos úteis: /status para ver a ocupação atual, /compact para forçar compactação manualmente antes de encher.


Camada 2: Sessão (o turno de atendimento)

Uma sessão (a conversa ativa entre você e o agente) é como um turno de atendimento. Enquanto está ativo, o atendente (IA) mantém o contexto. Quando o turno acaba, o próximo começa do zero.

A sessão expira em três situações:

  • Inatividade: padrão de 48h sem mensagem (desde v2026.3.22)
  • Reset diário: 4h da manhã (horário do gateway)
  • Manual: comandos /new ou /reset

Com 48h de timeout padrão, sessão expirada deixou de ser a causa mais comum de “esquecimento”. O que acontece com mais frequência agora é compactação de contexto — a janela enche, mensagens antigas viram resumo, detalhes finos se perdem. Se você saiu e voltou e o assistente não lembra de algo, provavelmente foi isso.

A diferença das plataformas fechadas é clara. No ChatGPT, o histórico de chat dá uma ilusão de continuidade. No OpenClaw, a separação entre sessões é explícita — você sabe quando começa uma nova.

Para ajustar: session.idleMinutes no openclaw.json. Com o padrão em 48h, a maioria dos usuários não precisa mexer. Quem quiser reduzir por segurança (ex: máquina compartilhada) pode configurar para algo menor.


Camada 3: Memória persistente (o prontuário)

A memória persistente é o prontuário do médico. Fatos que sobrevivem entre conversas.

O OpenClaw tem dois tipos:

  • MEMORY.md: fatos de longo prazo, carregado automaticamente em toda sessão
  • memory/YYYY-MM-DD.md: notas diárias, acessadas sob demanda via busca

Memória não é histórico de conversa. Memória é o que foi explicitamente salvo.

Antes de compactar o contexto, o OpenClaw tenta salvar notas duráveis automaticamente. A busca combina palavras-chave exatas com busca por significado, o que funciona bem mesmo quando você não lembra do termo exato.

Desde a v2026.3.22, a busca por memória usa indexação vetorial com busca híbrida (BM25 + semântica), re-ranking por diversidade (MMR) e decaimento temporal — memórias antigas perdem relevância automaticamente, a não ser que sejam reforçadas.

A vantagem central: no OpenClaw, a memória é um arquivo markdown no seu disco. Você abre, lê, edita com qualquer editor. No ChatGPT, a memória é opaca — você não sabe o que está lá nem como foi salvo.


O que fazer quando acontecer com você

Checklist prático para as próximas vezes:

  1. Peça para salvar na memória: “Anota na memória: meu nome é X, estou trabalhando em Y”
  2. Mantenha o MEMORY.md enxuto: fatos-chave, não transcrições inteiras
  3. Antes de sair por tempo: mande /compact para preservar um resumo bom antes da compactação automática
  4. Se voltou e perdeu contexto: dê um resumo rápido (“estávamos discutindo X, decidimos Y”)
  5. O timeout padrão agora é 48h (v2026.3.22). Se precisar ajustar: session.idleMinutes no openclaw.json
  6. Use /status para monitorar a ocupação da janela de contexto antes de conversas longas
  7. Para tarefas longas: use sub-agentes — eles dividem o trabalho sem estourar o contexto de uma única sessão

Comparação rápida: OpenClaw vs ChatGPT vs Claude.ai

AspectoChatGPTClaude.aiOpenClaw
Memória entre conversasAutomática (opaca)Opt-in (opaca)Arquivos .md no disco (transparente)
Você edita a memória?Parcial (UI limitada)Parcial (UI limitada)Total (editor de texto, git, etc.)
Sessão expira?Não (chat history persiste)Não (chat history persiste)Sim (48h padrão desde v2026.3.22, configurável)
Dados ficam onde?Servidores OpenAIServidores AnthropicSeu computador/VPS (um computador na nuvem que fica ligado 24 horas)
Custo da memóriaIncluído no planoIncluído no planoTokens do provedor que você escolheu

A troca é clara: no OpenClaw você tem controle total, mas precisa entender como funciona.


Conclusão

Não é bug. É arquitetura. E agora que você entende as 3 camadas, sabe exatamente onde agir quando o assistente “esquecer”.

Para aprofundar:

Esc