消息
本页把 OpenClaw 处理入站消息、会话、队列、流式输出和推理可见性的机制串在一起。
消息流(宏观)
入站消息
-> 路由/绑定 -> 会话 key
-> 队列(如果有运行中的任务)
-> agent 运行(流式输出 + 工具)
-> 出站回复(通道限制 + 分块)
关键配置项:
messages.*控制前缀、队列和群组行为。agents.defaults.*控制块级流式输出和分块默认值。- 通道覆盖(
channels.whatsapp.*、channels.telegram.*等)控制字数上限和流式开关。
完整配置详见 配置。
入站去重
通道可能在重连后重复投递同一条消息。OpenClaw 维护一个短期缓存,按 通道/账户/对等方/会话/消息ID 作为 key,避免重复投递触发新的 agent 运行。
入站防抖
来自同一发送者的快速连续消息可以合并为一轮 agent 对话,通过 messages.inbound 配置。防抖按通道 + 会话分组,使用最新一条消息的回复线程/ID。
配置(全局默认 + 通道覆盖):
{
messages: {
inbound: {
debounceMs: 2000,
byChannel: {
whatsapp: 5000,
slack: 1500,
discord: 1500,
},
},
},
}
注意:
- 防抖只应用于纯文本消息;带媒体/附件的消息立即处理。
- 控制命令绕过防抖,保持独立执行。
会话与设备
会话归 Gateway 所有,不归客户端。
- 私聊合并到 agent 的 main 会话 key。
- 群组/频道各自拥有独立的会话 key。
- 会话存储和记录存放在 Gateway 主机上。
多个设备/通道可以映射到同一会话,但历史不会完整同步回每个客户端。建议:长对话使用一个主设备,避免上下文分叉。Control UI 和 TUI 始终显示 Gateway 端的会话记录,它们是权威来源。
详情:会话管理。
入站内容与历史上下文
OpenClaw 把提示词内容和命令内容分开处理:
Body:发送给 agent 的提示词文本。可能包含通道信封和可选的历史包装。CommandBody:原始用户文本,用于指令/命令解析。RawBody:CommandBody的旧版别名(保留兼容性)。
当通道提供历史记录时,使用共享的包装格式:
[Chat messages since your last reply - for context][Current message - respond to this]
在非私聊(群组/频道/房间)中,当前消息正文会加上发送者标签(与历史条目使用相同的样式)。这样实时消息和排队/历史消息在 agent 提示词中保持一致。
历史缓冲区是仅待处理的:只包含没有触发运行的群组消息(比如未满足 @提及 条件的消息),排除已在会话记录中的消息。
指令剥离只应用于当前消息部分,历史记录保持原样。使用历史包装的通道应该把 CommandBody(或 RawBody)设为原始消息文本,把 Body 设为包含历史的完整提示词。历史缓冲区可通过 messages.groupChat.historyLimit(全局默认)和通道级覆盖配置,如 channels.slack.historyLimit 或 channels.telegram.accounts.<id>.historyLimit(设 0 禁用)。
队列与后续消息
如果有运行中的任务,入站消息可以排队、转向到当前运行中,或收集起来等下一轮。
- 通过
messages.queue(和messages.queue.byChannel)配置。 - 模式:
interrupt、steer、followup、collect,以及 backlog 变体。
详情:队列。
流式输出、分块与批处理
块级流式输出在模型生成文本块时发送部分回复。分块遵循通道文本限制,避免拆分代码围栏。
关键设置:
agents.defaults.blockStreamingDefault(on|off,默认 off)agents.defaults.blockStreamingBreak(text_end|message_end)agents.defaults.blockStreamingChunk(minChars|maxChars|breakPreference)agents.defaults.blockStreamingCoalesce(基于空闲的批处理)agents.defaults.humanDelay(块级回复之间的仿人类停顿)- 通道覆盖:
*.blockStreaming和*.blockStreamingCoalesce(非 Telegram 通道需要显式设置*.blockStreaming: true)
详情:流式输出与分块。
推理可见性与 token
OpenClaw 可以显示或隐藏模型的推理过程:
/reasoning on|off|stream控制可见性。- 推理内容即使不显示,只要模型生成了就会计入 token 用量。
- Telegram 支持把推理过程流式输出到草稿气泡。
前缀、线程与回复
出站消息格式化集中在 messages 配置中:
messages.responsePrefix、channels.<channel>.responsePrefix和channels.<channel>.accounts.<id>.responsePrefix(出站前缀级联),以及channels.whatsapp.messagePrefix(WhatsApp 入站前缀)- 通过
replyToMode和通道默认值控制回复线程
详情:配置 和通道文档。