developer-tools infrastructure

MoltWorker:在 Cloudflare Workers 上部署 OpenClaw 智能体

OpenClaws.io Team

OpenClaws.io Team

@openclaws

2026年2月7日

3 分钟

MoltWorker:在 Cloudflare Workers 上部署 OpenClaw 智能体

边缘上的智能体

智能体 AI 的愿景一直受到一个现实问题的制约:智能体需要运行在某个地方,而这个地方传统上是昂贵的集中式云基础设施。为每次智能体交互启动专用服务器或容器,对于轻量级任务来说是浪费,对于远离最近数据中心的用户来说是缓慢的,在规模化时更是成本高昂。MoltWorker 是一个基于 OpenClaw 构建的开源部署框架,它通过将智能体带到 Cloudflare 的全球边缘网络来改变这一格局。

MoltWorker 由一组 OpenClaw 贡献者于 2026 年 1 月底推出,允许开发者将 OpenClaw 智能体打包为 Cloudflare Workers 并部署到全球 300 多个数据中心。结果是智能体可以在毫秒级响应用户请求(无论用户身在何处),从零自动扩展到数百万请求,而成本仅为传统云部署的一小部分。

为什么边缘对智能体很重要

要理解 MoltWorker 的重要性,需要考虑智能体请求的典型生命周期。用户发送消息,智能体接收后查询记忆和上下文,向 LLM 提供商发起一次或多次调用,处理响应,可能调用外部 API 或工具,然后返回结果。在传统部署中,所有这些都发生在单一区域的服务器上。如果用户在东京而服务器在弗吉尼亚,每个步骤都会产生跨太平洋的延迟。

MoltWorker 将编排层——管理上下文、路由请求、调用工具和组装响应的部分——移到了边缘。智能体的逻辑在距离用户仅几毫秒的 Cloudflare Worker 中运行。LLM 调用仍然发送到提供商的 API,但其他一切——上下文查找、工具调用、响应格式化——都在本地完成。对于进行多次工具调用或维护复杂状态的智能体,这可以将端到端延迟降低 40-60%。

边缘部署模型也改变了运行智能体的经济模型。Cloudflare Workers 采用按请求付费的定价模式,没有空闲成本。每天处理十个请求的智能体几乎不花钱。突然走红并处理一千万请求的智能体会自动扩展,无需任何基础设施变更。对于初创公司和独立开发者来说,这消除了部署生产智能体的最大障碍之一。

MoltWorker 的工作原理

MoltWorker 提供了一个 CLI 工具和一组适配器,将 OpenClaw 的运行时与 Cloudflare Workers 环境桥接。开发者使用标准的 OpenClaw 模块和配置编写智能体,然后运行一条命令即可构建和部署。构建过程将智能体的逻辑编译为 Worker 兼容的包,设置 Cloudflare 存储和网络原语所需的绑定,并将结果部署到 Cloudflare 的全球网络。

在底层,MoltWorker 将 OpenClaw 的抽象映射到 Cloudflare 的平台服务。智能体记忆由 Workers KV 支持快速键值查找,由 Durable Objects 支持有状态的强一致性交互。外部 API 的工具调用通过 Cloudflare 的网络路由以获得最佳性能。定时智能体任务使用 Cron Triggers。对于需要处理大型文档或数据集的智能体,MoltWorker 集成了 R2 对象存储。

框架还包含一个模拟 Cloudflare Workers 环境的本地开发服务器,开发者可以在部署前在本地测试智能体。开发服务器支持热重载、请求日志和一个实时显示智能体决策过程的可视化检查器。

实际应用案例

MoltWorker 已被 OpenClaw 生态系统中的多个项目采用。一个客户支持平台用它为每个客户部署专门的智能体,每个智能体作为独立的 Worker 运行,可以独立更新而不影响其他智能体。一家开发者工具公司用 MoltWorker 驱动一个 AI 代码审查智能体,在每个 Pull Request 上运行,分析差异并在两秒内提出改进建议,无论开发者身在何处。

一个特别有创意的用例来自一家游戏工作室,他们用 MoltWorker 在多人在线游戏中运行 NPC 智能体。每个 NPC 都是一个部署为 Durable Object 的 OpenClaw 智能体,在玩家互动中保持持久的状态和个性。由于智能体在边缘运行,玩家与 NPC 对话时几乎感受不到延迟,使互动感觉自然流畅。该工作室报告说,自从从之前的服务器端智能体架构切换以来,玩家与 NPC 内容的互动增加了 300%。

性能与成本分析

MoltWorker 团队发布了详细的基准测试,比较了边缘部署与传统云部署在各种智能体工作负载下的表现。对于进行单次 LLM 调用的简单问答智能体,边缘部署将中位延迟降低了 35%,p99 延迟降低了 50%。对于进行多次工具调用并维护对话历史的复杂研究智能体,改进更为显著:中位延迟降低 55%,p99 延迟降低 70%。

在成本方面,数据同样引人注目。每月处理 10 万请求的中等活跃智能体在 Cloudflare Workers 上的成本约为 5 美元,而等效的常驻容器部署需要 50-150 美元。对于流量突发模式的智能体,节省更多,因为空闲期间没有成本。MoltWorker 团队估计,普通开发者通过迁移到边缘部署可以节省 80-90% 的基础设施成本。

这些节省伴随着一些权衡。Cloudflare Workers 有执行时间限制和内存约束,对于推理链非常复杂或上下文窗口很大的智能体可能具有挑战性。MoltWorker 通过「溢出」机制解决这个问题,当边缘环境的限制被触及时,透明地将重计算卸载到传统云后端,但这增加了复杂性,对于最苛刻的工作负载可能会抵消部分延迟优势。

快速入门

MoltWorker 文档包含一个快速入门指南,可以让开发者在十分钟内从零到部署一个智能体。流程很简单:安装 MoltWorker CLI,初始化新项目,编写或导入 OpenClaw 智能体配置,然后运行部署命令。CLI 处理所有 Cloudflare 配置,包括设置 KV 命名空间、Durable Object 绑定和自定义域名。

对于已经在传统基础设施上运行 OpenClaw 智能体的开发者,MoltWorker 提供了一份迁移指南,涵盖最常见的适配模式。大多数智能体只需最小的改动即可迁移,主要是将基于文件系统的存储替换为 KV 或 Durable Objects,并确保工具调用与 Workers 运行时兼容。

更大的图景

MoltWorker 代表了 OpenClaw 生态系统中一个更广泛的趋势:在开发者所在的地方与他们相遇。不是每个智能体都需要专用服务器,不是每个用例都值得容器编排的成本和复杂性。通过将 OpenClaw 带到边缘,MoltWorker 为一类新的应用打开了大门:轻量级、延迟敏感、全球分布的工作负载,这些在传统基础设施下是不切实际的。

OpenClaws.io 团队将 MoltWorker 视为生态系统成熟的标志。当一个社区开始构建针对真实生产约束而非仅仅演示日印象进行优化的部署工具时,意味着这项技术已经准备好被认真使用了。MoltWorker 不仅仅是一个巧妙的集成,它是下一代智能体 AI 应用的基础设施,而且今天就可以使用。

订阅更新

第一时间获取新功能和玩法。放心,不会发垃圾邮件。