邊緣上的智能體
智能體 AI 的願景一直受到一個現實問題的制約:智能體需要運行在某個地方,而這個地方傳統上是昂貴的集中式雲端基礎設施。為每次智能體互動啟動專用伺服器或容器,對於輕量級任務來說是浪費,對於遠離最近資料中心的使用者來說是緩慢的,在規模化時更是成本高昂。MoltWorker 是一個基於 OpenClaw 打造的開源部署框架,它透過將智能體帶到 Cloudflare 的全球邊緣網路來改變這一格局。
MoltWorker 由一組 OpenClaw 貢獻者於 2026 年 1 月底推出,允許開發者將 OpenClaw 智能體打包為 Cloudflare Workers 並部署到全球 300 多個資料中心。結果是智能體可以在毫秒級回應使用者請求(無論使用者身在何處),從零自動擴展到數百萬請求,而成本僅為傳統雲端部署的一小部分。
為什麼邊緣對智能體很重要
要理解 MoltWorker 的重要性,需要考慮智能體請求的典型生命週期。使用者傳送訊息,智能體接收後查詢記憶和脈絡,向 LLM 供應商發起一次或多次呼叫,處理回應,可能呼叫外部 API 或工具,然後回傳結果。在傳統部署中,所有這些都發生在單一區域的伺服器上。如果使用者在東京而伺服器在維吉尼亞,每個步驟都會產生跨太平洋的延遲。
MoltWorker 將編排層——管理脈絡、路由請求、呼叫工具和組裝回應的部分——移到了邊緣。智能體的邏輯在距離使用者僅幾毫秒的 Cloudflare Worker 中運行。LLM 呼叫仍然傳送到供應商的 API,但其他一切——脈絡查找、工具呼叫、回應格式化——都在本地完成。對於進行多次工具呼叫或維護複雜狀態的智能體,這可以將端到端延遲降低 40-60%。
邊緣部署模型也改變了運行智能體的經濟模型。Cloudflare Workers 採用按請求付費的定價模式,沒有閒置成本。每天處理十個請求的智能體幾乎不花錢。突然爆紅並處理一千萬請求的智能體會自動擴展,無需任何基礎設施變更。對於新創公司和獨立開發者來說,這消除了部署生產智能體的最大障礙之一。
MoltWorker 的運作原理
MoltWorker 提供了一個 CLI 工具和一組轉接器,將 OpenClaw 的執行環境與 Cloudflare Workers 環境橋接。開發者使用標準的 OpenClaw 模組和設定撰寫智能體,然後執行一條指令即可建構和部署。建構過程將智能體的邏輯編譯為 Worker 相容的套件,設定 Cloudflare 儲存和網路原語所需的繫結,並將結果部署到 Cloudflare 的全球網路。
在底層,MoltWorker 將 OpenClaw 的抽象對應到 Cloudflare 的平台服務。智能體記憶由 Workers KV 支援快速鍵值查找,由 Durable Objects 支援有狀態的強一致性互動。外部 API 的工具呼叫透過 Cloudflare 的網路路由以獲得最佳效能。排程智能體任務使用 Cron Triggers。對於需要處理大型文件或資料集的智能體,MoltWorker 整合了 R2 物件儲存。
框架還包含一個模擬 Cloudflare Workers 環境的本機開發伺服器,開發者可以在部署前在本機測試智能體。開發伺服器支援熱重載、請求日誌和一個即時顯示智能體決策過程的視覺化檢查器。
實際應用案例
MoltWorker 已被 OpenClaw 生態系中的多個專案採用。一個客服平台用它為每個客戶部署專門的智能體,每個智能體作為獨立的 Worker 運行,可以獨立更新而不影響其他智能體。一家開發者工具公司用 MoltWorker 驅動一個 AI 程式碼審查智能體,在每個 Pull Request 上運行,分析差異並在兩秒內提出改進建議,無論開發者身在何處。
一個特別有創意的用例來自一家遊戲工作室,他們用 MoltWorker 在多人線上遊戲中運行 NPC 智能體。每個 NPC 都是一個部署為 Durable Object 的 OpenClaw 智能體,在玩家互動中維持持久的狀態和個性。由於智能體在邊緣運行,玩家與 NPC 對話時幾乎感受不到延遲,使互動感覺自然流暢。該工作室表示,自從從之前的伺服器端智能體架構切換以來,玩家與 NPC 內容的互動增加了 300%。
效能與成本分析
MoltWorker 團隊發布了詳細的基準測試,比較了邊緣部署與傳統雲端部署在各種智能體工作負載下的表現。對於進行單次 LLM 呼叫的簡單問答智能體,邊緣部署將中位延遲降低了 35%,p99 延遲降低了 50%。對於進行多次工具呼叫並維護對話歷史的複雜研究智能體,改進更為顯著:中位延遲降低 55%,p99 延遲降低 70%。
在成本方面,數據同樣引人注目。每月處理 10 萬請求的中等活躍智能體在 Cloudflare Workers 上的成本約為 5 美元,而等效的常駐容器部署需要 50-150 美元。對於流量突發模式的智能體,節省更多,因為閒置期間沒有成本。MoltWorker 團隊估計,一般開發者透過遷移到邊緣部署可以節省 80-90% 的基礎設施成本。
這些節省伴隨著一些取捨。Cloudflare Workers 有執行時間限制和記憶體約束,對於推理鏈非常複雜或上下文視窗很大的智能體可能具有挑戰性。MoltWorker 透過「溢出」機制解決這個問題,當邊緣環境的限制被觸及時,透明地將重運算卸載到傳統雲端後端,但這增加了複雜性,對於最苛刻的工作負載可能會抵消部分延遲優勢。
快速入門
MoltWorker 文件包含一個快速入門指南,可以讓開發者在十分鐘內從零到部署一個智能體。流程很簡單:安裝 MoltWorker CLI,初始化新專案,撰寫或匯入 OpenClaw 智能體設定,然後執行部署指令。CLI 處理所有 Cloudflare 設定,包括設定 KV 命名空間、Durable Object 繫結和自訂網域。
對於已經在傳統基礎設施上運行 OpenClaw 智能體的開發者,MoltWorker 提供了一份遷移指南,涵蓋最常見的適配模式。大多數智能體只需最小的改動即可遷移,主要是將基於檔案系統的儲存替換為 KV 或 Durable Objects,並確保工具呼叫與 Workers 執行環境相容。
更大的圖景
MoltWorker 代表了 OpenClaw 生態系中一個更廣泛的趨勢:在開發者所在的地方與他們相遇。不是每個智能體都需要專用伺服器,不是每個用例都值得容器編排的成本和複雜性。透過將 OpenClaw 帶到邊緣,MoltWorker 為一類新的應用打開了大門:輕量級、延遲敏感、全球分散的工作負載,這些在傳統基礎設施下是不切實際的。
OpenClaws.io 團隊將 MoltWorker 視為生態系成熟的標誌。當一個社群開始打造針對真實生產約束而非僅僅展示日印象進行最佳化的部署工具時,意味著這項技術已經準備好被認真使用了。MoltWorker 不僅僅是一個巧妙的整合,它是下一代智能體 AI 應用的基礎設施,而且今天就可以使用。