LLM Task

llm-taskオプションのプラグインツールで、JSON専用のLLMタスクを実行し、構造化された出力を返します(オプションでJSON Schemaによるバリデーション付き)。

Lobsterのようなワークフローエンジンに最適です。ワークフローごとにカスタムのOpenClawコードを書くことなく、単一のLLMステップを追加できます。

プラグインの有効化

  1. プラグインを有効化:
{
  "plugins": {
    "entries": {
      "llm-task": { "enabled": true }
    }
  }
}
  1. ツールを許可リストに追加(optional: trueで登録されるため):
{
  "agents": {
    "list": [
      {
        "id": "main",
        "tools": { "allow": ["llm-task"] }
      }
    ]
  }
}

設定(オプション)

{
  "plugins": {
    "entries": {
      "llm-task": {
        "enabled": true,
        "config": {
          "defaultProvider": "openai-codex",
          "defaultModel": "gpt-5.4",
          "defaultAuthProfileId": "main",
          "allowedModels": ["openai-codex/gpt-5.4"],
          "maxTokens": 800,
          "timeoutMs": 30000
        }
      }
    }
  }
}

allowedModelsprovider/model文字列の許可リストです。設定されている場合、リスト外のリクエストは拒否されます。

ツールパラメータ

  • prompt(string、必須)
  • input(any、オプション)
  • schema(object、オプションのJSON Schema)
  • provider(string、オプション)
  • model(string、オプション)
  • thinking(string、オプション)
  • authProfileId(string、オプション)
  • temperature(number、オプション)
  • maxTokens(number、オプション)
  • timeoutMs(number、オプション)

thinkingはOpenClawの標準的な推論プリセット(lowmediumなど)を受け付けます。

出力

details.jsonにパースされたJSONが格納されます(schemaが指定されている場合はバリデーションも実施)。

例: Lobsterワークフローステップ

openclaw.invoke --tool llm-task --action json --args-json '{
  "prompt": "Given the input email, return intent and draft.",
  "thinking": "low",
  "input": {
    "subject": "Hello",
    "body": "Can you help?"
  },
  "schema": {
    "type": "object",
    "properties": {
      "intent": { "type": "string" },
      "draft": { "type": "string" }
    },
    "required": ["intent", "draft"],
    "additionalProperties": false
  }
}'

セーフティに関する注意

  • このツールはJSON専用で、モデルにJSONのみを出力するよう指示します(コードフェンスやコメントは不可)。
  • この実行ではモデルにツールは公開されません。
  • schemaでバリデーションしない限り、出力は信頼できないものとして扱ってください。
  • 副作用を伴うステップ(送信、投稿、実行)の前には承認を設けてください。