LLM Task
llm-taskはオプションのプラグインツールで、JSON専用のLLMタスクを実行し、構造化された出力を返します(オプションでJSON Schemaによるバリデーション付き)。
Lobsterのようなワークフローエンジンに最適です。ワークフローごとにカスタムのOpenClawコードを書くことなく、単一のLLMステップを追加できます。
プラグインの有効化
- プラグインを有効化:
{
"plugins": {
"entries": {
"llm-task": { "enabled": true }
}
}
}
- ツールを許可リストに追加(
optional: trueで登録されるため):
{
"agents": {
"list": [
{
"id": "main",
"tools": { "allow": ["llm-task"] }
}
]
}
}
設定(オプション)
{
"plugins": {
"entries": {
"llm-task": {
"enabled": true,
"config": {
"defaultProvider": "openai-codex",
"defaultModel": "gpt-5.4",
"defaultAuthProfileId": "main",
"allowedModels": ["openai-codex/gpt-5.4"],
"maxTokens": 800,
"timeoutMs": 30000
}
}
}
}
}
allowedModelsはprovider/model文字列の許可リストです。設定されている場合、リスト外のリクエストは拒否されます。
ツールパラメータ
prompt(string、必須)input(any、オプション)schema(object、オプションのJSON Schema)provider(string、オプション)model(string、オプション)thinking(string、オプション)authProfileId(string、オプション)temperature(number、オプション)maxTokens(number、オプション)timeoutMs(number、オプション)
thinkingはOpenClawの標準的な推論プリセット(lowやmediumなど)を受け付けます。
出力
details.jsonにパースされたJSONが格納されます(schemaが指定されている場合はバリデーションも実施)。
例: Lobsterワークフローステップ
openclaw.invoke --tool llm-task --action json --args-json '{
"prompt": "Given the input email, return intent and draft.",
"thinking": "low",
"input": {
"subject": "Hello",
"body": "Can you help?"
},
"schema": {
"type": "object",
"properties": {
"intent": { "type": "string" },
"draft": { "type": "string" }
},
"required": ["intent", "draft"],
"additionalProperties": false
}
}'
セーフティに関する注意
- このツールはJSON専用で、モデルにJSONのみを出力するよう指示します(コードフェンスやコメントは不可)。
- この実行ではモデルにツールは公開されません。
schemaでバリデーションしない限り、出力は信頼できないものとして扱ってください。- 副作用を伴うステップ(送信、投稿、実行)の前には承認を設けてください。