リースまたは自管のリモートMacで同一ホストに OpenClaw Gateway と OllamaまたはローカルvLLM を載せるとき、多くの場合、失敗理由は「モデル名が違う」ではなく、ポート・プローブ順・ユニファイドメモリとCPUの競合・起動/停止の作法の積み重ねです。本文は オフライン・プライベートモデル分診 記事と役割を分けます。向こうはAPIブリッジ、コンテキスト、無応答です。こちらは同一マシン上のトポロジ専用Runbookです。リスナの分離、healthz の前に確認すべき層、負荷時に先にモデルを下げてからGatewayをいじる理由が分かる状態になれば目的達成です。
11434、代表的なvLLMは 8000、OpenClaw Control UIはしばしば 18789。ローカルでリバプロやサイドカーを足すと二重占有が起きやすくなります。200 だがproviderが未熟な推論に向いており、UIは開くがチャットが空のままになります。レビュー票に表をそのまま貼り、「口頭で8000」と「三周目で別サービスが8000を奪う」の差を潰します。
| コンポーネント | 代表的な既定 | OpenClawとの接点 |
|---|---|---|
| Ollama | 既定は 127.0.0.1:11434。LAN公開は明示バインドとファイアウォール設計が必要です。 |
providerの baseURL はOpenAI互換の /v1 へ。上流ヘルス無しの盲リバプロは避けます。 |
| vLLM(ローカル) | 多くは 8000 または任意。複数インスタンスはポートとGPU/スレッドプールを分けます。 |
Ollama同様、/v1/models と最小completionをGateway参照前に実通させます。 |
| OpenClaw Gateway | Control UIはよく 18789。実際の openclaw 設定に従います。 |
先に healthz/readyz、続けてprovider。詳細は Gateway/モデル分診 です。 |
curl で最小completion、その後にGateway起動またはreloadし、「未準備」状態を固定化しません。127.0.0.1 優先。コンテナ横断のときはbridgeと担当者を明記します。healthz、第3層で対話E2E。どれか赤なら本番トラフィックを止めます。# 最小プローブ順の例(ホスト/ポートを置換) curl -sS "http://127.0.0.1:11434/api/tags" > /dev/null # Ollama生存 # curl -sS "http://127.0.0.1:8000/v1/models" > /dev/null # vLLM curl -fsS "http://127.0.0.1:18789/healthz" # Gateway # 続けて最短チャットまたは環境ドキュメント通りの openclaw doctor
スリープ/ウェイク、家庭用 uplink の揺らぎ、予測不能な隣人により、再現可能な起動停止とプローブが確率論になります。OllamaとGatewayの同居は安定した熱境界と見通しのあるI/Oを要します。専有、24/7、メモリとストレージを契約に書けるリモート環境へ移すほうが、延々とパラメータをいじるよりMTTRを下げやすいです。本Runbookを本番に載せるなら、MACCOMEのクラウドMacは専有Apple Siliconと、会計に載せやすいリース形態を揃え、リソース表と変更管理を争点にできる一方で、個人端末頼みの運任せを減らします。
単発completionが通る前にGatewayの同時実行だけ叩かないでください。推論ポートが奪われていないか確認する前にGatewayバージョンだけ上げないでください。二回きれいに切るほうが、十ページの口伝より深夜の電話を減らします。
FAQ
オフラインOllama/vLLM記事との分担は?
向こうは APIブリッジ、コンテキスト、無応答 です。こちらは 同一マシンのポート、プローブ、リソース、起動順 です。オフライン分診 と Gateway分診 を併読してください。
GatewayをDocker、Ollamaをホストにするのは同居か?
論理同居ですが、ネットワークは明文化が必要です。 host.docker.internal やブリッジIPに加え、ファイアウォール検収まで書きます。起点は Docker本番Runbook と公式Docker記事です。