Sur un Mac distant loué ou géré, co-héberger OpenClaw Gateway avec Ollama ou un vLLM local échoue rarement sur « le mauvais nom de modèle ». Ce qui coince, c’est les ports, l’ordre des sondes, la mémoire unifiée et la CPU, la discipline de démarrage/arrêt. Ce texte complète le guide de triage modèle privé hors ligne : là, ponts API, contexte, absence de réponse ; ici, seulement la topologie sur une seule machine. Vous devez sortir avec des listeners séparés, la couche à valider avant healthz, et l’idée qu’il faut réduire le modèle avant de bricoler Gateway sous charge.
11434, vLLM souvent 8000, Control UI OpenClaw souvent 18789 ; un reverse proxy local ajoute vite une seconde occupation.200 mais le provider pointe vers un endpoint d’inférence froid : l’UI s’ouvre, le chat reste vide.baseURL, jetons et vrais listeners divergent. Chemin Docker : Docker officiel et Control UI.Mettez-le dans la revue pour éviter que « tout le monde visait 8000 » devienne « un autre service a pris 8000 en semaine trois ».
| Composant | Défaut courant | Point d’accroche OpenClaw |
|---|---|---|
| Ollama | HTTP souvent 127.0.0.1:11434 ; ouvrir le LAN avec bind explicite et story pare-feu |
baseURL provider vers la surface compatible OpenAI ; pas de proxy aveugle sans santé amont |
| vLLM (local) | Souvent 8000 ou perso ; plusieurs instances = ports et pools GPU/threads disjoints |
Comme Ollama : valider /v1/models et une completion minimale avant que Gateway ne référence |
| OpenClaw Gateway | Control UI souvent 18789 ; suivre la vraie config openclaw |
D’abord healthz/readyz, puis provider ; voir triage Gateway/modèle |
curl minimal sur chat/completions, puis démarrage ou reload Gateway — pas d’état figé « non prêt ».127.0.0.1 d’abord. Pont container ? documenter pare-feu et responsable.healthz, couche 3 sonde de dialogue ; un rouge = pas de prod.# Ordre minimal de sondes (adapter hôte/port) curl -sS "http://127.0.0.1:11434/api/tags" > /dev/null # Ollama vivant # curl -sS "http://127.0.0.1:8000/v1/models" > /dev/null # vLLM curl -fsS "http://127.0.0.1:18789/healthz" # Gateway # Puis chat minimal ou openclaw doctor selon votre doc
Sommeil/veille, uplink résidentiel instable, voisins imprévisibles transforment démarrages et sondes reproductibles en loterie. Ollama+Gateway exige une enveloppe thermique stable et un I/O prévisible. Mettre agent et inférence sur un hôte dédié, 24/7, avec RAM et stockage écrits au contrat baisse souvent le MTTR mieux que des mois de réglages fins. Pour industrialiser le runbook, les Mac cloud MACCOME combinent Apple Silicon dédié et modèles locatifs parlant finance—vous débattez de tableaux ressources et changements, pas de chance.
Ne montez pas la concurrence Gateway sans avoir prouvé un completion unique bout en bout. Ne bump pas Gateway avant d’avoir vérifié que le port d’inférence n’est pas déjà pris. Deux coupes nettes valent mieux que dix pages de folklore.
FAQ
Comment se répartir le travail avec l’article hors ligne ?
L’autre couvre ponts API, contexte, triage sans réponse. Celui-ci : ports, sondes, ressources, ordre de démarrage sur une machine. Liens : triage modèle privé et triage Gateway.
Gateway conteneurisé, Ollama hôte : c’est co-hébergé ?
Même logique de machine, réseau explicite : host.docker.internal ou IP bridge, règles pare-feu vérifiables. Base : déploiement Docker production et le guide Docker officiel.