Les équipes qui font déjà tourner Gateway échouent rarement parce qu’elles ne savent pas installer Slack, Discord ou Telegram. Elles échouent parce que la console affiche des canaux connectés alors que les conversations ressemblent à un trou noir — les messages n’arrivent jamais ou ne circulent que dans un sens. Cet article s’articule avec le guide doctor post-installation, le triage réseau Docker et le failover fournisseur : validez d’abord Gateway et la santé des modèles, puis parcourez pour chaque plateforme les scopes OAuth, les permissions bot, les abonnements aux événements et le mode confidentialité Telegram. Vous obtenez six étiquettes de symptômes pour l’astreinte, une matrice de triage en trois couches, un bloc de commandes de diagnostic prêt à copier, un runbook en six étapes et trois indicateurs de canaux à brancher sur Grafana.
Les problèmes de canaux sont souvent classés à tort sous « le modèle est cassé » ou « encore le réseau compose ». Avant de changer d’images ou de network_mode, étiquetez le comportement avec la liste ci-dessous et comparez-la au tableau du triage réseau Docker, afin que deux changements parallèles n’effacent pas la cause racine.
.env.Consignez ces six classes avec les modifications récentes de allowedOrigins et les déploiements d’images sur le même ticket de changement, pour que l’astreinte choisisse une branche en moins de cinq minutes.
Cette matrice décide quelle couche inspecter en premier ; elle n’est pas exclusive. Chaque ligne doit correspondre à une commande concrète ou un mot-clé de journal. Esquissez trois colonnes sur papier : symptôme visible côté utilisateur, première anomalie dans les journaux Gateway, codes HTTP du modèle en amont. Si la colonne du milieu reste vide, suspendez toute modification des fournisseurs ; si la colonne de droite montre d’abord des 429, réautoriser OAuth dix fois ne réglera pas la facturation.
Avec l’article réseau Docker, traitez les sondes de canaux en échec dans le conteneur comme une couche 0 : confirmez que le CLI atteint Gateway sur le même réseau compose avant d’utiliser ce tableau ; sinon la console des webhooks Slack paraît saine alors que l’hôte ne voit que des délais d’attente.
| Ce que vous observez | Couche à soupçonner en premier | Prochaine étape (résumé) |
|---|---|---|
| Sondes de santé au vert, aucun journal entrant | Entrée des canaux | Réautoriser chaque plateforme ; vérifier les URL d’abonnement aux événements, le mode socket, les intents ; confidentialité Telegram et mentions |
| Entrants présents, routage vers un agent vide ou refus de politique | Routage et politiques | Inspecter groupPolicy, liaisons de canaux, règles de mention ; aligner les mappages d’agents OpenClaw |
| Entrants et routage corrects, échec à la réponse | Modèle et quotas | Inspecter 429, 5xx et délais ; suivre l’article failover pour faire tourner les clés ou les modèles |
| Échec dans le conteneur, CLI hôte opérationnel | Réseau et montages de secrets | Revenir au triage réseau Docker ; vérifier l’environnement compose et les volumes |
Ces métriques transforment « le bot semble bloqué » en chiffres alertables ; alignez les noms de champs sur la journalisation Gateway. Préférez des agrégats horaires au bruit seconde par seconde, pour que les astreintes de nuit restent exploitables.
La documentation communautaire en 2026 insiste encore sur openclaw channels status --probe ; tracez les résultats des sondes à côté de ces trois taux pour éviter des correctifs « reconnexion et espoir » non reproductibles. Si vous avez déjà configuré des sondes HTTP à partir de l’article health-check Gateway, assurez-vous que les URL de sondes suivent le même chemin de proxy inverse que les vrais rappels de canaux — des sondes loopback uniquement avec des rappels publics sur une autre chaîne de certificats créent des moniteurs tout verts et des utilisateurs tout rouges.
Ajoutez une habitude de réconciliation manuelle : chaque semaine, échantillonnez dix messages utilisateur et vérifiez que l’identifiant de message plateforme, l’identifiant de requête Gateway et l’identifiant de trace modèle apparaissent dans les journaux ; des liens manquants signifient une journalisation structurée défaillante — corrigez les champs avant de monter en charge.
# Ordre d’exemple (préfixer par sudo / docker exec selon l’environnement) openclaw gateway status openclaw channels status --probe openclaw logs --follow | rg -i "slack|discord|telegram|429|oauth|deny" # Telegram : mode confidentialité BotFather et mentions @ dans les groupes # Discord : intents privilégiés du portail développeur (Message Content, etc.)
Remarque : si le guide d’installation trois plateformes n’a pas reproduit un dialogue minimal sur la même machine, évitez de modifier en parallèle les canaux et le compose — les éditions parallèles masquent la cause racine.
allowedOrigins ou les certificats TLS ont changé le même jour, documentez le retour au fingerprint de certificat précédent pour que les rappels OAuth et CORS ne tombent pas ensemble.gateway status sur l’hôte ou dans le conteneur correspond au guide doctor. Avec systemd ou launchd, vérifiez les politiques de redémarrage — des redémarrages rapides déclenchent les limites de débit des WebSockets côté plateforme.Exécutez-les dans chaque console fournisseur ; ne vous fiez pas à d’anciennes captures. Si vous maintenez des espaces de staging et de production, ajoutez une colonne dédiée pour les noms d’hôte de rappel, afin que les certificats de staging ne se lient jamais au DNS de production.
Les trois plateformes sont sensibles aux adresses IP de sortie stables. Le haut débit résidentiel ou les VPN qui changent de nœud de sortie ressemblent à du trafic webhook abusif. Cela rejoint les recommandations Mac cloud multi-régions sur des régions fixes et une sortie auditable — déplacez le plan de contrôle vers un hôte dont l’atteignabilité est démontrable avant que l’équipe dépende du bot.
La mise en veille, les VPN et les proxys locaux modifient les IP de sortie et les empreintes TLS, ce qui fait échouer aléatoirement les rappels OAuth et les listes autorisées côté fournisseur. Les portables partagés ne centralisent pas non plus la rotation des jetons ni les champs d’audit. Exécutez Gateway et les workers de canaux sur un plan de sortie stable et joignable en astreinte pour rester aligné avec les politiques d’agents d’équipe.
Pour les topologies qui exigent un service toujours actif, des domaines de rappel fixes et une sortie prévisible, MACCOME propose des Mac mini M4 / M4 Pro hébergés dans le cloud à Singapour, au Japon, en Corée, à Hong Kong, sur la côte est et la côte ouest des États-Unis — adaptés à Gateway et à la chaîne d’outils Apple. Après le triage des canaux, croisez avec le guide SSH contre VNC et le centre d’aide location Mac mini, puis finalisez sur les tarifs publics de location et les pages régionales.
Schéma pilote : faites tourner 24 heures d’IER et de RCR sur un hôte de test dédié avec un seul canal avant d’ouvrir un espace de production — évitez d’activer une grande communauté et de passer au rouge instantanément.
FAQ
En quoi cet article diffère-t-il du triage réseau Docker ?
Le réseau couvre l’atteignabilité CLI vers Gateway. Celui-ci couvre l’entrée des plateformes de messagerie et l’autorisation. Vous soupçonnez compose en premier ? Commencez par le triage réseau Docker et le centre d’aide location Mac mini pour le contexte d’accès.
Dois-je encore consulter la FAQ OpenClaw en amont ?
Oui — recoupez les listes de jetons et d’intents avec la documentation amont. Associez ce guide à notre guide d’installation trois plateformes et au centre d’aide location Mac mini pour le libellé d’accès.
Où choisir les régions et les conditions de location d’un Mac cloud ?
Lisez le guide multi-régions et les tarifs publics de location avant de figer Gateway.