OpenClaw Gateway läuft bereits, doch Sie haben Stundenreports, Cache-Bereinigung oder Modellkontostände weiterhin an persönliche crontab oder externe Orchestrierer delegiert. Nach Gateway-Upgrade oder systemd-Neustart können Jobs still verschwinden, während channels status --probe grün bleibt. Für Ops: erst sieben verborgene Annahmen zu Grenzen von openclaw cron gegenüber der Nachrichtenkette; eine Vergleichstabelle (integriert / Host-crontab / externes Scheduling); dann ein sechsstufiges Runbook zur Abnahme (Mindestchecks, cron status und cron list, anschließend openclaw doctor und Logs in Reihenfolge); verlinkt mit Kanalsonden und dmPolicy, Produktionsobservability und Upgrade-Rollback sowie Remote-Modus und Konfigurationsdrift.
Offizielle FAQs nennen zuerst openclaw status, dann gateway status, dann channels status --probe — Zeitpläne stehen in Release Notes oft nur in ein, zwei Zeilen, verschwinden in Produktion aber als unsichtbare Wirbelsäule, an die sich niemand mehr erinnert. Die folgenden sieben Punkte führen vom Thema „Cron ist kaputt“ zur Frage, welches Segment bricht.
Stilles Cron als Kanalstörung deuten: geplante Rückrufe ohne Sitzung unterscheiden sich von Telegram-/WhatsApp-Eingängen; erst die Verzweigungstabelle unter Kanalsonden, nicht sofort crontab umschreiben.
Cron unter falschem Benutzer: wenn launchd oder systemd --user nicht zur SSH-Sitzung passen, gibt es den Klassiker: manuell OK, nach Neustart weg.
OPENCLAW_STATE_DIR drift: mehrere Profile oder Volume-Mounts legen State woanders; schreibt Cron nach A, liest Gateway nach B, bleibt die Liste leer.
Nach Upgrade kein gateway install --force: CLI/Service-Spaltung betrifft oft auch alte Binary-Pfade im Cron-Subsystem.
Spitzenlast auf leichte Queue semantisch kleben: schneller Health-Check plus Vollindex kann die Event-Schleife hungern; Jobs trennen und Backoff setzen.
Cron-Fehler nicht im Log eindeutig markieren: siehe Produktionsobservability — ohne Jobname explodieren Triage-Kosten.
Remote-Modus mit lokalem Cron ohne dokumentierten Eintritt mischen: bei gateway.mode=remote läuft Scheduling weiter auf dem Gateway-Host; Notebook-crontab suggeriert nur Migration. Siehe Remote-Modus.
Gemeinsamer Kern: „Agent läuft“ gleichzusetzen mit „geplante Ops laufen zuverlässig“ verwischen. OpenClaw bündelt Modelle, Tools, Kanäle — Platform braucht einen beobachtbaren Scheduling-Vertrag: wer registriert, wer führt aus, wie alarmieren Fehler, wie regressieren Upgrades.
Wenn Sie noch prüfen, ob Gateway auf einem dedicated Remote Mac 24/7 liegen soll, lesen Sie dazu Cloud-Mac- und OpenClaw-Praxis: Stabilität hängt an Sleep-Policies, nicht nur an CLI-Tricks.
Wenn integriertes Cron noch knapp wirkt: brauchen Sie Maschinen-übergreifende Orchestrierung oder einen Heartbeat an Gateway-Lebenszyklus; ersteres rechtfertigt Kubernetes/Systemd-timer, letzteres gehört zur OpenClaw-Planungsfläche.
Es gibt keinen Königsweg — es geht um Trigger, die denselben Gateway-State teilen und Fehler über dieselben CLI-Schritte entschlüsselbar bleiben.
| Dimension | openclaw cron (integriert) | System-crontab / launchd | Extern (K8s CronJob usw.) |
|---|---|---|---|
| Identität / PATH | Stabil, wenn Dienstbenutzer und Gateway übereinstimmen | Neigt zu Shell-Abweichung, braucht explizite env-Dateien | Pod-Identität oft getrennt vom Host-Gateway, Secrets teuer |
| Upgrade | Folgt Gateway-Versionen, Release Notes und Abnahme wiederholen | Nicht automatisch migriert, alte Pfade feuern weiter | Image/Helm-Drift, zweiter Change-Prozess |
| Observability | cron status / cron list mit openclaw logs konsistent | stdout selbst zentralisieren | Cluster-Metriken entkoppelt von Gateway |
| Typisch | Leichte zyklische Hooks an Agents/Kanäle | Host-Backups, lieferantenagnostische Skripte | Batch über Services/Namespaces |
Produktions-cron heißt in OpenClaw: am Tag nach dem Upgrade mit drei CLI-Befehlen nachweisen, dass es noch läuft, nicht nur einmal im Handbuch erwähnt.
Wenn Sie openclaw health --json exportieren, Cron-Eintragsversionen mit ausgeben, damit Prometheus/Grafana nur ein „überfällig“-Signal braucht.
Mit Gateway-Observability: Rollback-Checkliste um eine Zeile ergänzen — cron list-Zählung wie vor dem Change.
Reihenfolge zuerst Gateway stabil, dann Jobs registrieren, dann Alarme. Konkrete Unterbefehle richten sich nach Ihrer OpenClaw-Version; hier geht es um Triage-Reihenfolge, nicht um UI-Labels.
Gateway-Baseline: openclaw gateway status — Runtime und RPC-Sonden OK, bevor Sie cron anfassen.
Wartung unter Dienstbenutzer: keine TTY-spezifischen Env-Traps.
Minimaljob: einen Log-Eintrag oder touch-Marker, Intervall vorübergehend verkürzen.
openclaw cron status und openclaw cron list: Namen, nächste Ausführung, Enable-Flags.
Kontrolliert openclaw gateway restart: Schritt 4 wiederholen — wenn leer, Identität und State-Dir prüfen.
Mit Change-Ticket archivieren: openclaw doctor als Baseline fürs nächste Upgrade.
openclaw gateway status openclaw cron status openclaw cron list openclaw doctor openclaw logs --follow
Hinweis: läuft zusätzlich Tailscale Serve oder Tunnel, Tailscale-Privatfreigabe prüfen: falsche Probe-Instanz, Cron-Logs wirkungslos.
Vor schweren Jobs Überlappungsregeln: wenn die Periode kürzer ist als die Laufzeit, stapelt Gateway Last — anderer Grund als Cron-Tippfehler.
Outbound-HTTP gehört mit Timeouts/TLS-Verifikation ins Skript, nicht impliziter Netzstack — sonst wirkt NW-Jitter wie ein OpenClaw-Regression.
Playbooks stellen openclaw cron status und cron list spät, weil fehlende Ausführung meist Gateway-Unreife oder Drift sind. Reihenfolge: gateway status, cron status/list, channels status --probe, danach Log-Follow.
Wenn cron list den nächsten Start dauernd nach hinten schiebt: Backlog (viele Agent-Jobs) oder Uhrzeit (Wake/NTP) trennen.
meta.lastTouchedVersion in doctor vs. Binary: PATH und gateway install --force zuerst beheben.
Achtung: parallele Voll-Session-Bereinigung ohne freien Speicher blockiert IO; RPC kann kurz noch grün wirken, Jobs laufen in Timeouts.
Alarmgrenzen: kritische Jobs „Letzter OK“ > zweifache Periode auslösen; Rest per Log-Prädikat ohne Pager-Sturm.
Bei Remote-Modus cron list auf Laptop und Server — gleiche Gateway-Scheduling-Instanz.
Nutzen Sie die Punkte zur internen Ausrichtung; Schwellen an Frequenz und Toleranz anpassen.
gateway install --force → gateway restart → diese Diagnosekette sowie cron list-Snapshots vergleichen.cron status ist P1, sofort openclaw logs --follow.Reiner Host-crontab koppelt schwach an Gateway-Lifecycle; reine externes Scheduling dupliziert Monitoring. Gateway mit Schedules auf einem dedicated 24/7 Remote Mac mit klarer Disk/Net-SLA ist oft entspannter als schlummernde Notebooks oder geteilte Hosting-Tiers mit einem Owner für alle openclaw-Kommandos. NodeMini Mac Mini Cloud-Miete: Vergleich unter Mac-Mini-Mietpreisen, Onboarding über das Hilfezentrum.
Lesepfad über OpenClaw-Kategoriefilter: Installation → Sicherheit → Observability → Kanäle → Remote → Cron.
Die integrierte Planung nutzt denselben Betriebsschnitt wie Gateway und State-Verzeichnis; Host-crontab driftet leicht bei PATH, Benutzer oder OPENCLAW_STATE_DIR gegenüber launchd/systemd. Mehr im OpenClaw-Kategoriefilter.
openclaw gateway status, dann openclaw cron status / cron list, dann openclaw doctor; danach Logs. Maschinenseitiges Onboarding über das Hilfezentrum.
Nachrichtenpfad: openclaw channels status --probe und Pairing; siehe Kanalsonden und dmPolicy. Cloud-Mac-Planung: zuerst Mac-Mini-Mietpreise prüfen.