Leicht zu betreiben
Dagu ist eine einzelne Binärdatei ohne erforderliche Datenbank, Message Broker oder Control-Plane-Stack. Starten Sie auf einer Maschine und fügen Sie Worker nur hinzu, wenn Sie sie brauchen.
Dagu macht aus Skripten, Cronjobs, Containern, HTTP-Tasks, SQL-Jobs und Freigaben ein einziges sichtbares Workflow-System, ohne einen Rewrite zu erzwingen.
Der geführte Installer fügt Dagu zum PATH hinzu, richtet einen Hintergrunddienst ein und erstellt den ersten Administrator, damit Sie direkt Workflows ausführen können.
Kein SDK erforderlich. Ihre Business-Logik bleibt unberührt.
Eine einzige Binärdatei, keine erforderliche Datenbank und kein Broker
Führen Sie Skripte, Container, SSH-Aufgaben und HTTP-Aufrufe aus
Läuft vollständig offline. Keine externen Dienste erforderlich.
Standardmäßig self-hosted. Bestehende Automatisierung bleibt intakt. Dagu ergänzt sie um Aufsicht und Operator-Kontrollen.
Dagu ist eine einzelne Binärdatei ohne erforderliche Datenbank, Message Broker oder Control-Plane-Stack. Starten Sie auf einer Maschine und fügen Sie Worker nur hinzu, wenn Sie sie brauchen.
Führen Sie Zeitpläne, Abhängigkeiten, Retries, Queues, Parameter, Secrets, Benachrichtigungen, SSH-Schritte, Container-Schritte, SQL-Jobs und verteilte Ausführung in lesbarem YAML aus.
Ihre Skripte, Services, SQL-Abfragen, Container und Betriebsbefehle bleiben wie sie sind. Dagu orchestriert darum herum, statt ein Framework oder SDK in Ihre Codebasis zu zwingen.
Jeder Run erhält Status, Logs, Historie, Timing und eine visuelle Workflow-Ansicht, damit Jobs nicht mehr in Crontabs und Server-Logs verschwinden.
Deployment-Modelle
Fuehren Sie Dagu lokal aus, hosten Sie es selbst, nutzen Sie den Managed Server oder kombinieren Sie Cloud-Betrieb mit privater Execution.
Lokal
Fuehren Sie `dagu start-all` auf einer Maschine mit lokal dateibasierter State-Speicherung aus. Keine Datenbank, kein Broker, kein Plattform-Stack erforderlich.
Selbst gehostet
Behalten Sie Dagu Server, Workers, Secrets, Logs und Execution in Ihrer eigenen Umgebung.
Dagu Cloud
Nutzen Sie einen dedizierten Dagu Server, betrieben von Dagu Cloud in einer isolierten gVisor-Instanz auf GKE.
Hybrid
Dagu Cloud betreibt den Server, waehrend Private Workers Docker-, private Netzwerk- oder datenlokale Steps ausfuehren.
Hybrid Execution
Hybrid haelt den Dagu Server managed, waehrend Execution, die Ihr Netzwerk, Ihre Runtime oder Ihre Daten braucht, unter Ihrer Kontrolle bleibt.
Teams prüfen Durchsatz, Queues, Wiederherstellung, Governance, API-Zugriff und Worker-Ausführung, bevor sie verstreute Jobs in eine einzige Steuerungsebene überführen.
Führen Sie Tausende Workflow-Läufe pro Tag auf einer Maschine aus, abhängig von Hardware, Workflow-Form, Schrittdauer und Queue-Einstellungen.
Nutze Queues, Concurrency-Limits und verteilte Worker, um Last zu kontrollieren und Jobs über Maschinen zu verteilen.
Cron-Schedules, Catchup, dauerhafte automatische Retries, Timeouts, Reruns, Event-Handler-Skripte und E-Mail-Benachrichtigungen halten Fehler beherrschbar.
Nutze User Management, RBAC, Workspaces, Approvals, Secrets, REST API, CLI und Webhooks für gemeinsam betriebene Produktions-Workflows.
Anwendungsfälle
Ein praktischer Index für Betriebsarbeit, die als Skripte, Cronjobs und Ad-hoc-Tasks beginnt und dann ein Workflow-System braucht, das Menschen ausführen und nachverfolgen können.
Dagu passt zu Teams, deren operative Arbeit bereits über Befehle, Skripte, Container, SQL-Jobs, HTTP-Tasks und Remote-Server verteilt ist und die dann einen klareren Weg für Planung, Retries, Beobachtbarkeit und Steuerung brauchen.
Behalten Sie die bestehenden Befehle. Ergänzen Sie Sichtbarkeit, Retries, Freigaben und Run-Historie darum herum.
Beispiel / Versteckte Cron-Arbeit
Bringe bestehende Shell-Skripte, Python-Skripte, HTTP-Aufrufe und geplante Jobs nach Dagu, ohne sie neu zu schreiben.
Versteckte Cron-Bestände werden zu sichtbaren, retry-fähigen Workflows mit Logs, Abhängigkeiten, Historie und Operator-Kontrollen.
Der Workflow bleibt konkret genug für Engineers und sichtbar genug für Operatoren.
Tägliche Jobs, die wartbar bleiben
Führe PostgreSQL- oder SQLite-Abfragen, S3-Transfers, jq-Transformationen, Validierungen und wiederverwendbare Sub-Workflows aus.
Tägliche Datenworkflows bleiben deklarativ, beobachtbar und leicht erneut ausführbar, wenn ein Schritt fehlschlägt.
Verteilte Medienarbeit
Führe ffmpeg, Thumbnail-Erzeugung, Audio-Normalisierung, Bildverarbeitung und andere rechenintensive Jobs auf Workern aus.
Konvertierungen können auf verteilten Workern laufen, während Status, Historie, Logs und Artefakte in einer Persistenzschicht für Monitoring, Debugging und Retries bleiben.
Geplante Remote-Jobs
Koordiniere SSH-Backups, Cleanups, Deploy-Skripte, Patch-Fenster, Vorbedingungen und Lifecycle-Hooks.
Remote-Operationen erhalten Zeitpläne, Retries, Benachrichtigungen und Schritt-Logs, ohne dass Operatoren für jede Wiederherstellung per SSH auf Server müssen.
Container-native Pipelines
Baue Workflows, in denen jeder Schritt ein Docker-Image, einen Kubernetes Job, einen Shell-Befehl oder eine Validierung ausführt.
Image-basierte Aufgaben lassen sich an passende Worker routen, ohne eine eigene Control Plane um Container zu bauen.
Betrieb ohne Engineering-Handoff
Führe Diagnosen, Account-Reparaturen, Datenprüfungen und Freigabeaktionen über eine einfache Web UI aus.
Nicht-Engineers können geprüfte Workflows bedienen, während Engineers Befehle, Logs und Ergebnisse nachvollziehbar halten.
Kleine Geräte, sichtbare Runs
Führe Sensorabfragen, lokale Bereinigung, Offline-Sync, Healthchecks und Gerätewartung auf kleinen Geräten aus.
Single Binary und dateibasierter Zustand funktionieren gut auf Edge-Geräten und bieten trotzdem Sichtbarkeit über die Web UI.
Optionale KI-gestützte Betriebsarbeit
Führe KI-Coding-Agenten, Agent-CLIs, agentenerzeugte YAML-Workflows, Loganalyse, Reparaturschritte und von Menschen geprüfte Automatisierung aus, wenn Modellunterstützung nützlich ist.
KI bleibt eine nachgelagerte Fähigkeit innerhalb des Workflows, statt zu dem System zu werden, das alles ausführt.
Gemeinsamer Nenner
Bringen Sie Skripte, geplante Jobs, Server-Aufgaben und kontrollierte Automatisierung in eine Workflow-Engine.
Verwandeln Sie bestehende Shell-Skripte, Docker-Befehle, SSH-Aufgaben und HTTP-Aufrufe in zuverlässige Workflows.
steps:
- name: health-check
command: curl -sf http://app:8080/health
- name: backup
type: ssh
config:
host: db-server
user: admin
command: pg_dump mydb > /backups/daily.sql
- name: notify
type: http
config:
url: "https://hooks.slack.com/..."
method: POST
body: '{"text": "Backup complete"}'
Persistenter KI-Operator für Slack und Telegram.
Debuggen Sie Ausfälle, genehmigen Sie Aktionen und beheben Sie Vorfälle, ohne die Unterhaltung zu verlassen.
Dagu konzentriert sich auf die Produktionsschicht um Ihre bestehende Arbeit: Zeitpläne, Abhängigkeiten, Retries, Logs, Warteschlangen und kontrollierte Ausführung.
Installiere Dagu mit dem geführten Installer und geh dann im vollständigen Installationsleitfaden oder Quickstart weiter.
Die Skript-Installer sind der empfohlene Weg. Homebrew, npm und Docker bleiben verfügbar, installieren aber nur das Binary oder den Container.
Der geführte Installer kann die Ersteinrichtung für dich abschließen.
Nutzung besprechen, Issues melden und die Entwicklung verfolgen.