Die selbst gehostete Steuerungsebene für die Betriebsautomatisierung, die Sie bereits ausführen.

Dagu macht aus Skripten, Cronjobs, Containern, HTTP-Tasks, SQL-Jobs und Freigaben ein einziges sichtbares Workflow-System, ohne einen Rewrite zu erzwingen.

Beispiele ansehen
Live-Demo testen
Anmeldedatendemouser / demouser
dagu server --port 8080
dagu-Befehl installieren
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash

Der geführte Installer fügt Dagu zum PATH hinzu, richtet einen Hintergrunddienst ein und erstellt den ersten Administrator, damit Sie direkt Workflows ausführen können.

Nicht-invasiv

Kein SDK erforderlich. Ihre Business-Logik bleibt unberührt.

Leichtgewichtig

Eine einzige Binärdatei, keine erforderliche Datenbank und kein Broker

Command-native

Führen Sie Skripte, Container, SSH-Aufgaben und HTTP-Aufrufe aus

Air-Gap-fähig

Läuft vollständig offline. Keine externen Dienste erforderlich.

workflow.yaml
# Existing scripts, now production workflows
name: "daily-ops"
schedule: "0 2 * * *"

steps:
- name: "backup-db"
command: "./scripts/backup-postgres.sh"
output: BACKUP_PATH

- name: "upload-backup"
command: "aws s3 cp $${BACKUP_PATH} s3://backups/"
depends: backup-db

- name: "notify"
type: http
depends: upload-backup

Häufige Workflow-Schritttypen

Warum Ops-Teams Dagu wählen

Standardmäßig self-hosted. Bestehende Automatisierung bleibt intakt. Dagu ergänzt sie um Aufsicht und Operator-Kontrollen.

Leicht zu betreiben

Dagu ist eine einzelne Binärdatei ohne erforderliche Datenbank, Message Broker oder Control-Plane-Stack. Starten Sie auf einer Maschine und fügen Sie Worker nur hinzu, wenn Sie sie brauchen.

Für gemischte Ops-Automatisierung gebaut

Führen Sie Zeitpläne, Abhängigkeiten, Retries, Queues, Parameter, Secrets, Benachrichtigungen, SSH-Schritte, Container-Schritte, SQL-Jobs und verteilte Ausführung in lesbarem YAML aus.

Migration ohne Rewrites

Ihre Skripte, Services, SQL-Abfragen, Container und Betriebsbefehle bleiben wie sie sind. Dagu orchestriert darum herum, statt ein Framework oder SDK in Ihre Codebasis zu zwingen.

Operator-Sichtbarkeit ab Werk

Jeder Run erhält Status, Logs, Historie, Timing und eine visuelle Workflow-Ansicht, damit Jobs nicht mehr in Crontabs und Server-Logs verschwinden.

Deployment-Modelle

Fuehren Sie Dagu lokal aus, hosten Sie es selbst, nutzen Sie den Managed Server oder kombinieren Sie Cloud-Betrieb mit privater Execution.

Starten Sie auf einer Maschine. Skalieren Sie zu self-hosted, managed oder hybrid.

Lokal

Einzelserver

Fuehren Sie `dagu start-all` auf einer Maschine mit lokal dateibasierter State-Speicherung aus. Keine Datenbank, kein Broker, kein Plattform-Stack erforderlich.

Selbst gehostet

Ihre Infrastruktur

Behalten Sie Dagu Server, Workers, Secrets, Logs und Execution in Ihrer eigenen Umgebung.

Dagu Cloud

Vollstaendig verwalteter Server

Nutzen Sie einen dedizierten Dagu Server, betrieben von Dagu Cloud in einer isolierten gVisor-Instanz auf GKE.

Hybrid

Verwalteter Server, private Ausfuehrung

Dagu Cloud betreibt den Server, waehrend Private Workers Docker-, private Netzwerk- oder datenlokale Steps ausfuehren.

Hybrid Execution

Managed Dagu Server
Private Worker ueber mTLS
Docker, private APIs, Secrets und datenlokale Arbeit

Hybrid haelt den Dagu Server managed, waehrend Execution, die Ihr Netzwerk, Ihre Runtime oder Ihre Daten braucht, unter Ihrer Kontrolle bleibt.

Was vor dem Ersetzen fragmentierter Automatisierung zu prüfen ist

Teams prüfen Durchsatz, Queues, Wiederherstellung, Governance, API-Zugriff und Worker-Ausführung, bevor sie verstreute Jobs in eine einzige Steuerungsebene überführen.

Tausende/Tag

Single-Node-Durchsatz

Führen Sie Tausende Workflow-Läufe pro Tag auf einer Maschine aus, abhängig von Hardware, Workflow-Form, Schrittdauer und Queue-Einstellungen.

Queues + Worker

Ausführung sicher skalieren

Nutze Queues, Concurrency-Limits und verteilte Worker, um Last zu kontrollieren und Jobs über Maschinen zu verteilen.

Catchup + Retry

Geplante Arbeit wiederherstellen

Cron-Schedules, Catchup, dauerhafte automatische Retries, Timeouts, Reruns, Event-Handler-Skripte und E-Mail-Benachrichtigungen halten Fehler beherrschbar.

User + API

Als Team betreiben

Nutze User Management, RBAC, Workspaces, Approvals, Secrets, REST API, CLI und Webhooks für gemeinsam betriebene Produktions-Workflows.

Anwendungsfälle

Ein praktischer Index für Betriebsarbeit, die als Skripte, Cronjobs und Ad-hoc-Tasks beginnt und dann ein Workflow-System braucht, das Menschen ausführen und nachverfolgen können.

Betriebliche Anwendungsfälle

Dagu passt zu Teams, deren operative Arbeit bereits über Befehle, Skripte, Container, SQL-Jobs, HTTP-Tasks und Remote-Server verteilt ist und die dann einen klareren Weg für Planung, Retries, Beobachtbarkeit und Steuerung brauchen.

Behalten Sie die bestehenden Befehle. Ergänzen Sie Sichtbarkeit, Retries, Freigaben und Run-Historie darum herum.

01

Beispiel / Versteckte Cron-Arbeit

Cron- und Legacy-Skript-Management

Bringe bestehende Shell-Skripte, Python-Skripte, HTTP-Aufrufe und geplante Jobs nach Dagu, ohne sie neu zu schreiben.

Versteckte Cron-Bestände werden zu sichtbaren, retry-fähigen Workflows mit Logs, Abhängigkeiten, Historie und Operator-Kontrollen.

Der Workflow bleibt konkret genug für Engineers und sichtbar genug für Operatoren.

02

Tägliche Jobs, die wartbar bleiben

ETL und Datenbetrieb

Führe PostgreSQL- oder SQLite-Abfragen, S3-Transfers, jq-Transformationen, Validierungen und wiederverwendbare Sub-Workflows aus.

Tägliche Datenworkflows bleiben deklarativ, beobachtbar und leicht erneut ausführbar, wenn ein Schritt fehlschlägt.

03

Verteilte Medienarbeit

Medienkonvertierung

Führe ffmpeg, Thumbnail-Erzeugung, Audio-Normalisierung, Bildverarbeitung und andere rechenintensive Jobs auf Workern aus.

Konvertierungen können auf verteilten Workern laufen, während Status, Historie, Logs und Artefakte in einer Persistenzschicht für Monitoring, Debugging und Retries bleiben.

04

Geplante Remote-Jobs

Infrastruktur- und Serverautomatisierung

Koordiniere SSH-Backups, Cleanups, Deploy-Skripte, Patch-Fenster, Vorbedingungen und Lifecycle-Hooks.

Remote-Operationen erhalten Zeitpläne, Retries, Benachrichtigungen und Schritt-Logs, ohne dass Operatoren für jede Wiederherstellung per SSH auf Server müssen.

05

Container-native Pipelines

Container- und Kubernetes-Workflows

Baue Workflows, in denen jeder Schritt ein Docker-Image, einen Kubernetes Job, einen Shell-Befehl oder eine Validierung ausführt.

Image-basierte Aufgaben lassen sich an passende Worker routen, ohne eine eigene Control Plane um Container zu bauen.

06

Betrieb ohne Engineering-Handoff

Customer-Support-Automatisierung

Führe Diagnosen, Account-Reparaturen, Datenprüfungen und Freigabeaktionen über eine einfache Web UI aus.

Nicht-Engineers können geprüfte Workflows bedienen, während Engineers Befehle, Logs und Ergebnisse nachvollziehbar halten.

07

Kleine Geräte, sichtbare Runs

IoT- und Edge-Workflows

Führe Sensorabfragen, lokale Bereinigung, Offline-Sync, Healthchecks und Gerätewartung auf kleinen Geräten aus.

Single Binary und dateibasierter Zustand funktionieren gut auf Edge-Geräten und bieten trotzdem Sichtbarkeit über die Web UI.

08

Optionale KI-gestützte Betriebsarbeit

KI-Agenten-Workflows

Führe KI-Coding-Agenten, Agent-CLIs, agentenerzeugte YAML-Workflows, Loganalyse, Reparaturschritte und von Menschen geprüfte Automatisierung aus, wenn Modellunterstützung nützlich ist.

KI bleibt eine nachgelagerte Fähigkeit innerhalb des Workflows, statt zu dem System zu werden, das alles ausführt.

Gemeinsamer Nenner

Plain YAMLJeder BefehlDocker und Kubernetes JobsSSHZeitpläneRetriesLogsBenachrichtigungen

Häufige Workflow-Muster

Bringen Sie Skripte, geplante Jobs, Server-Aufgaben und kontrollierte Automatisierung in eine Workflow-Engine.

Health Check
SSH Backup
Notify

Skript-Workflows

Verwandeln Sie bestehende Shell-Skripte, Docker-Befehle, SSH-Aufgaben und HTTP-Aufrufe in zuverlässige Workflows.

  • 1Lassen Sie bestehende Skripte und Befehle unverändert
  • 2Führen Sie Container, SSH-Aufgaben und HTTP-Schritte in einem DAG aus
  • 3Nutzen Sie Abhängigkeiten statt fragiler Befehlsketten
  • 4Wiederholen Sie fehlgeschlagene Schritte mit klaren Logs und Historie
workflow.yaml
steps:
  - name: health-check
    command: curl -sf http://app:8080/health

  - name: backup
    type: ssh
    config:
      host: db-server
      user: admin
    command: pg_dump mydb > /backups/daily.sql

  - name: notify
    type: http
    config:
      url: "https://hooks.slack.com/..."
      method: POST
    body: '{"text": "Backup complete"}'

Workflow Operator für Slack & Telegram

Persistenter KI-Operator für Slack und Telegram.Debuggen Sie Ausfälle, genehmigen Sie Aktionen und beheben Sie Vorfälle, ohne die Unterhaltung zu verlassen.

DaguDagu
Nachricht...

Workflow-Engine-Funktionen für den echten Betrieb

Dagu konzentriert sich auf die Produktionsschicht um Ihre bestehende Arbeit: Zeitpläne, Abhängigkeiten, Retries, Logs, Warteschlangen und kontrollierte Ausführung.

Schnellstart-Anleitung

Installiere Dagu mit dem geführten Installer und geh dann im vollständigen Installationsleitfaden oder Quickstart weiter.

1

dagu-Befehl installieren

Die Skript-Installer sind der empfohlene Weg. Homebrew, npm und Docker bleiben verfügbar, installieren aber nur das Binary oder den Container.

Mac/Linux Terminal
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash
✓ Geführter Installer bereit
2

Nächste Schritte

Der geführte Installer kann die Ersteinrichtung für dich abschließen.

# Was der Installer erledigen kann
Dagu zum PATH hinzufügen
Einen Hintergrunddienst einrichten
Den ersten Administrator anlegen und prüfen

Projekt-Community

Nutzung besprechen, Issues melden und die Entwicklung verfolgen.