Le plan de contrôle auto-hébergé pour l’automatisation des opérations que vous exécutez déjà.

Dagu transforme scripts, tâches cron, conteneurs, tâches HTTP, jobs SQL et validations en un système de workflows visible unique, sans imposer de réécriture.

dagu server --port 8080
Installer la commande dagu
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash

L’installateur guidé ajoute Dagu au PATH, configure un service d’arrière-plan et crée le premier administrateur pour que vous puissiez lancer des workflows.

Non invasif

Pas de SDK requis. Votre logique métier reste intacte.

Léger

Un seul binaire, sans base de données ni broker obligatoires

Natif des commandes

Exécutez scripts, conteneurs, tâches SSH et appels HTTP

Prêt pour l'air-gap

Fonctionne entièrement hors ligne. Aucun service externe requis.

workflow.yaml
# Existing scripts, now production workflows
name: "daily-ops"
schedule: "0 2 * * *"

steps:
- name: "backup-db"
command: "./scripts/backup-postgres.sh"
output: BACKUP_PATH

- name: "upload-backup"
command: "aws s3 cp $${BACKUP_PATH} s3://backups/"
depends: backup-db

- name: "notify"
type: http
depends: upload-backup

Types d'étapes de workflow courants

Pourquoi les équipes ops choisissent Dagu

Auto-hébergé par défaut. L’automatisation existante reste intacte. Dagu ajoute autour une couche de supervision et de contrôle opérateur.

Léger à exploiter

Dagu est un seul binaire sans base de données, broker de messages ni stack de plan de contrôle obligatoires. Commencez sur une machine et ajoutez des workers seulement quand nécessaire.

Conçu pour une automatisation ops hétérogène

Exécutez planifications, dépendances, reprises, files d’attente, paramètres, secrets, notifications, étapes SSH, étapes conteneur, jobs SQL et exécution distribuée dans un YAML lisible.

Migration sans réécriture

Vos scripts, services, SQL, conteneurs et commandes d'exploitation restent tels quels. Dagu orchestre autour d'eux au lieu d'imposer un framework ou un SDK dans votre code.

Visibilité opérateur par défaut

Chaque exécution reçoit statut, logs, historique, timing et vue visuelle du workflow, afin que les jobs ne disparaissent plus dans les crontabs et les logs serveur.

Modeles de deploiement

Executez Dagu localement, self-hostez-le, utilisez le managed server, ou combinez operations cloud et private execution.

Demarrez sur une machine. Passez au self-hosted, managed ou hybrid.

Local

Serveur unique

Executez `dagu start-all` sur une machine avec un etat local sur fichiers. Aucune base, aucun broker, aucun platform stack requis.

Auto-heberge

Votre infrastructure

Gardez le Dagu server, les workers, les secrets, les logs et l'execution dans votre propre environnement.

Dagu Cloud

Serveur entierement gere

Utilisez un Dagu server dedie opere par Dagu Cloud dans une instance gVisor isolee sur GKE.

Hybride

Serveur gere, execution privee

Laissez Dagu Cloud operer le serveur pendant que des private workers executent les steps Docker, reseau prive ou data-local.

Hybrid execution

Managed Dagu server
Private worker via mTLS
Docker, private APIs, secrets et travail data-local

Hybrid garde le Dagu server managed pendant que l'execution qui a besoin de votre reseau, runtime ou data reste sous votre controle.

Que vérifier avant de remplacer une automatisation fragmentée

Les équipes examinent débit, files d’attente, reprise, gouvernance, accès API et exécution sur workers avant de déplacer des jobs dispersés vers un plan de contrôle unique.

Milliers/jour

Débit sur un seul noeud

Exécutez des milliers de workflows par jour sur une machine, selon le matériel, la forme du workflow, la durée des étapes et les paramètres de files.

Files + workers

Faire évoluer l'exécution avec contrôle

Utilisez files d'attente, limites de concurrence et workers distribués pour contrôler la charge et répartir les jobs entre machines.

Catchup + retry

Reprendre le travail planifié

Les schedules cron, le catchup, les reprises automatiques durables, timeouts, reruns, scripts de gestion d'événements et notifications email rendent les échecs gérables.

Utilisateurs + API

Exploiter en équipe

Utilisez gestion des utilisateurs, RBAC, workspaces, approbations, secrets, REST API, CLI et webhooks pour des workflows de production partagés.

Cas d'utilisation

Un index pratique du travail opérationnel qui commence comme scripts, tâches cron et tâches ad hoc, puis nécessite un système de workflows que les équipes peuvent exécuter et suivre.

Cas d’usage opérationnels

Dagu convient aux équipes dont le travail opérationnel est déjà réparti entre commandes, scripts, conteneurs, jobs SQL, tâches HTTP et serveurs distants, puis qui ont besoin d’un moyen plus clair de planifier, relancer, observer et piloter.

Gardez les commandes existantes. Ajoutez autour visibilité, reprises, validations et historique d’exécution.

01

Exemple / Travail cron caché

Gestion de Cron et Scripts Hérités

Intégrez des scripts shell, scripts Python, appels HTTP et jobs planifiés existants dans Dagu sans les réécrire.

Les crons cachés deviennent des workflows visibles, relançables, avec logs, dépendances, historique et contrôles opérateur.

Le workflow reste assez concret pour les ingénieurs et assez visible pour les opérateurs.

02

Jobs quotidiens maintenables

ETL et Opérations de Données

Exécutez requêtes PostgreSQL ou SQLite, transferts S3, transformations jq, validations et sous-workflows réutilisables.

Les workflows de données quotidiens restent déclaratifs, observables et faciles à relancer lorsqu’une étape échoue.

03

Traitement média distribué

Conversion Média

Exécutez ffmpeg, extraction de vignettes, normalisation audio, traitement d’images et autres jobs lourds sur des workers.

La conversion peut tourner sur des workers distribués pendant que statuts, historiques, logs et artefacts restent dans une couche de persistance pour superviser, déboguer et relancer.

04

Jobs distants planifiés

Automatisation Infrastructure et Serveurs

Coordonnez sauvegardes SSH, nettoyages, scripts de déploiement, fenêtres de patch, préconditions et hooks de cycle de vie.

Les opérations distantes obtiennent planification, reprises, notifications et logs par étape sans SSH manuel pour chaque récupération.

05

Pipelines natifs conteneurs

Workflows Conteneurs et Kubernetes

Composez des workflows où chaque étape peut lancer une image Docker, un Job Kubernetes, une commande shell ou une validation.

Les tâches basées sur des images peuvent être routées vers les bons workers sans construire un plan de contrôle maison autour des conteneurs.

06

Opérations non-ingénieurs

Automatisation du Support Client

Exécutez diagnostics, réparations de comptes, contrôles de données et actions avec approbation depuis une Web UI simple.

Les non-ingénieurs peuvent opérer des workflows revus, tandis que les ingénieurs gardent commandes, logs et résultats traçables.

07

Petits appareils, exécutions visibles

Workflows IoT et Edge

Exécutez collecte capteur, nettoyage local, synchronisation hors ligne, health checks et maintenance sur de petits appareils.

Le binaire unique et l’état fichier fonctionnent bien sur l’edge tout en gardant la visibilité via la Web UI.

08

Opérations assistées par IA en option

Workflows avec agents IA

Exécutez des agents de codage IA, des CLI d’agents, des workflows YAML rédigés par des agents, de l’analyse de logs, des étapes de réparation et de l’automatisation revue par des humains quand l’aide du modèle est utile.

L’IA reste une capacité secondaire à l’intérieur du workflow au lieu de devenir le système qui exécute tout.

Point commun

YAML simpleToute commandeDocker et Kubernetes JobsSSHPlanificationsRelancesLogsNotifications

Modèles de workflow courants

Rassemblez scripts, jobs planifiés, tâches serveur et automatisation contrôlée dans un moteur de workflow.

Health Check
SSH Backup
Notify

Workflows de scripts

Transformez scripts shell, commandes Docker, tâches SSH et appels HTTP existants en workflows fiables.

  • 1Gardez les scripts et commandes existants intacts
  • 2Exécutez conteneurs, tâches SSH et étapes HTTP dans un seul DAG
  • 3Utilisez des dépendances plutôt que des chaînes de commandes fragiles
  • 4Relancez les étapes échouées avec logs et historique clairs
workflow.yaml
steps:
  - name: health-check
    command: curl -sf http://app:8080/health

  - name: backup
    type: ssh
    config:
      host: db-server
      user: admin
    command: pg_dump mydb > /backups/daily.sql

  - name: notify
    type: http
    config:
      url: "https://hooks.slack.com/..."
      method: POST
    body: '{"text": "Backup complete"}'

Workflow Operator pour Slack et Telegram

Opérateur IA persistant pour Slack et Telegram.Déboguez les échecs, validez les actions et gérez les incidents sans quitter la conversation.

DaguDagu
Message...

Fonctions de moteur de workflow pour les opérations réelles

Dagu se concentre sur la couche de production autour de votre travail existant : planifications, dépendances, reprises, logs, files d'attente et exécution contrôlée.

Guide de démarrage rapide

Installez Dagu avec l’assistant guidé, puis continuez avec le guide d’installation complet ou le quickstart.

1

Installer la commande dagu

Les scripts d’installation sont le chemin recommandé. Homebrew, npm et Docker restent disponibles, mais ils n’installent que le binaire ou le conteneur.

Mac/Linux Terminal
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash
✓ Assistant d’installation prêt
2

Suite

L’installateur guidé peut terminer la configuration du premier lancement pour vous.

# Ce que l’installateur peut faire
Ajouter Dagu au PATH
Configurer un service d’arrière-plan
Créer et vérifier le premier administrateur

Communauté du projet

Discuter des usages, signaler des issues et suivre le développement.