Léger à exploiter
Dagu est un seul binaire sans base de données, broker de messages ni stack de plan de contrôle obligatoires. Commencez sur une machine et ajoutez des workers seulement quand nécessaire.
Dagu transforme scripts, tâches cron, conteneurs, tâches HTTP, jobs SQL et validations en un système de workflows visible unique, sans imposer de réécriture.
L’installateur guidé ajoute Dagu au PATH, configure un service d’arrière-plan et crée le premier administrateur pour que vous puissiez lancer des workflows.
Pas de SDK requis. Votre logique métier reste intacte.
Un seul binaire, sans base de données ni broker obligatoires
Exécutez scripts, conteneurs, tâches SSH et appels HTTP
Fonctionne entièrement hors ligne. Aucun service externe requis.
Auto-hébergé par défaut. L’automatisation existante reste intacte. Dagu ajoute autour une couche de supervision et de contrôle opérateur.
Dagu est un seul binaire sans base de données, broker de messages ni stack de plan de contrôle obligatoires. Commencez sur une machine et ajoutez des workers seulement quand nécessaire.
Exécutez planifications, dépendances, reprises, files d’attente, paramètres, secrets, notifications, étapes SSH, étapes conteneur, jobs SQL et exécution distribuée dans un YAML lisible.
Vos scripts, services, SQL, conteneurs et commandes d'exploitation restent tels quels. Dagu orchestre autour d'eux au lieu d'imposer un framework ou un SDK dans votre code.
Chaque exécution reçoit statut, logs, historique, timing et vue visuelle du workflow, afin que les jobs ne disparaissent plus dans les crontabs et les logs serveur.
Modeles de deploiement
Executez Dagu localement, self-hostez-le, utilisez le managed server, ou combinez operations cloud et private execution.
Local
Executez `dagu start-all` sur une machine avec un etat local sur fichiers. Aucune base, aucun broker, aucun platform stack requis.
Auto-heberge
Gardez le Dagu server, les workers, les secrets, les logs et l'execution dans votre propre environnement.
Dagu Cloud
Utilisez un Dagu server dedie opere par Dagu Cloud dans une instance gVisor isolee sur GKE.
Hybride
Laissez Dagu Cloud operer le serveur pendant que des private workers executent les steps Docker, reseau prive ou data-local.
Hybrid execution
Hybrid garde le Dagu server managed pendant que l'execution qui a besoin de votre reseau, runtime ou data reste sous votre controle.
Les équipes examinent débit, files d’attente, reprise, gouvernance, accès API et exécution sur workers avant de déplacer des jobs dispersés vers un plan de contrôle unique.
Exécutez des milliers de workflows par jour sur une machine, selon le matériel, la forme du workflow, la durée des étapes et les paramètres de files.
Utilisez files d'attente, limites de concurrence et workers distribués pour contrôler la charge et répartir les jobs entre machines.
Les schedules cron, le catchup, les reprises automatiques durables, timeouts, reruns, scripts de gestion d'événements et notifications email rendent les échecs gérables.
Utilisez gestion des utilisateurs, RBAC, workspaces, approbations, secrets, REST API, CLI et webhooks pour des workflows de production partagés.
Cas d'utilisation
Un index pratique du travail opérationnel qui commence comme scripts, tâches cron et tâches ad hoc, puis nécessite un système de workflows que les équipes peuvent exécuter et suivre.
Dagu convient aux équipes dont le travail opérationnel est déjà réparti entre commandes, scripts, conteneurs, jobs SQL, tâches HTTP et serveurs distants, puis qui ont besoin d’un moyen plus clair de planifier, relancer, observer et piloter.
Gardez les commandes existantes. Ajoutez autour visibilité, reprises, validations et historique d’exécution.
Exemple / Travail cron caché
Intégrez des scripts shell, scripts Python, appels HTTP et jobs planifiés existants dans Dagu sans les réécrire.
Les crons cachés deviennent des workflows visibles, relançables, avec logs, dépendances, historique et contrôles opérateur.
Le workflow reste assez concret pour les ingénieurs et assez visible pour les opérateurs.
Jobs quotidiens maintenables
Exécutez requêtes PostgreSQL ou SQLite, transferts S3, transformations jq, validations et sous-workflows réutilisables.
Les workflows de données quotidiens restent déclaratifs, observables et faciles à relancer lorsqu’une étape échoue.
Traitement média distribué
Exécutez ffmpeg, extraction de vignettes, normalisation audio, traitement d’images et autres jobs lourds sur des workers.
La conversion peut tourner sur des workers distribués pendant que statuts, historiques, logs et artefacts restent dans une couche de persistance pour superviser, déboguer et relancer.
Jobs distants planifiés
Coordonnez sauvegardes SSH, nettoyages, scripts de déploiement, fenêtres de patch, préconditions et hooks de cycle de vie.
Les opérations distantes obtiennent planification, reprises, notifications et logs par étape sans SSH manuel pour chaque récupération.
Pipelines natifs conteneurs
Composez des workflows où chaque étape peut lancer une image Docker, un Job Kubernetes, une commande shell ou une validation.
Les tâches basées sur des images peuvent être routées vers les bons workers sans construire un plan de contrôle maison autour des conteneurs.
Opérations non-ingénieurs
Exécutez diagnostics, réparations de comptes, contrôles de données et actions avec approbation depuis une Web UI simple.
Les non-ingénieurs peuvent opérer des workflows revus, tandis que les ingénieurs gardent commandes, logs et résultats traçables.
Petits appareils, exécutions visibles
Exécutez collecte capteur, nettoyage local, synchronisation hors ligne, health checks et maintenance sur de petits appareils.
Le binaire unique et l’état fichier fonctionnent bien sur l’edge tout en gardant la visibilité via la Web UI.
Opérations assistées par IA en option
Exécutez des agents de codage IA, des CLI d’agents, des workflows YAML rédigés par des agents, de l’analyse de logs, des étapes de réparation et de l’automatisation revue par des humains quand l’aide du modèle est utile.
L’IA reste une capacité secondaire à l’intérieur du workflow au lieu de devenir le système qui exécute tout.
Point commun
Rassemblez scripts, jobs planifiés, tâches serveur et automatisation contrôlée dans un moteur de workflow.
Transformez scripts shell, commandes Docker, tâches SSH et appels HTTP existants en workflows fiables.
steps:
- name: health-check
command: curl -sf http://app:8080/health
- name: backup
type: ssh
config:
host: db-server
user: admin
command: pg_dump mydb > /backups/daily.sql
- name: notify
type: http
config:
url: "https://hooks.slack.com/..."
method: POST
body: '{"text": "Backup complete"}'
Opérateur IA persistant pour Slack et Telegram.
Déboguez les échecs, validez les actions et gérez les incidents sans quitter la conversation.
Dagu se concentre sur la couche de production autour de votre travail existant : planifications, dépendances, reprises, logs, files d'attente et exécution contrôlée.
Installez Dagu avec l’assistant guidé, puis continuez avec le guide d’installation complet ou le quickstart.
Les scripts d’installation sont le chemin recommandé. Homebrew, npm et Docker restent disponibles, mais ils n’installent que le binaire ou le conteneur.
L’installateur guidé peut terminer la configuration du premier lancement pour vous.
Discuter des usages, signaler des issues et suivre le développement.