El plano de control autoalojado para la automatización operativa que ya ejecutas.

Dagu convierte scripts, cron jobs, contenedores, tareas HTTP, jobs SQL y aprobaciones en un único sistema de workflows visible sin obligarte a reescribir nada.

Ver Ejemplos
Probar Demo en Vivo
Iniciar sesión condemouser / demouser
dagu server --port 8080
Instalar el comando dagu
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash

El instalador guiado añade Dagu al PATH, configura un servicio en segundo plano y crea el primer administrador para que puedas empezar a ejecutar workflows.

No invasivo

Sin SDK requerido. Tu lógica de negocio permanece intacta.

Ligero

Un solo binario, sin base de datos ni broker requeridos

Nativo de comandos

Ejecuta scripts, contenedores, tareas SSH y llamadas HTTP

Listo para Air-Gap

Funciona completamente sin conexión. Sin servicios externos.

workflow.yaml
# Existing scripts, now production workflows
name: "daily-ops"
schedule: "0 2 * * *"

steps:
- name: "backup-db"
command: "./scripts/backup-postgres.sh"
output: BACKUP_PATH

- name: "upload-backup"
command: "aws s3 cp $${BACKUP_PATH} s3://backups/"
depends: backup-db

- name: "notify"
type: http
depends: upload-backup

Tipos de pasos de workflow comunes

Por qué los equipos de operaciones eligen Dagu

Autoalojado por defecto. La automatización existente sigue intacta. Dagu añade supervisión y controles operativos a su alrededor.

Ligero de operar

Dagu es un solo binario sin base de datos, broker de mensajes ni stack de plano de control obligatorios. Empieza en una máquina y añade workers solo cuando los necesites.

Hecho para automatización operativa mixta

Ejecuta programaciones, dependencias, reintentos, colas, parámetros, secretos, notificaciones, pasos SSH, pasos de contenedor, jobs SQL y ejecución distribuida en YAML legible.

Migración sin reescrituras

Tus scripts, servicios, SQL, contenedores y comandos operativos se quedan como están. Dagu los orquesta desde fuera en vez de forzar un framework o SDK en tu código.

Visibilidad operativa por defecto

Cada ejecución tiene estado, logs, historial, tiempos y una vista visual del workflow, para que los jobs no desaparezcan en crontabs y logs de servidor.

Modelos de despliegue

Ejecuta Dagu local, self-hosted, con managed server, o combina operacion cloud con private execution.

Empieza en una maquina. Escala a self-hosted, managed o hybrid.

Local

Servidor unico

Ejecuta `dagu start-all` en una maquina con estado local respaldado por archivos. Sin database, broker ni platform stack.

Autoalojado

Tu infraestructura

Mantiene Dagu server, workers, secrets, logs y execution dentro de tu propio entorno.

Dagu Cloud

Servidor totalmente gestionado

Usa un Dagu server dedicado operado por Dagu Cloud en una instancia gVisor aislada en GKE.

Hibrido

Servidor gestionado, ejecucion privada

Deja que Dagu Cloud opere el server mientras private workers ejecutan Docker, private-network o data-local steps.

Hybrid execution

Managed Dagu server
Private worker por mTLS
Docker, private APIs, secrets y data-local work

Hybrid mantiene el Dagu server gestionado mientras la execution que necesita tu network, runtime o data permanece bajo tu control.

Qué revisar antes de sustituir automatización fragmentada

Los equipos revisan throughput, colas, recuperación, gobernanza, acceso por API y ejecución en workers antes de mover jobs dispersos a un único plano de control.

Miles/día

Throughput en un solo nodo

Ejecuta miles de workflows por día en una máquina, según el hardware, la forma del workflow, la duración de los pasos y la configuración de colas.

Colas + workers

Escalar la ejecución con control

Usa colas, límites de concurrencia y workers distribuidos para controlar la carga y repartir jobs entre máquinas.

Catchup + retry

Recuperar trabajo programado

Schedules cron, catchup, reintentos automáticos durables, timeouts, reruns, scripts de event handler y notificaciones por email mantienen los fallos manejables.

Usuarios + API

Operar como equipo

Usa gestión de usuarios, RBAC, workspaces, aprobaciones, secretos, REST API, CLI y webhooks para workflows de producción compartidos.

Casos de uso

Un índice práctico del trabajo operativo que empieza como scripts, cron jobs y tareas ad hoc, y luego necesita un sistema de workflows que la gente pueda ejecutar y seguir.

Casos operativos

Dagu encaja en equipos donde el trabajo operativo ya está repartido entre comandos, scripts, contenedores, jobs SQL, tareas HTTP y servidores remotos, y luego necesita una forma más clara de programar, reintentar, observar y gestionarlo.

Mantén los comandos existentes. Añade visibilidad, reintentos, aprobaciones e historial de ejecución a su alrededor.

01

Ejemplo / Trabajo cron oculto

Gestión de Cron y Scripts Heredados

Lleva scripts shell, scripts Python, llamadas HTTP y trabajos programados existentes a Dagu sin reescribirlos.

Los entornos cron ocultos se convierten en workflows visibles, reintentables, con logs, dependencias, historial y controles operativos.

El workflow sigue siendo lo bastante concreto para ingeniería y lo bastante visible para operaciones.

02

Jobs diarios mantenibles

ETL y Operaciones de Datos

Ejecuta consultas PostgreSQL o SQLite, transferencias S3, transformaciones jq, validaciones y sub-workflows reutilizables.

Los workflows diarios de datos siguen declarativos, observables y fáciles de reintentar cuando falla un paso.

03

Trabajo multimedia distribuido

Conversión de Medios

Ejecuta ffmpeg, extracción de miniaturas, normalización de audio, procesamiento de imágenes y otros trabajos pesados en workers.

La conversión puede ejecutarse en workers distribuidos mientras estado, historial, logs y artefactos quedan en una capa de persistencia para monitoreo, depuración y reintentos.

04

Jobs remotos programados

Automatización de Infraestructura y Servidores

Coordina backups por SSH, limpiezas, scripts de despliegue, ventanas de parches, precondiciones y lifecycle hooks.

Las operaciones remotas obtienen horarios, reintentos, notificaciones y logs por paso sin que operadores entren por SSH para cada recuperación.

05

Pipelines nativos de contenedores

Workflows de Contenedores y Kubernetes

Compón workflows donde cada paso puede ejecutar una imagen Docker, un Job de Kubernetes, un comando shell o una validación.

Las tareas basadas en imágenes se pueden dirigir a los workers correctos sin construir un plano de control propio alrededor de contenedores.

06

Operaciones para no ingenieros

Automatización de Soporte al Cliente

Ejecuta diagnósticos, reparaciones de cuentas, comprobaciones de datos y acciones con aprobación desde una Web UI simple.

Personas no ingenieras pueden operar workflows revisados mientras ingeniería mantiene comandos, logs y resultados trazables.

07

Dispositivos pequeños, ejecuciones visibles

Workflows IoT y Edge

Ejecuta lectura de sensores, limpieza local, sincronización offline, health checks y mantenimiento en dispositivos pequeños.

El binario único y el estado basado en archivos funcionan bien en edge, manteniendo visibilidad desde la Web UI.

08

Operaciones asistidas por IA opcionales

Workflows con Agentes de IA

Ejecuta agentes de codificación con IA, CLIs de agentes, workflows YAML escritos por agentes, análisis de logs, pasos de reparación y automatización revisada por humanos cuando la ayuda del modelo resulte útil.

La IA sigue siendo una capacidad secundaria dentro del workflow, en lugar de convertirse en lo que ejecuta todo.

Hilo común

YAML simpleCualquier comandoDocker y Kubernetes JobsSSHProgramacionesReintentosLogsNotificaciones

Patrones comunes de workflow

Lleva scripts, jobs programados, tareas de servidor y automatización controlada a un solo motor de workflow.

Health Check
SSH Backup
Notify

Workflows de scripts

Convierte scripts shell, comandos Docker, tareas SSH y llamadas HTTP existentes en workflows fiables.

  • 1Mantén intactos los scripts y comandos existentes
  • 2Ejecuta contenedores, tareas SSH y pasos HTTP en un solo DAG
  • 3Usa dependencias en lugar de cadenas frágiles de comandos
  • 4Reintenta pasos fallidos con logs e historial claros
workflow.yaml
steps:
  - name: health-check
    command: curl -sf http://app:8080/health

  - name: backup
    type: ssh
    config:
      host: db-server
      user: admin
    command: pg_dump mydb > /backups/daily.sql

  - name: notify
    type: http
    config:
      url: "https://hooks.slack.com/..."
      method: POST
    body: '{"text": "Backup complete"}'

Workflow Operator para Slack y Telegram

Operador de IA persistente para Slack y Telegram.Depura fallos, aprueba acciones y recupérate de incidentes sin salir de la conversación.

DaguDagu
Mensaje...

Funciones de motor de workflow para operaciones reales

Dagu se centra en la capa de producción alrededor del trabajo que ya tienes: programaciones, dependencias, reintentos, logs, colas y ejecución controlada.

Guía de Inicio Rápido

Instala Dagu con el asistente guiado y luego continúa en la guía completa de instalación o en la guía rápida.

1

Instalar el comando dagu

Los instaladores por script son la ruta recomendada. Homebrew, npm y Docker siguen disponibles, pero solo instalan el binario o el contenedor.

Mac/Linux Terminal
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash
✓ Instalador guiado listo
2

Siguientes pasos

El instalador guiado puede completar por ti la configuración inicial.

# Lo que puede hacer el instalador
Añadir Dagu al PATH
Configurar un servicio en segundo plano
Crear y verificar el primer administrador

Comunidad del proyecto

Debate el uso, reporta issues y sigue el desarrollo.