Ligero de operar
Dagu es un solo binario sin base de datos, broker de mensajes ni stack de plano de control obligatorios. Empieza en una máquina y añade workers solo cuando los necesites.
Dagu convierte scripts, cron jobs, contenedores, tareas HTTP, jobs SQL y aprobaciones en un único sistema de workflows visible sin obligarte a reescribir nada.
El instalador guiado añade Dagu al PATH, configura un servicio en segundo plano y crea el primer administrador para que puedas empezar a ejecutar workflows.
Sin SDK requerido. Tu lógica de negocio permanece intacta.
Un solo binario, sin base de datos ni broker requeridos
Ejecuta scripts, contenedores, tareas SSH y llamadas HTTP
Funciona completamente sin conexión. Sin servicios externos.
Autoalojado por defecto. La automatización existente sigue intacta. Dagu añade supervisión y controles operativos a su alrededor.
Dagu es un solo binario sin base de datos, broker de mensajes ni stack de plano de control obligatorios. Empieza en una máquina y añade workers solo cuando los necesites.
Ejecuta programaciones, dependencias, reintentos, colas, parámetros, secretos, notificaciones, pasos SSH, pasos de contenedor, jobs SQL y ejecución distribuida en YAML legible.
Tus scripts, servicios, SQL, contenedores y comandos operativos se quedan como están. Dagu los orquesta desde fuera en vez de forzar un framework o SDK en tu código.
Cada ejecución tiene estado, logs, historial, tiempos y una vista visual del workflow, para que los jobs no desaparezcan en crontabs y logs de servidor.
Modelos de despliegue
Ejecuta Dagu local, self-hosted, con managed server, o combina operacion cloud con private execution.
Local
Ejecuta `dagu start-all` en una maquina con estado local respaldado por archivos. Sin database, broker ni platform stack.
Autoalojado
Mantiene Dagu server, workers, secrets, logs y execution dentro de tu propio entorno.
Dagu Cloud
Usa un Dagu server dedicado operado por Dagu Cloud en una instancia gVisor aislada en GKE.
Hibrido
Deja que Dagu Cloud opere el server mientras private workers ejecutan Docker, private-network o data-local steps.
Hybrid execution
Hybrid mantiene el Dagu server gestionado mientras la execution que necesita tu network, runtime o data permanece bajo tu control.
Los equipos revisan throughput, colas, recuperación, gobernanza, acceso por API y ejecución en workers antes de mover jobs dispersos a un único plano de control.
Ejecuta miles de workflows por día en una máquina, según el hardware, la forma del workflow, la duración de los pasos y la configuración de colas.
Usa colas, límites de concurrencia y workers distribuidos para controlar la carga y repartir jobs entre máquinas.
Schedules cron, catchup, reintentos automáticos durables, timeouts, reruns, scripts de event handler y notificaciones por email mantienen los fallos manejables.
Usa gestión de usuarios, RBAC, workspaces, aprobaciones, secretos, REST API, CLI y webhooks para workflows de producción compartidos.
Casos de uso
Un índice práctico del trabajo operativo que empieza como scripts, cron jobs y tareas ad hoc, y luego necesita un sistema de workflows que la gente pueda ejecutar y seguir.
Dagu encaja en equipos donde el trabajo operativo ya está repartido entre comandos, scripts, contenedores, jobs SQL, tareas HTTP y servidores remotos, y luego necesita una forma más clara de programar, reintentar, observar y gestionarlo.
Mantén los comandos existentes. Añade visibilidad, reintentos, aprobaciones e historial de ejecución a su alrededor.
Ejemplo / Trabajo cron oculto
Lleva scripts shell, scripts Python, llamadas HTTP y trabajos programados existentes a Dagu sin reescribirlos.
Los entornos cron ocultos se convierten en workflows visibles, reintentables, con logs, dependencias, historial y controles operativos.
El workflow sigue siendo lo bastante concreto para ingeniería y lo bastante visible para operaciones.
Jobs diarios mantenibles
Ejecuta consultas PostgreSQL o SQLite, transferencias S3, transformaciones jq, validaciones y sub-workflows reutilizables.
Los workflows diarios de datos siguen declarativos, observables y fáciles de reintentar cuando falla un paso.
Trabajo multimedia distribuido
Ejecuta ffmpeg, extracción de miniaturas, normalización de audio, procesamiento de imágenes y otros trabajos pesados en workers.
La conversión puede ejecutarse en workers distribuidos mientras estado, historial, logs y artefactos quedan en una capa de persistencia para monitoreo, depuración y reintentos.
Jobs remotos programados
Coordina backups por SSH, limpiezas, scripts de despliegue, ventanas de parches, precondiciones y lifecycle hooks.
Las operaciones remotas obtienen horarios, reintentos, notificaciones y logs por paso sin que operadores entren por SSH para cada recuperación.
Pipelines nativos de contenedores
Compón workflows donde cada paso puede ejecutar una imagen Docker, un Job de Kubernetes, un comando shell o una validación.
Las tareas basadas en imágenes se pueden dirigir a los workers correctos sin construir un plano de control propio alrededor de contenedores.
Operaciones para no ingenieros
Ejecuta diagnósticos, reparaciones de cuentas, comprobaciones de datos y acciones con aprobación desde una Web UI simple.
Personas no ingenieras pueden operar workflows revisados mientras ingeniería mantiene comandos, logs y resultados trazables.
Dispositivos pequeños, ejecuciones visibles
Ejecuta lectura de sensores, limpieza local, sincronización offline, health checks y mantenimiento en dispositivos pequeños.
El binario único y el estado basado en archivos funcionan bien en edge, manteniendo visibilidad desde la Web UI.
Operaciones asistidas por IA opcionales
Ejecuta agentes de codificación con IA, CLIs de agentes, workflows YAML escritos por agentes, análisis de logs, pasos de reparación y automatización revisada por humanos cuando la ayuda del modelo resulte útil.
La IA sigue siendo una capacidad secundaria dentro del workflow, en lugar de convertirse en lo que ejecuta todo.
Hilo común
Lleva scripts, jobs programados, tareas de servidor y automatización controlada a un solo motor de workflow.
Convierte scripts shell, comandos Docker, tareas SSH y llamadas HTTP existentes en workflows fiables.
steps:
- name: health-check
command: curl -sf http://app:8080/health
- name: backup
type: ssh
config:
host: db-server
user: admin
command: pg_dump mydb > /backups/daily.sql
- name: notify
type: http
config:
url: "https://hooks.slack.com/..."
method: POST
body: '{"text": "Backup complete"}'
Operador de IA persistente para Slack y Telegram.
Depura fallos, aprueba acciones y recupérate de incidentes sin salir de la conversación.
Dagu se centra en la capa de producción alrededor del trabajo que ya tienes: programaciones, dependencias, reintentos, logs, colas y ejecución controlada.
Instala Dagu con el asistente guiado y luego continúa en la guía completa de instalación o en la guía rápida.
Los instaladores por script son la ruta recomendada. Homebrew, npm y Docker siguen disponibles, pero solo instalan el binario o el contenedor.
El instalador guiado puede completar por ti la configuración inicial.
Debate el uso, reporta issues y sigue el desarrollo.