Leve para operar
O Dagu é um único binário sem banco de dados, message broker ou stack de plano de controle obrigatórios. Comece em uma máquina e adicione workers só quando precisar.
O Dagu transforma scripts, cron jobs, contêineres, tarefas HTTP, jobs SQL e aprovações em um único sistema de workflows visível, sem forçar reescrita.
O instalador guiado adiciona o Dagu ao PATH, configura um serviço em segundo plano e cria o primeiro administrador para você começar a executar workflows.
Sem SDK necessário. Sua lógica de negócio permanece intacta.
Um único binário, sem banco de dados ou broker obrigatórios
Execute scripts, contêineres, tarefas SSH e chamadas HTTP
Funciona totalmente offline. Sem serviços externos necessários.
Auto-hospedado por padrão. A automação existente continua intacta. O Dagu acrescenta supervisão e controles operacionais ao redor dela.
O Dagu é um único binário sem banco de dados, message broker ou stack de plano de controle obrigatórios. Comece em uma máquina e adicione workers só quando precisar.
Execute agendamentos, dependências, tentativas, filas, parâmetros, segredos, notificações, etapas SSH, etapas de contêiner, jobs SQL e execução distribuída em YAML legível.
Seus scripts, serviços, SQL, contêineres e comandos operacionais ficam como estão. O Dagu orquestra ao redor deles em vez de impor um framework ou SDK ao seu código.
Toda execução recebe status, logs, histórico, tempos e uma visão visual do workflow, para que jobs não desapareçam em crontabs e logs de servidor.
Modelos de deployment
Execute Dagu localmente, self-hosted, com managed server, ou combine operacao cloud com private execution.
Local
Execute `dagu start-all` em uma maquina com estado local baseado em arquivos. Sem database, broker ou platform stack.
Auto-hospedado
Mantenha Dagu server, workers, secrets, logs e execution dentro do seu proprio ambiente.
Dagu Cloud
Use um Dagu server dedicado operado pelo Dagu Cloud em uma instancia gVisor isolada no GKE.
Hibrido
Deixe o Dagu Cloud operar o server enquanto private workers executam Docker, private-network ou data-local steps.
Hybrid execution
Hybrid mantem o Dagu server gerenciado enquanto a execution que precisa da sua network, runtime ou data fica sob seu controle.
As equipes analisam throughput, filas, recuperação, governança, acesso por API e execução em workers antes de mover jobs espalhados para um único plano de controle.
Execute milhares de workflows por dia em uma máquina, dependendo do hardware, do formato do workflow, da duração das etapas e das configurações de filas.
Use filas, limites de concorrência e workers distribuídos para controlar carga e espalhar jobs entre máquinas.
Schedules cron, catchup, retentativas automáticas duráveis, timeouts, reruns, scripts de event handler e notificações por email mantêm falhas gerenciáveis.
Use gestão de usuários, RBAC, workspaces, aprovações, segredos, REST API, CLI e webhooks para workflows de produção compartilhados.
Casos de uso
Um índice prático do trabalho operacional que começa como scripts, cron jobs e tarefas ad hoc, e depois precisa de um sistema de workflows que as pessoas consigam executar e acompanhar.
O Dagu se encaixa em equipes cujo trabalho operacional já está espalhado entre comandos, scripts, contêineres, jobs SQL, tarefas HTTP e servidores remotos, e que depois precisam de uma forma mais clara de agendar, repetir, observar e gerenciar.
Mantenha os comandos existentes. Adicione visibilidade, tentativas, aprovações e histórico de execução ao redor deles.
Exemplo / Trabalho cron escondido
Leve scripts shell, scripts Python, chamadas HTTP e jobs agendados existentes para o Dagu sem reescrevê-los.
Ambientes cron escondidos viram workflows visíveis, com tentativas, logs, dependências, histórico e controles do operador.
O workflow continua concreto o bastante para engenheiros e visível o bastante para operadores.
Jobs diários fáceis de manter
Execute consultas PostgreSQL ou SQLite, transferências S3, transformações jq, validações e sub-workflows reutilizáveis.
Workflows diários de dados permanecem declarativos, observáveis e fáceis de tentar novamente quando uma etapa falha.
Trabalho de mídia distribuído
Execute ffmpeg, extração de thumbnails, normalização de áudio, processamento de imagens e outros jobs pesados em workers.
A conversão pode rodar em workers distribuídos enquanto status, histórico, logs e artefatos ficam em uma camada de persistência para monitoramento, debug e novas tentativas.
Jobs remotos agendados
Coordene backups via SSH, limpezas, scripts de deploy, janelas de patch, pré-condições e hooks de ciclo de vida.
Operações remotas ganham agenda, tentativas, notificações e logs por etapa sem exigir SSH dos operadores a cada recuperação.
Pipelines nativos de contêiner
Componha workflows em que cada etapa pode executar uma imagem Docker, um Job Kubernetes, um comando shell ou uma validação.
Tarefas baseadas em imagem podem ser roteadas para os workers certos sem criar um plano de controle próprio ao redor de contêineres.
Operações para não engenheiros
Execute diagnósticos, reparos de conta, checagens de dados e ações com aprovação por uma Web UI simples.
Pessoas não engenheiras podem operar workflows revisados enquanto engenharia mantém comandos, logs e resultados rastreáveis.
Dispositivos pequenos, execuções visíveis
Execute leitura de sensores, limpeza local, sincronização offline, health checks e manutenção em dispositivos pequenos.
O binário único e o estado baseado em arquivos funcionam bem no edge, mantendo visibilidade pela Web UI.
Operações com assistência de IA opcional
Execute agentes de codificação com IA, CLIs de agentes, workflows YAML escritos por agentes, análise de logs, etapas de reparo e automação revisada por humanos quando a ajuda do modelo for útil.
A IA continua sendo uma capacidade secundária dentro do workflow, em vez de se tornar o que executa tudo.
Ponto em comum
Leve scripts, jobs agendados, tarefas de servidor e automação controlada para um único mecanismo de workflow.
Transforme scripts shell, comandos Docker, tarefas SSH e chamadas HTTP existentes em workflows confiáveis.
steps:
- name: health-check
command: curl -sf http://app:8080/health
- name: backup
type: ssh
config:
host: db-server
user: admin
command: pg_dump mydb > /backups/daily.sql
- name: notify
type: http
config:
url: "https://hooks.slack.com/..."
method: POST
body: '{"text": "Backup complete"}'
Operador de IA persistente para Slack e Telegram.
Depure falhas, aprove ações e recupere incidentes sem sair da conversa.
O Dagu foca na camada de produção ao redor do trabalho que você já tem: agendamentos, dependências, tentativas, logs, filas e execução controlada.
Instale o Dagu com o assistente guiado e depois siga para o guia completo de instalação ou para o quickstart.
Os instaladores por script são o caminho recomendado. Homebrew, npm e Docker continuam disponíveis, mas fazem apenas a instalação do binário ou do contêiner.
O instalador guiado pode concluir a configuração inicial para você.
Discuta uso, reporte issues e acompanhe o desenvolvimento.