आपकी मौजूदा ऑपरेशंस ऑटोमेशन के लिए self-hosted नियंत्रण-केंद्र।

Dagu scripts, cron jobs, containers, HTTP tasks, SQL jobs और approvals को एक ही ऐसी workflow प्रणाली में बदल देता है जो साफ़ दिखाई देती है, बिना आपको कुछ दोबारा लिखने पर मजबूर किए।

dagu server --port 8080
dagu कमांड इंस्टॉल करें
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash

गाइडेड इंस्टॉलर Dagu को PATH में जोड़ता है, बैकग्राउंड सर्विस सेट करता है और पहला एडमिन बनाता है ताकि आप workflows चलाना शुरू कर सकें।

Non-invasive

कोई SDK आवश्यक नहीं। आपकी business logic अछूती रहती है।

Lightweight

एक single binary, कोई required database या broker नहीं

Command-native

Scripts, containers, SSH tasks और HTTP calls चलाएं

एयर-गैप तैयार

पूरी तरह ऑफ़लाइन चलता है। किसी बाहरी सेवा की जरूरत नहीं।

workflow.yaml
# Existing scripts, now production workflows
name: "daily-ops"
schedule: "0 2 * * *"

steps:
- name: "backup-db"
command: "./scripts/backup-postgres.sh"
output: BACKUP_PATH

- name: "upload-backup"
command: "aws s3 cp $${BACKUP_PATH} s3://backups/"
depends: backup-db

- name: "notify"
type: http
depends: upload-backup

आम workflow step types

ऑपरेशंस टीमें Dagu क्यों चुनती हैं

डिफ़ॉल्ट रूप से यह self-hosted है। आपकी मौजूदा automation जस की तस रहती है। Dagu उसके चारों ओर निगरानी और ऑपरेटर नियंत्रण जोड़ता है।

चलाने में हल्का

Dagu एक single binary है, जिसे database, message broker या अलग control-plane stack की अनिवार्य जरूरत नहीं होती। एक machine से शुरू करें और workers तभी जोड़ें जब उनकी सचमुच आवश्यकता हो।

मिश्रित ऑपरेशंस ऑटोमेशन के लिए बना

पढ़ने में आसान YAML में schedules, dependencies, retries, queues, parameters, secrets, notifications, SSH steps, container steps, SQL jobs और distributed execution चलाएँ।

बिना दोबारा लिखे माइग्रेशन

आपके scripts, services, SQL, containers और operational commands जैसे हैं वैसे ही रहते हैं। Dagu उन्हें बाहर से orchestrate करता है, codebase पर कोई framework या SDK नहीं थोपता।

डिफ़ॉल्ट रूप से स्पष्ट दृश्यता

हर run को status, logs, history, timing और visual workflow view मिलता है, ताकि jobs crontabs और server log files में दबकर न रह जाएँ।

Deployment models

Dagu को local चलाएं, self-host करें, managed server इस्तेमाल करें, या cloud operations को private execution के साथ मिलाएं।

एक machine से शुरू करें। Self-hosted, managed या hybrid तक scale करें।

लोकल

एकल सर्वर

`dagu start-all` को एक machine पर local file-backed state के साथ चलाएं। Database, broker या platform stack की जरूरत नहीं।

सेल्फ-होस्टेड

आपकी infrastructure

Dagu server, workers, secrets, logs और execution को अपने environment में रखें।

Dagu Cloud

पूरी तरह प्रबंधित सर्वर

Dagu Cloud द्वारा GKE पर isolated gVisor instance में operated dedicated Dagu server इस्तेमाल करें।

हाइब्रिड

प्रबंधित सर्वर, निजी execution

Dagu Cloud server operate करे, और private workers Docker, private-network या data-local steps चलाएं।

Hybrid execution

Managed Dagu server
mTLS वाला private worker
Docker, private APIs, secrets और data-local work

Hybrid Dagu server को managed रखता है, जबकि जिस execution को आपकी network, runtime या data चाहिए वह आपके control में रहती है।

बिखरी हुई automation को बदलने से पहले क्या देखना चाहिए

अलग-अलग बिखरे jobs को एक ही नियंत्रण-केंद्र में लाने से पहले टीमें throughput, queues, recovery, governance, API access और worker execution पर ध्यान देती हैं।

हज़ारों/दिन

एक node की throughput क्षमता

Hardware, workflow के आकार, step duration और queue settings के आधार पर एक machine पर हर दिन हज़ारों workflow runs चलाए जा सकते हैं।

Queues + workers

Execution को नियंत्रण के साथ बढ़ाएँ

Load को काबू में रखने और jobs को अलग-अलग machines में बाँटने के लिए queues, concurrency limits और distributed workers का इस्तेमाल करें।

Catchup + retry

निर्धारित काम को फिर पटरी पर लाएँ

Cron schedules, catchup, durable automatic retries, timeouts, reruns, event handler scripts और email notifications failures को सँभालने लायक बनाए रखते हैं।

उपयोगकर्ता + API

टीम की तरह संचालित करें

साझा production workflows के लिए user management, RBAC, workspaces, approvals, secrets, REST API, CLI और webhooks का इस्तेमाल करें।

उपयोग मामले

यह उन संचालन कार्यों की व्यावहारिक सूची है जो scripts, cron jobs और ad hoc tasks से शुरू होते हैं, और बाद में ऐसी workflow प्रणाली की जरूरत पड़ती है जिसे लोग चला भी सकें और track भी कर सकें।

संचालन उपयोग मामले

Dagu उन टीमों के लिए सही है जिनका संचालन कार्य commands, scripts, containers, SQL jobs, HTTP tasks और remote servers में पहले से फैला हुआ है, और जिन्हें फिर scheduling, retries, observability और management का अधिक स्पष्ट तरीका चाहिए।

मौजूदा commands वैसे ही रहने दें। उनके चारों ओर visibility, retries, approvals और run history जोड़ दें।

01

उदाहरण / छिपा हुआ cron काम

Cron और पुराने scripts का प्रबंधन

मौजूदा shell scripts, Python scripts, HTTP calls और scheduled jobs को बिना rewrite किए Dagu में लाएँ।

छिपे हुए cron setups ऐसे visible, retryable workflows में बदल जाते हैं जिनमें logs, dependencies, history और operator controls एक साथ मिलते हैं।

Workflow इतना ठोस रहता है कि engineers उसे समझ सकें, और इतना स्पष्ट भी कि operators उसे आसानी से चला सकें।

02

Maintainable daily jobs

ETL और Data Operations

PostgreSQL या SQLite queries, S3 transfers, jq transforms, validation steps और reusable sub-workflows चलाएँ।

Daily data workflows declarative और observable रहते हैं, और किसी step के fail होने पर retry करना आसान होता है।

03

वितरित मीडिया कार्य

मीडिया रूपांतरण

ffmpeg, thumbnail extraction, audio normalization, image processing और दूसरे भारी compute jobs को workers पर चलाएँ।

रूपांतरण का काम distributed workers पर चल सकता है, जबकि status, history, logs और artifacts monitoring, debugging और retries के लिए एक ही persistence layer में सुरक्षित रहते हैं।

04

निर्धारित दूरस्थ कार्य

इन्फ्रास्ट्रक्चर और सर्वर ऑटोमेशन

SSH backups, cleanup jobs, deploy scripts, patch windows, precondition checks और lifecycle hooks को एक साथ समन्वित करें।

Remote operations को schedules, retries, notifications और per-step logs मिलते हैं, इसलिए हर recovery के लिए operators को अलग से SSH करने की जरूरत नहीं पड़ती।

05

Container-native pipelines

Container और Kubernetes Workflows

ऐसे workflows बनाएँ जिनमें हर step Docker image, Kubernetes Job, shell command या validation step चला सके।

Image-based tasks को सही workers पर route किया जा सकता है, containers के लिए custom control plane बनाए बिना।

06

गैर-इंजीनियर संचालन

ग्राहक सहायता ऑटोमेशन

जाँच, account repair jobs, data checks और approval-gated support actions को सरल Web UI से चलाएँ।

गैर-इंजीनियर भी reviewed workflows चला सकते हैं, जबकि engineers commands, logs और results की traceability बनाए रखते हैं।

07

Small devices, visible runs

IoT और Edge Workflows

छोटे devices पर sensor polling, local cleanup, offline sync, health checks और maintenance jobs चलाएँ।

Single binary और file-backed state edge devices पर अच्छी तरह काम करते हैं, और Web UI से visibility मिलती रहती है।

08

वैकल्पिक AI-सहायित संचालन

AI एजेंट वर्कफ़्लो

जब मॉडल की मदद सचमुच उपयोगी हो, तब AI coding agents, agent CLIs, agent-authored YAML workflows, log analysis, repair steps और human-reviewed automation चलाएँ।

AI workflow के भीतर एक सहायक क्षमता भर रहता है, सब कुछ चलाने वाली मुख्य चीज़ नहीं बनता।

साझा आधार

सादा YAMLकोई भी कमांडDocker और Kubernetes JobsSSHशेड्यूलपुनः प्रयासलॉगसूचनाएँ

सामान्य वर्कफ़्लो पैटर्न

Scripts, scheduled jobs, server tasks और controlled automation को एक workflow engine में लाएँ।

Health Check
SSH Backup
Notify

Script workflows

मौजूदा shell scripts, Docker commands, SSH tasks और HTTP calls को reliable workflows में बदलें।

  • 1मौजूदा scripts और commands को intact रखें
  • 2Containers, SSH tasks और HTTP steps को एक DAG में चलाएं
  • 3Fragile command chains की जगह dependencies इस्तेमाल करें
  • 4Failed steps को clear logs और history के साथ retry करें
workflow.yaml
steps:
  - name: health-check
    command: curl -sf http://app:8080/health

  - name: backup
    type: ssh
    config:
      host: db-server
      user: admin
    command: pg_dump mydb > /backups/daily.sql

  - name: notify
    type: http
    config:
      url: "https://hooks.slack.com/..."
      method: POST
    body: '{"text": "Backup complete"}'

Slack और Telegram के लिए Workflow Operator

Slack और Telegram के लिए स्थायी AI ऑपरेटर।विफलताओं को डीबग करें, कार्रवाइयों को मंज़ूरी दें, और बातचीत छोड़े बिना घटनाओं से उबरें।

DaguDagu
संदेश...

वास्तविक operations के लिए workflow engine features

Dagu आपके मौजूदा काम के चारों ओर production layer पर ध्यान देता है: schedules, dependencies, retries, logs, queues और controlled execution.

त्वरित शुरुआत गाइड

गाइडेड विज़ार्ड से Dagu इंस्टॉल करें, फिर पूरी installation guide या quickstart docs में आगे बढ़ें।

1

dagu कमांड इंस्टॉल करें

स्क्रिप्ट इंस्टॉलर सबसे आसान और सुझाया गया तरीका है। Homebrew, npm और Docker भी उपलब्ध हैं, लेकिन वे केवल बाइनरी या कंटेनर इंस्टॉल करते हैं।

Mac/Linux टर्मिनल
$curl -fsSL https://raw.githubusercontent.com/dagucloud/dagu/main/scripts/installer.sh | bash
✓ गाइडेड इंस्टॉलर तैयार है
2

अगला चरण

गाइडेड इंस्टॉलर आपके लिए पहली बार की सेटअप पूरी कर सकता है।

# इंस्टॉलर क्या कर सकता है
Dagu को PATH में जोड़ना
बैकग्राउंड सर्विस सेट करना
पहला एडमिन बनाना और सत्यापित करना

प्रोजेक्ट समुदाय

Usage पर चर्चा करें, issues रिपोर्ट करें, और development follow करें।