चलाने में हल्का
Dagu एक single binary है, जिसे database, message broker या अलग control-plane stack की अनिवार्य जरूरत नहीं होती। एक machine से शुरू करें और workers तभी जोड़ें जब उनकी सचमुच आवश्यकता हो।
Dagu scripts, cron jobs, containers, HTTP tasks, SQL jobs और approvals को एक ही ऐसी workflow प्रणाली में बदल देता है जो साफ़ दिखाई देती है, बिना आपको कुछ दोबारा लिखने पर मजबूर किए।
गाइडेड इंस्टॉलर Dagu को PATH में जोड़ता है, बैकग्राउंड सर्विस सेट करता है और पहला एडमिन बनाता है ताकि आप workflows चलाना शुरू कर सकें।
कोई SDK आवश्यक नहीं। आपकी business logic अछूती रहती है।
एक single binary, कोई required database या broker नहीं
Scripts, containers, SSH tasks और HTTP calls चलाएं
पूरी तरह ऑफ़लाइन चलता है। किसी बाहरी सेवा की जरूरत नहीं।
डिफ़ॉल्ट रूप से यह self-hosted है। आपकी मौजूदा automation जस की तस रहती है। Dagu उसके चारों ओर निगरानी और ऑपरेटर नियंत्रण जोड़ता है।
Dagu एक single binary है, जिसे database, message broker या अलग control-plane stack की अनिवार्य जरूरत नहीं होती। एक machine से शुरू करें और workers तभी जोड़ें जब उनकी सचमुच आवश्यकता हो।
पढ़ने में आसान YAML में schedules, dependencies, retries, queues, parameters, secrets, notifications, SSH steps, container steps, SQL jobs और distributed execution चलाएँ।
आपके scripts, services, SQL, containers और operational commands जैसे हैं वैसे ही रहते हैं। Dagu उन्हें बाहर से orchestrate करता है, codebase पर कोई framework या SDK नहीं थोपता।
हर run को status, logs, history, timing और visual workflow view मिलता है, ताकि jobs crontabs और server log files में दबकर न रह जाएँ।
Deployment models
Dagu को local चलाएं, self-host करें, managed server इस्तेमाल करें, या cloud operations को private execution के साथ मिलाएं।
लोकल
`dagu start-all` को एक machine पर local file-backed state के साथ चलाएं। Database, broker या platform stack की जरूरत नहीं।
सेल्फ-होस्टेड
Dagu server, workers, secrets, logs और execution को अपने environment में रखें।
Dagu Cloud
Dagu Cloud द्वारा GKE पर isolated gVisor instance में operated dedicated Dagu server इस्तेमाल करें।
हाइब्रिड
Dagu Cloud server operate करे, और private workers Docker, private-network या data-local steps चलाएं।
Hybrid execution
Hybrid Dagu server को managed रखता है, जबकि जिस execution को आपकी network, runtime या data चाहिए वह आपके control में रहती है।
अलग-अलग बिखरे jobs को एक ही नियंत्रण-केंद्र में लाने से पहले टीमें throughput, queues, recovery, governance, API access और worker execution पर ध्यान देती हैं।
Hardware, workflow के आकार, step duration और queue settings के आधार पर एक machine पर हर दिन हज़ारों workflow runs चलाए जा सकते हैं।
Load को काबू में रखने और jobs को अलग-अलग machines में बाँटने के लिए queues, concurrency limits और distributed workers का इस्तेमाल करें।
Cron schedules, catchup, durable automatic retries, timeouts, reruns, event handler scripts और email notifications failures को सँभालने लायक बनाए रखते हैं।
साझा production workflows के लिए user management, RBAC, workspaces, approvals, secrets, REST API, CLI और webhooks का इस्तेमाल करें।
उपयोग मामले
यह उन संचालन कार्यों की व्यावहारिक सूची है जो scripts, cron jobs और ad hoc tasks से शुरू होते हैं, और बाद में ऐसी workflow प्रणाली की जरूरत पड़ती है जिसे लोग चला भी सकें और track भी कर सकें।
Dagu उन टीमों के लिए सही है जिनका संचालन कार्य commands, scripts, containers, SQL jobs, HTTP tasks और remote servers में पहले से फैला हुआ है, और जिन्हें फिर scheduling, retries, observability और management का अधिक स्पष्ट तरीका चाहिए।
मौजूदा commands वैसे ही रहने दें। उनके चारों ओर visibility, retries, approvals और run history जोड़ दें।
उदाहरण / छिपा हुआ cron काम
मौजूदा shell scripts, Python scripts, HTTP calls और scheduled jobs को बिना rewrite किए Dagu में लाएँ।
छिपे हुए cron setups ऐसे visible, retryable workflows में बदल जाते हैं जिनमें logs, dependencies, history और operator controls एक साथ मिलते हैं।
Workflow इतना ठोस रहता है कि engineers उसे समझ सकें, और इतना स्पष्ट भी कि operators उसे आसानी से चला सकें।
Maintainable daily jobs
PostgreSQL या SQLite queries, S3 transfers, jq transforms, validation steps और reusable sub-workflows चलाएँ।
Daily data workflows declarative और observable रहते हैं, और किसी step के fail होने पर retry करना आसान होता है।
वितरित मीडिया कार्य
ffmpeg, thumbnail extraction, audio normalization, image processing और दूसरे भारी compute jobs को workers पर चलाएँ।
रूपांतरण का काम distributed workers पर चल सकता है, जबकि status, history, logs और artifacts monitoring, debugging और retries के लिए एक ही persistence layer में सुरक्षित रहते हैं।
निर्धारित दूरस्थ कार्य
SSH backups, cleanup jobs, deploy scripts, patch windows, precondition checks और lifecycle hooks को एक साथ समन्वित करें।
Remote operations को schedules, retries, notifications और per-step logs मिलते हैं, इसलिए हर recovery के लिए operators को अलग से SSH करने की जरूरत नहीं पड़ती।
Container-native pipelines
ऐसे workflows बनाएँ जिनमें हर step Docker image, Kubernetes Job, shell command या validation step चला सके।
Image-based tasks को सही workers पर route किया जा सकता है, containers के लिए custom control plane बनाए बिना।
गैर-इंजीनियर संचालन
जाँच, account repair jobs, data checks और approval-gated support actions को सरल Web UI से चलाएँ।
गैर-इंजीनियर भी reviewed workflows चला सकते हैं, जबकि engineers commands, logs और results की traceability बनाए रखते हैं।
Small devices, visible runs
छोटे devices पर sensor polling, local cleanup, offline sync, health checks और maintenance jobs चलाएँ।
Single binary और file-backed state edge devices पर अच्छी तरह काम करते हैं, और Web UI से visibility मिलती रहती है।
वैकल्पिक AI-सहायित संचालन
जब मॉडल की मदद सचमुच उपयोगी हो, तब AI coding agents, agent CLIs, agent-authored YAML workflows, log analysis, repair steps और human-reviewed automation चलाएँ।
AI workflow के भीतर एक सहायक क्षमता भर रहता है, सब कुछ चलाने वाली मुख्य चीज़ नहीं बनता।
साझा आधार
Scripts, scheduled jobs, server tasks और controlled automation को एक workflow engine में लाएँ।
मौजूदा shell scripts, Docker commands, SSH tasks और HTTP calls को reliable workflows में बदलें।
steps:
- name: health-check
command: curl -sf http://app:8080/health
- name: backup
type: ssh
config:
host: db-server
user: admin
command: pg_dump mydb > /backups/daily.sql
- name: notify
type: http
config:
url: "https://hooks.slack.com/..."
method: POST
body: '{"text": "Backup complete"}'
Slack और Telegram के लिए स्थायी AI ऑपरेटर।
विफलताओं को डीबग करें, कार्रवाइयों को मंज़ूरी दें, और बातचीत छोड़े बिना घटनाओं से उबरें।
Dagu आपके मौजूदा काम के चारों ओर production layer पर ध्यान देता है: schedules, dependencies, retries, logs, queues और controlled execution.
गाइडेड विज़ार्ड से Dagu इंस्टॉल करें, फिर पूरी installation guide या quickstart docs में आगे बढ़ें।
स्क्रिप्ट इंस्टॉलर सबसे आसान और सुझाया गया तरीका है। Homebrew, npm और Docker भी उपलब्ध हैं, लेकिन वे केवल बाइनरी या कंटेनर इंस्टॉल करते हैं।
गाइडेड इंस्टॉलर आपके लिए पहली बार की सेटअप पूरी कर सकता है।
Usage पर चर्चा करें, issues रिपोर्ट करें, और development follow करें।