تمرین تیم‌سازی در چارچوب Scrum

«تعریف انجام‌شده» (Definition of Done) برای ایجنت‌های هوش مصنوعی

سانجای سینی
(هند)
۱۵ ژانویه ۲۰۲۶

در مسیر Professional Scrum Developer (PSD) یک حقیقت بنیادین را یاد می‌گیریم:
هیچ‌وقت کد را بدون کدریویو، تست واحد، تست یکپارچگی، مستندسازی و… منتشر نمی‌کنید.
یک Definition of Done (DoD) سخت‌گیرانه، تنها چیزی است که بین یک اینکریمنت باکیفیت و یک آشفتگی پر از باگ و غیرقابل‌تحویل قرار دارد.

اما با شروع ادغام ایجنت‌های خودمختار هوش مصنوعی (مثل Devin، Cursor یا Wrapperهای سفارشی مبتنی بر LLM) در جریان کار تیم‌های اسکرام در سال ۲۰۲۶، یک شکاف خطرناک در DoD آن‌ها آشکار شده است.

مسئله چیست؟

نرم‌افزار سنتی قطعی (Deterministic) است.

اگر یک تست واحد را ۱۰۰ بار روی یک محاسبه‌گر پرداخت اجرا کنید، ۱۰۰ بار همان نتیجه را می‌گیرید.

اما هوش مصنوعی احتمالاتی (Probabilistic) است.

اگر یک پرامپت یکسان را ۱۰۰ بار به یک LLM بدهید، ممکن است ۹۵ پاسخ درست و ۵ «توهم» (Hallucination) بگیرید.

اگر Definition of Done شما فقط به چک‌های دودویی «قبول/رد» متکی باشد، در واقع ایجنت‌های هوش مصنوعی را تست نمی‌کنید؛ دارید با آن‌ها قمار می‌کنید.
برای حفظ شفافیت و کیفیت، پروداکت اونرها و دولوپرها باید DoD خود را طوری تکامل دهند که Drift، Bias و Hallucination را در نظر بگیرد.

در ادامه، یک چارچوب حاکمیتی ۴‌بخشی برای مدرن‌سازی Definition of Done در عصر ایجنت‌ها ارائه شده است.

این مقاله اقتباسی از AI Agile Leadership Toolkit است.
برای بررسی‌های عمیق‌تر درباره حاکمیت Agentic AI، به پست اصلی مراجعه کنید:
Definition of Done for AI Agents

۱. بررسی دقت با «مجموعه طلایی» (Golden Set)

در اسکرام سنتی می‌پرسیم:
«آیا فیچر معیارهای پذیرش را برآورده می‌کند؟»

برای یک ایجنت هوش مصنوعی باید بپرسیم:
«آیا ایجنت به آستانه شباهت معنایی رسیده است؟»

شما نمی‌توانید قبل از هر ریلیز، یک ایجنت هوش مصنوعی را به‌صورت دستی تست کنید.
به‌جای آن، به یک دیتاست طلایی نیاز دارید:
فهرستی پالایش‌شده از ۵۰ تا ۱۰۰ ورودی متمایز (سؤال) با خروجی‌های تأییدشده و «بی‌نقص» که توسط انسان نوشته شده‌اند.

به‌روزرسانی DoD:

  • معیار: ایجنت باید در پایپ‌لاین CI/CD در برابر دیتاست طلایی تست شود.
  • آستانه: باید امتیاز شباهت معنایی (با معیارهایی مثل ROUGE یا Cosine Similarity) بالاتر از ۹۰٪ نسبت به پاسخ‌های مرجع کسب کند.

۲. گاردریل حذف اطلاعات هویتی (PII Redaction Guardrail)

ایجنت‌های هوش مصنوعی اغلب هدف حملات Prompt Injection قرار می‌گیرند که با هدف نشت داده‌های آموزشی انجام می‌شوند.
اگر کاربری از بات پشتیبانی شما «لاگ تراکنش‌های قبلی» را بخواهد، آیا ایجنت آن را ارائه می‌دهد؟

امنیت دیگر صرفاً یک الزام غیرکارکردی نیست؛
بلکه یک استاندارد اصلی کیفیت است.

به‌روزرسانی DoD:

  • معیار: گاردریل‌های ورودی/خروجی (مانند Microsoft Presidio یا فیلترهای Regex سفارشی) فعال و تأیید شده باشند.
  • تست: تلاش کنید اطلاعات هویتی جعلی (مثل شماره کارت اعتباری) به ایجنت بدهید. سیستم باید قبل از پردازش یا لاگ‌کردن، آن را به [REDACTED] تبدیل کند.

۳. قطع‌کننده مدار «حلقه بی‌نهایت» (Infinite Loop Circuit Breaker)

برخلاف یک دولوپر انسانی، یک ایجنت خودمختار خسته نمی‌شود.
اگر در یک حلقه منطقی گیر کند (تلاش برای رفع باگ، شکست، تلاش دوباره)، می‌تواند ظرف چند دقیقه هزاران دلار توکن API بسوزاند.

به‌روزرسانی DoD:

  • معیار: یک «Circuit Breaker» در سطح زیرساخت پیکربندی شده باشد.
  • محدودیت: سقف‌های سخت تعیین شود (مثلاً «حداکثر ۵ گام برای هر تسک» یا «حداکثر ۲ دلار هزینه برای هر اجرا») تا از هزینه‌های افسارگسیخته جلوگیری شود.

۴. پروتکل بازگشت به انسان (Human Fallback Protocol)

اعتماد شکننده است.
اگر ایجنت با سؤالی مواجه شود که نتواند با اطمینان بالا پاسخ دهد، نباید «حدس بزند».
باید بداند چه زمانی کنار بکشد.

به‌روزرسانی DoD:

  • معیار: تست منطق Fallback با موفقیت پاس شود.
  • تست: وقتی امتیاز اطمینان ایجنت به زیر آستانه مشخصی (مثلاً ۷۰٪) می‌رسد، باید کاربر را به‌صورت محترمانه به تیکت پشتیبانی انسانی هدایت کند یا یک پاسخ امن و از پیش‌تعریف‌شده ارائه دهد.

از «شکار باگ» تا «تشخیص Drift»

در گذشته، تضمین کیفیت درباره پیدا کردن باگ‌ها بود.
در عصر هوش مصنوعی، درباره تشخیص Drift است.

ایجنتی که امروز «Done» است، ممکن است اسپرینت بعدی دیگر «Done» نباشد؛
اگر مدل زیربنایی تغییر کند یا رفتار کاربران جابه‌جا شود.

با تعبیه این چک‌ها در Definition of Done، تیم شما از «امیدوار بودن به کارکرد»
به اثبات تجربیِ تحویل ارزش حرکت می‌کند.

به گفتگو بپیوندید – هند

آیا در حال رهبری یک تیم اجایل در مسیر گذار به هوش مصنوعی هستید؟

این موضوعات در مرکز توجه Agile Leadership Day India 2026
در تاریخ ۲۸ فوریه ۲۰۲۶ در نویدا خواهند بود.

به جمع برترین ذهن‌های اجایل هند بپیوندید تا «اجایل جدید» را بررسی کنیم؛
هماهنگ‌سازی اکوسیستم‌هایی از خلاقیت انسانی و سرعت ایجنت‌ها.


منتورینگ رایگان مالکین محصول

«اگر در یک شرکت نرم‌افزاری مشغول به کارهای روزانه یک PO هستید و دوست دارید در مورد پیاده‌سازی اجایل، اسکرام و چالش‌های نقش PO در چهارچوب اسکرام یا تفکر استراتژیک در محصول، راهنمایی و مشاوره بگیرید، در خدمتتون هستم. یک وقت در adplist بگیرید.»


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

error: اجازه کپی محتوا وجود ندارد