اخبار1403

توسعه اصول معماری سازمانی هوش مصنوعی و هم‌راستایی با الزامات غیرکارکردی
SuperUser Account 275

توسعه اصول معماری سازمانی هوش مصنوعی و هم‌راستایی با الزامات غیرکارکردی

اصول، روشی است که سازمان‌های معماری سازمانی (EA) از طریق آن کار هوش مصنوعی را هدفمند، منسجم و ایمن نگه می‌دارند. هم‌راستا کردن این اصول با الزامات غیرکارکردی (NFR) نیت خوب را به نتایج واقعی تبدیل می‌کند. با اصول شفاف، تیم‌ها یک قطب‌نمای مشترک برای تصمیم‌گیری در طراحی معماری، داده‌ها و جریان‌های کاری دارند. وقتی هر اصل به الزامات غیرکارکردی قابل اندازه‌گیری مانند توضیح‌پذیری، قابلیت حسابرسی، تاب‌آوری و قابلیت همکاری متصل شود، رهبران می‌توانند خط مستقیمی از سیاست به ساخت و اجرا ترسیم کنند. این هم‌راستایی سرعت تحویل را افزایش می‌دهد، زیرا مهندسان دقیقاً می‌دانند کیفیت خوب چیست؛ اعتماد را تقویت می‌کند، زیرا هر عامل و مدل قابل ردیابی و مدیریت است؛ و ریسک را کاهش می‌دهد، زیرا عملکرد، حریم خصوصی و انحراف به‌صورت طراحی‌شده نظارت می‌شوند. همچنین، این رویکرد در حوزه‌های مختلف بهتر مقیاس‌پذیر است، زیرا الگوهای قابل استفاده مجدد به یک منبع حقیقت واحد و مدل دامنه مشترک متصل هستند. به‌طور خلاصه، اصول «چرا» و «چگونه» را تعریف می‌کنند و الزامات غیرکارکردی آن‌ها را هر روز در سرویس‌ناو (ServiceNow) عملیاتی می‌کنند.

اصول معماری سازمانی خاص هوش مصنوعی که می‌توانید استفاده کنید

هوش مصنوعی سریع حرکت می‌کند، اما تغییرات سازمانی تنها زمانی پایدار می‌مانند که توسط اصول شفافی هدایت شوند که به نتایج قابل اندازه‌گیری منجر شوند. اصول معماری سازمانی خاص هوش مصنوعی زیر، استراتژی را به الگوهای قابل ساخت تبدیل می‌کنند که تیم‌ها می‌توانند از روز اول به کار گیرند. این اصول، معماری کلاسیک را گسترش می‌دهند تا استفاده مسئولانه، توضیح‌پذیری، حریم خصوصی، انحراف مدل و هماهنگی عامل‌ها را پوشش دهند و هر یک مستقیماً به الزامات غیرکارکردی متصل است تا همه بدانند کیفیت خوب چیست و چگونه آن را اثبات کنند. از این اصول برای شکل‌دهی به نقشه‌های راه، بازبینی‌های طراحی و معیارهای بک‌لاگ استفاده کنید و راه‌حل‌های قابل استفاده مجدد و بین‌دامنه‌ای را باز کنید که با ریسک کمتر و سریع‌تر در سرویس‌ناو ارائه می‌شوند.

حاکمیت و اخلاق

  1. هوش مصنوعی مسئولانه از طراحی: از روز اول، عدالت، شفافیت و پاسخگویی را در طراحی بگنجانید.
  2. قابلیت ردیابی و حسابرسی: تصمیم‌ها، زنجیره آموزش، درخواست‌ها و بازنویسی‌ها را برای حسابرسی‌های تمیز ثبت کنید.
  3. نظارت و مداخله انسانی: برای موارد استفاده با تأثیرات قابل توجه، از نظارت انسانی در حلقه (HITL) یا بر حلقه (HOTL) استفاده کنید.
  4. هم‌راستایی با مقررات: ابتدا با چارچوب‌هایی مانند NIST AI RMF، ISO 42001، قانون هوش مصنوعی اتحادیه اروپا و قوانین خاص حوزه مانند HIPAA، FDA، TSA، NERC و غیره هم‌راستا شوید.

شفافیت و توضیح‌پذیری

  1. توضیح‌پذیری در جریان‌های کاری: منطق، اطمینان و زمینه را در فضای کاری (Workspaces) و موبایل نمایش دهید.
  2. حاکمیت مبتنی بر متاداده: هدف، دامنه، مجموعه آموزشی و مالک پاسخگو را از ایجاد تا بازنشستگی برچسب‌گذاری کنید.
  3. برچسب‌گذاری خروجی‌های متنی: پاسخ‌های مولد یا احتمالی را به‌وضوح برچسب‌گذاری کرده و استفاده مورد نظر را راهنمایی کنید.

یکپارچگی داده‌ها و آمادگی معماری

  1. منبع حقیقت واحد: زمینه را از CMDB، کاتالوگ داده‌ها و مدل دامنه به‌جای مخازن سایه‌ای استخراج کنید.
  2. حداقل‌سازی داده‌ها و حریم خصوصی: داده‌ها را به حداقل رسانده و ناشناس کنید و از طریق الگوهای Vault و Zero Trust، دسترسی‌ها را اعمال کنید.
  3. دسترسی به داده‌ها بدون کپی: روی داده‌های فدرال هم‌راستا با Workflow Data Fabric کار کنید.
  4. هم‌راستایی با CSDM و طرح‌واره: از CSDM استفاده کنید تا جریان‌های کاری هوش مصنوعی در IT، OT، HR، مشتری و ریسک قابلیت همکاری داشته باشند.

ماژولاریتی و قابلیت استفاده مجدد

  1. معماری‌های هوش مصنوعی ترکیبی: درخواست‌ها، عامل‌ها و جریان‌ها را به‌عنوان بلوک‌های قابل استفاده مجدد در نظر بگیرید که با Flow Designer، Playbooks یا AIOps هماهنگ می‌شوند.
  2. معماری عامل‌محور: به‌جای اسکریپت‌های یکپارچه، از عامل‌های خودکار و وظیفه‌ای که سیاست‌ها و انتقال‌ها را مذاکره می‌کنند، استفاده کنید.
  3. اولویت کم‌کد با گاردریل‌ها: سازندگان را توانمند کنید و از طریق حاکمیت، از هوش مصنوعی سایه‌ای جلوگیری کنید.

عملکرد و مقیاس‌پذیری

  1. تطبیق بلادرنگ و حلقه‌های بازخورد: بازخورد را ضبط کرده و به مانیتورها، ATF و چرخه‌های تنظیم وارد کنید.
  2. مقیاس‌پذیری بومی ابری: با تقاضا مقیاس کنید و وظایف پرریسک یا پرترافیک را ایزوله کنید.
  3. تشخیص و پاسخ به انحراف: انحراف خروجی یا مدل را تشخیص داده و برای اصلاح به حاکمیت هوش مصنوعی هدایت کنید.

یکپارچگی و قابلیت همکاری

  1. قابلیت همکاری عامل-جریان کاری: با Flow Designer، Decision Builder، Workspaces و Mobile Builder به‌صورت یکپارچه ادغام شوید.
  2. سازگاری با خدمات هوش مصنوعی خارجی: گزینه‌ها را با Azure OpenAI، Google Vertex، Amazon Bedrock و مدل‌های خصوصی از طریق Integration Hub باز نگه دارید.
  3. فعال‌سازی موارد استفاده بین‌دامنه‌ای: از سفرهایی که شامل استخدام HR و IT، حوادث OT و امنیتی یا تدارکات و ریسک می‌شوند، پشتیبانی کنید.

الزامات غیرکارکردی مرتبط با اصول

اصول جهت را تعیین می‌کنند و الزامات غیرکارکردی آن‌ها را واقعی و قابل آزمایش می‌کنند. این بخش هر اصل هوش مصنوعی را به رفتارهایی متصل می‌کند که در تولید روی سرویس‌ناو اثبات می‌شوند، از توضیح‌پذیری و حسابرسی تا تاب‌آوری، عملکرد، امنیت، قابلیت همکاری و دسترسی به داده‌ها بدون کپی. از این نقشه‌برداری‌ها برای هدایت بازبینی‌های طراحی، معیارهای پذیرش و کتاب‌های اجرا استفاده کنید تا هر ساخت تعریف روشنی از اتمام داشته باشد. نتیجه، تحویل سریع‌تر، حسابرسی‌های ساده‌تر و هوش مصنوعی است که رهبران می‌توانند در مقیاس به آن اعتماد کنند.

  • توضیح‌پذیری: تصمیم‌ها منطق و اطمینان را نشان می‌دهند. مرتبط با اصل 5 (توضیح‌پذیری در جریان‌های کاری) و 7 (برچسب‌گذاری خروجی‌های متنی).
  • حسابرسی: اقدامات، ورودی‌ها، درخواست‌ها و بازنویسی‌ها برای انطباق ثبت می‌شوند. مرتبط با اصل 2 (قابلیت ردیابی و حسابرسی) و 6 (حاکمیت مبتنی بر متاداده).
  • تاب‌آوری: سرویس‌ها با خطای نرم و بازیابی بدون از دست دادن داده عمل می‌کنند. مرتبط با اصل 15 (تطبیق بلادرنگ)، 16 (مقیاس‌پذیری بومی ابری) و 3 (نظارت انسانی).
  • عملکرد: استنتاج، اهداف تأخیر و توان عملیاتی را برآورده می‌کند. مرتبط با اصل 16 (مقیاس‌پذیری بومی ابری)، 15 (تطبیق بلادرنگ) و 18 (قابلیت همکاری عامل-جریان کاری).
  • مقیاس‌پذیری: رشد در کاربران، مدل‌ها، داده‌ها و موارد استفاده بدون افت عملکرد. مرتبط با اصل 12 (معماری‌های ترکیبی) و 16 (مقیاس‌پذیری بومی ابری).
  • امنیت و کنترل دسترسی: احراز هویت و مجوز قوی با الگوهای یکپارچگی امن. مرتبط با اصل 9 (حداقل‌سازی داده‌ها و حریم خصوصی)، 1 (هوش مصنوعی مسئولانه از طراحی) و 19 (سازگاری با خدمات هوش مصنوعی خارجی).
  • کیفیت و خاستگاه داده‌ها: ورودی‌ها دقیق و قابل ردیابی به سیستم‌های ثبت هستند. مرتبط با اصل 8 (منبع حقیقت واحد)، 2 (قابلیت ردیابی و حسابرسی)، 6 (حاکمیت مبتنی بر متاداده) و 11 (هم‌راستایی با CSDM و طرح‌واره).
  • استفاده اخلاقی و کاهش سوگیری: نتایج با سیاست‌های اخلاقی هم‌راستا بوده و از تبعیض جلوگیری می‌کنند. مرتبط با اصل 1 (هوش مصنوعی مسئولانه از طراحی)، 4 (هم‌راستایی با مقررات) و 3 (نظارت انسانی).
  • تشخیص انحراف مدل: تخریب تشخیص داده شده و برای اصلاح هدایت می‌شود. مرتبط با اصل 17 (تشخیص و پاسخ به انحراف)، 15 (حلقه‌های بازخورد بلادرنگ) و 2 (حسابرسی).
  • قابلیت استفاده مجدد و ترکیبی: درخواست‌ها، عامل‌ها و منطق در تیم‌ها و حوزه‌ها قابل استفاده مجدد هستند. مرتبط با اصل 12 (معماری‌های ترکیبی) و 13 (معماری عامل‌محور).
  • قابلیت همکاری: یکپارچگی آسان درون پلتفرم و با هوش مصنوعی خارجی. مرتبط با اصل 18 (قابلیت همکاری عامل-جریان کاری)، 19 (سازگاری با هوش مصنوعی خارجی) و 11 (هم‌راستایی مدل دامنه).
  • حاکمیت کم‌کد: تجربه ساخت ایمن با گاردریل‌های مناسب. مرتبط با اصل 14 (اولویت کم‌کد با گاردریل‌ها) و 6 (حاکمیت مبتنی بر متاداده).
  • دسترسی به داده‌های فدرال بدون کپی: دسترسی به داده‌های زنده بدون تکثیر. مرتبط با اصل 10 (دسترسی به داده‌ها بدون کپی)، 8 (منبع حقیقت واحد) و 11 (هم‌راستایی با CSDM).
  • مدیریت چرخه عمر و نسخه‌بندی: انتشارهای کنترل‌شده، بازگشت و مسیرهای حسابرسی. مرتبط با اصل 6 (حاکمیت مبتنی بر متاداده)، 2 (قابلیت ردیابی و حسابرسی) و روش‌های ISO 42001.
  • شفافیت کاربر: کاربران می‌دانند چه زمانی با هوش مصنوعی تعامل دارند و چگونه از خروجی‌ها استفاده کنند. مرتبط با اصل 7 (برچسب‌گذاری خروجی) و 5 (توضیح‌پذیری در جریان‌های کاری).

نمونه‌های موردی استفاده و نحوه اعمال

تبدیل اصول به پیشرفت در کار واقعی اتفاق می‌افتد. مثال‌های زیر نشان می‌دهند که چگونه هر اصل و الزامات غیرکارکردی آن به ساخت‌های مشخص در سرویس‌ناو ترجمه می‌شوند، از جریان‌های کم‌کد و هماهنگی عامل‌ها تا داده‌های هم‌راستا با CSDM و دسترسی بدون کپی. هر مورد استفاده، کنترل‌هایی که هوش مصنوعی را قابل اعتماد و مقیاس‌پذیر می‌کنند، انتخاب‌های طراحی که تحویل را تسریع می‌کنند و نقاط بررسی که حاکمیت و حسابرسی را برآورده می‌کنند، مشخص می‌کند. از این الگوها برای هدایت اقلام بک‌لاگ، شکل‌دهی به بازبینی‌های طراحی و اثبات سریع ارزش با اجزای قابل استفاده مجدد که در حوزه‌های مختلف کار می‌کنند، استفاده کنید.

روز اول: دستیار استخدام HR و IT

سناریو: یک عامل، کارمند جدید را از طریق فرآیند استخدام هدایت می‌کند و وظایف را در HR، IT، امکانات و امنیت در مرکز کارمند (Employee Center) هماهنگ می‌کند. اصول درگیر: 8 (منبع حقیقت واحد)، 11 (هم‌راستایی با CSDM)، 18 (قابلیت همکاری عامل-جریان کاری)، 14 (کم‌کد با گاردریل‌ها)، 5 (توضیح‌پذیری)، 7 (برچسب‌گذاری خروجی). کاربرد الزامات غیرکارکردی:

  • امنیت و کنترل دسترسی: اجرای دسترسی‌های Vault و دسترسی مبتنی بر نقش برای فضای کاری و سوابق.
  • کیفیت و خاستگاه داده‌ها: پروفایل HR و CMDB را به‌عنوان سیستم‌های ثبت با روابط قابل ردیابی به دستگاه‌ها، برنامه‌ها و مکان‌ها در نظر بگیرید.
  • قابلیت همکاری: از Integration Hub برای Workday، Azure AD و سیستم‌های امکانات با هماهنگی در Flow Designer و Decision Builder استفاده کنید.
  • عملکرد: مراحل طولانی مانند تأمین حساب را در صف قرار داده و زیرجریان‌های غیرهمزمان را برای رسیدن به اهداف تأخیر اجرا کنید.
  • حسابرسی و شفافیت کاربر: ثبت درخواست‌ها، تصمیم‌ها و بازنویسی‌ها و برچسب‌گذاری راهنمایی‌های مولد در رابط کاربری.
  • قابلیت استفاده مجدد: زیرجریان‌ها را برای تأمین لپ‌تاپ، دسترسی به برنامه‌ها و جهت‌گیری برای استفاده مجدد در سایر سفرها بسته‌بندی کنید.

تریاژ حوادث OT و امنیتی در یک شرکت خدماتی

سناریو: یک عامل، هشدارهای فناوری عملیاتی را با تیکت‌های IT و اطلاعات تهدید همبسته کرده و سپس یک کتابچه پاسخ با نظارت انسانی پیشنهاد می‌دهد. اصول درگیر: 13 (معماری عامل‌محور)، 12 (هوش مصنوعی ترکیبی)، 10 (دسترسی به داده‌ها بدون کپی)، 9 (حداقل‌سازی داده‌ها و حریم خصوصی)، 3 (نظارت انسانی)، 17 (تشخیص انحراف)، 18 (قابلیت همکاری). کاربرد الزامات غیرکارکردی:

  • تاب‌آوری: ارائه بازگشت‌های دستی، تلاش‌های خودکار و فضاهای محاسباتی ایزوله برای اقدامات پرریسک.
  • دسترسی به داده‌های فدرال: پرس‌وجوی داده‌های زنده historian و SIEM از طریق Workflow Data Fabric بدون تکثیر.
  • امنیت و کنترل دسترسی: اعمال Zero Trust برای سوابق OT و حذف فیلدهای حساس قبل از فراخوانی مدل.
  • عملکرد و مقیاس‌پذیری: جریان رویدادها از طریق خطوط لوله AIOps و غنی‌سازی دسته‌ای برای مدیریت حجم‌های ناگهانی.
  • حسابرسی و توضیح‌پذیری: ضبط شواهد همبستگی، اطمینان و منطق برای توصیه‌های مهار.
  • تشخیص انحراف مدل: نظارت بر دقت و مثبت‌های کاذب و هدایت ناهنجاری‌ها به حاکمیت برای بازبینی.

اعلان فراخوان محصول و خودکارسازی پرونده

سناریو: یک عامل، یک مشاوره فراخوان را دریافت کرده، مشتریان و دارایی‌های تحت تأثیر را تطبیق داده، سپس پرونده‌ها را باز کرده و اعلان‌های مطابق ارسال می‌کند. اصول درگیر: 8 (منبع حقیقت واحد)، 11 (هم‌راستایی با CSDM)، 12 (اجزای ترکیبی)، 19 (سازگاری با هوش مصنوعی خارجی)، 7 (برچسب‌گذاری خروجی)، 6 (حاکمیت مبتنی بر متاداده). کاربرد الزامات غیرکارکردی:

  • کیفیت و خاستگاه داده‌ها: محصولات، شماره سریال‌ها، مکان‌ها و مالکان را از طریق مدل دامنه پیوند داده و منشأ هر تطبیق را ثبت کنید.
  • قابلیت همکاری: از Integration Hub برای دریافت مشاوره‌ها از تنظیم‌کننده‌ها و تولیدکنندگان و ارسال اعلان‌های ایمیل و SMS استفاده کنید.
  • شفافیت کاربر: خلاصه‌های مولد مشاوره را برچسب‌گذاری کرده و استفاده مورد نظر و اطمینان را مشخص کنید.
  • عملکرد: لیست‌های تأثیر را با کارهای زمان‌بندی‌شده پیش‌محاسبه کرده و قوانین واجد شرایط بودن را برای رسیدن به سطوح خدمات اعلان کش کنید.
  • حسابرسی و مدیریت چرخه عمر: ثبت درخواست‌ها، مجموعه داده‌ها و سوابق تصمیم‌گیری با درخواست‌ها و قوانین استخراج نسخه‌بندی‌شده.
  • قابلیت استفاده مجدد: منطق تطبیق و اعلان را به‌عنوان زیرجریانی قابل استفاده مجدد برای بولتن‌های ایمنی و کمپین‌های گارانتی بسته‌بندی کنید.

تولید گزارش اجرایی با منابع برچسب‌گذاری‌شده مطابق

سناریو: یک عامل، گزارش مختصری برای رهبران با استفاده از محتوای تأییدشده گردآوری کرده و استنادها و منطق را در فضای کاری نشان می‌دهد. اصول درگیر: 6 (حاکمیت مبتنی بر متاداده)، 7 (برچسب‌گذاری خروجی)، 14 (کم‌کد با گاردریل‌ها)، 1 (هوش مصنوعی مسئولانه از طراحی)، 4 (هم‌راستایی با مقررات)، 19 (سازگاری با هوش مصنوعی خارجی)، 5 (توضیح‌پذیری). کاربرد الزامات غیرکارکردی:

  • استفاده اخلاقی و کاهش سوگیری: بازیابی را به منابع تأییدشده شرکتی و صنعتی با برچسب‌های انطباق مانند SOX یا PHI محدود کنید.
  • امنیت و کنترل دسترسی: احترام به مجوزهای کاربر در سوابق و دانش و جلوگیری از دسترسی بین‌دامنه‌ای بدون دسترسی.
  • توضیح‌پذیری و شفافیت کاربر: نشان دهید چرا هر بند گنجانده شده، با اطمینان و استنادها، و محتوای تولیدشده توسط هوش مصنوعی را به‌وضوح علامت‌گذاری کنید.
  • حاکمیت کم‌کد: جریان را با تأییدهای مورد نیاز، برچسب‌گذاری خودکار متاداده و گاردریل‌ها بسازید.
  • حسابرسی: هر بازیابی و درخواست را ثبت کرده و یک فهرست گزارش تولید کنید که رهبران بتوانند صادر کنند.
  • مدیریت چرخه عمر و نسخه‌بندی: الگوها و درخواست‌ها را نسخه‌بندی کرده و مسیر بازگشت واضحی برای اصلاحات نگه دارید.

اجرای واقعی در سرویس‌ناو

تنظیم حاکمیت و مدل عملیاتی

  • یک گروه راهبری هوش مصنوعی و یک مرجع طراحی هوش مصنوعی تشکیل دهید. نقش‌های حامی، مالک محصول، مالک داده، امنیت و EA را تعریف کنید.
  • موارد استفاده را بر اساس ریسک طبقه‌بندی کنید. مشخص کنید چه زمانی نظارت انسانی در حلقه یا بر حلقه لازم است.
  • تأییدها، معافیت‌ها و تصمیمات رفتن یا نرفتن به‌عنوان سوابق سرویس‌ناو با مسیریابی Flow Designer و تاریخچه حسابرسی اجرا شوند.
  • سیاست‌های مسئولانه از طراحی را برای عدالت، توضیح‌پذیری، برچسب‌گذاری خروجی، حداقل‌سازی داده‌ها و مدیریت انحراف مدل اتخاذ کنید.

ساخت بنیاد هوش مصنوعی در پلتفرم

  • با CSDM هم‌راستا شوید تا هر جریان کاری هوش مصنوعی زبان مشترکی برای خدمات، دارایی‌ها، افراد و مکان‌ها داشته باشد.
  • سه کاتالوگ راه‌اندازی کنید: کاتالوگ مدل، کاتالوگ عامل و کتابخانه درخواست. هر مورد شامل هدف، مالک، دامنه، مجموعه آموزشی، منابع داده، وضعیت چرخه عمر و پروفایل NFR باشد.
  • متاداده را در زمان ایجاد با محدودیت‌های دیکشنری و تولیدکنندگان سوابق اعمال کنید. بدون متاداده، ارتقا ممکن نیست.
  • یک جدول ردیابی هوش مصنوعی برای درخواست‌ها، ورودی‌ها، خروجی‌ها، تصمیم‌ها و بازنویسی‌ها با حفظ و صادرات درخواستی ایجاد کنید.

امنیت داده‌ها و فعال‌سازی دسترسی بدون کپی

  • داده‌ها را طبقه‌بندی کرده و دسترسی را به نقش‌ها، گروه‌ها و دسترسی‌ها متصل کنید. از Vault و کلیدهای رمزگذاری در صورت لزوم استفاده کنید.
  • خواندن‌های فدرال را با Integration Hub و اتصال‌دهنده‌های داده ترجیح دهید. از کپی داده‌های حساس خودداری کنید. فقط آنچه سیاست اجازه می‌دهد کش کنید.
  • فیلدهای حساس را قبل از هر فراخوانی مدل خارجی ماسک یا توکن کنید.

هماهنگی عامل‌ها با بلوک‌های ساخت پلتفرم

  • از Flow Designer، Decision Builder و Playbooks برای هماهنگی عامل‌ها، تأییدها و بازگشت‌ها استفاده کنید.
  • آداپتورها را برای Azure OpenAI، Vertex AI، Bedrock یا مدل‌های خصوصی از طریق اسپوک‌های Integration Hub ارائه دهید.
  • وظایف مشترک را به‌عنوان زیرجریان بسته‌بندی کنید تا تیم‌ها الگوها را دوباره استفاده کنند نه بازسازی.

تصمیم‌گیری‌های توضیح‌پذیر در تجربه کاربر

  • در فضای کاری، یک پنل «چرا این» اضافه کنید که منطق، اطمینان، پیوندهای منبع و استفاده مورد نظر را نشان دهد.
  • محتوای تولیدشده توسط هوش مصنوعی را برچسب‌گذاری کرده و بازخورد و تشدید یک‌کلیکی ارائه دهید.
  • هر اقدام کاربر را به ردیابی هوش مصنوعی برای حسابرسی پیوند دهید.

بستن حلقه در کیفیت، عملکرد و انحراف

  • اهداف سطح خدمات را برای تأخیر، توان عملیاتی و نرخ‌های موفقیت تعریف کنید. با Performance Analytics پیگیری کنید.
  • از چارچوب تست خودکار (ATF) برای تست‌های گاردریل روی درخواست‌ها، جریان‌ها و سیاست‌ها قبل از ارتقا استفاده کنید.
  • برای انحراف با استفاده از مجموعه داده‌های ارزیابی زمان‌بندی‌شده و هشدارهای ناهنجاری نظارت کنید. موارد را به صف حاکمیت هوش مصنوعی هدایت کنید وقتی آستانه‌ها فعال شوند.

اعمال گاردریل‌های کم‌کد

  • نقش‌های سازنده، استانداردهای نام‌گذاری و بازبینی‌های اجباری برای جریان‌ها و درخواست‌های هوش مصنوعی ایجاد کنید.
  • الگوهای تأییدشده برای موارد استفاده رایج ارائه دهید تا سازندگان شهروند ایمن شروع کنند.
  • اگر متاداده یا تست‌های مورد نیاز غایب باشند، استقرار را مسدود کنید.

عملیاتی‌سازی چرخه عمر و نسخه‌بندی

  • مدل‌ها، درخواست‌ها و عامل‌ها را مانند نرم‌افزار در نظر بگیرید. آن‌ها را نسخه‌بندی کنید. از طریق سوابق تغییر از توسعه، تست و تولید ارتقا دهید.
  • مسیرهای بازگشت را برای هر انتشار نگه دارید. ثبت کنید چه کسی تأیید کرده، چه چیزی تغییر کرده و چرا.
  • دارایی‌ها را با حفظ مبتنی بر سیاست بایگانی یا بازنشسته کنید.

اجرای برنامه 30-60-90 روزه

  • 30 روز اول: حاکمیت، کاتالوگ‌ها، قوانین متاداده و جدول ردیابی را راه‌اندازی کنید. دو مورد استفاده آزمایشی انتخاب کنید.
  • 30 روز بعدی: پایلوت‌ها را با پنل‌های توضیح‌پذیری، اتصال‌دهنده‌های بدون کپی و ضبط بازخورد بسازید.
  • 30 روز نهایی: به یک سفر بین‌دامنه‌ای گسترش دهید. الگوها، زیرجریان‌ها و داشبوردها را منتشر کنید. اهداف کلیدی و نتایج (OKR) سه‌ماهه برای مقیاس و استفاده مجدد تنظیم کنید.

هوش مصنوعی تنها زمانی برای کسب‌وکار کار می‌کند که قابل اعتماد، قابل مدیریت و مقیاس‌پذیر باشد. این پست یک کتابچه عملی برای استفاده از معماری سازمانی در سرویس‌ناو برای تحقق این هدف ارائه می‌دهد، با گسترش اصول اثبات‌شده برای پوشش اخلاق، توضیح‌پذیری، فدراسیون داده‌ها و هماهنگی عامل‌ها. این رویکرد، مسئولانه از طراحی، ردیابی کامل، نظارت انسانی و هم‌راستایی با مقررات را در خود جای داده و سپس این گاردریل‌ها را به نیازهای غیرکارکردی مانند تاب‌آوری، عملکرد، قابلیت همکاری و دسترسی به داده‌ها بدون کپی متصل می‌کند. نتیجه، هوش مصنوعی ماژولار و قابل استفاده مجدد است که به منبع حقیقت واحد و CSDM متصل است، از طریق Flow Designer و Integration Hub هماهنگ شده و با بازخورد و تشخیص انحراف به‌طور مداوم بهبود می‌یابد. با این الگوها، تیم‌ها سریع‌تر با ریسک کمتر تحویل می‌دهند، در حالی که رهبران اعتماد دارند و حسابرسان راضی می‌مانند. اگر این با شما همخوانی دارد، برای تبادل الگوها و مثال‌های واقعی ارتباط برقرار کنید.

Rate article

بدون رتبه
رتبه بندی این مطلب:
بدون رتبه

اشتراک

Print

نظر

Collapse Expand نظرات (0)
You don't have permission to post comments.


تهران ، خیابان ولیعصر بالاتر از زرتشت ، خیابان میرهادی شرقی ، پلاک 4

تلفن تماس :52384000-21-98+ داخلی 106

دی ان ان