توهم مدل های زبانی بزرگ (Hallucination)

توهم مدل های زبانی بزرگ (Hallucination)

توهم مدل‌های زبانی بزرگ (Hallucination) یکی از چالش‌های مهم در توسعه و استفاده از این مدل‌ها است. این پدیده زمانی رخ می‌دهد که مدل‌های زبانی اطلاعات نادرست، غیرواقعی یا بی‌اساس تولید می‌کنند. با وجود پیشرفت‌های چشمگیر در حوزه هوش مصنوعی و به‌ویژه مدل‌های زبانی بزرگ مانند GPT-4، توهم LLMs نشان‌دهنده محدودیت‌هایی است که هنوز در زمینه درک و تولید زبان طبیعی وجود دارد.

مشکل توهم مدل‌های زبانی بزرگ (Hallucination) به علت گرایش این مدل ها به ساختن است. مدل‌های زبانی بزرگ به قدری در کار خود خوب هستند که معمولاً نتایج آنها درست به نظر می‌رسد و این اعتماد به آن‌ها را سخت می‌کند.

این گرایش به ساختن چیزها که به عنوان توهم شناخته می‌شود، یکی از بزرگترین موانع پیشرفت چت‌بات‌ها و استفاده گسترده‌تر از آن‌ها است. چرا توهم LLMs اتفاق می‌افتد؟ و چرا نمی‌توانیم آن را برطرف کنیم؟

اگر مایلید در مورد توهم هوش مصنوعی یا هالوسیناسیون بیشتر بدانید، پیشنهاد می کنم مطلب زیر را مطالعه بفرمائید:

هالوسیناسیون هوش مصنوعی چیست؟ – علل توهم هوش مصنوعی چیست؟ 

چرا توهم مدل های زبانی اتفاق می افتد؟

برای درک اینکه چرا توهم مدل‌های زبانی بزرگ ایجاد می شود، باید ببینیم که چگونه کار می‌کنند. اولین نکته‌ای که باید توجه داشت این است که مدل‌ها طراحی شده‌اند تا چیزهایی را بسازند. وقتی از یک چت‌بات سوالی می‌پرسید، از مدل زبانی بزرگی که آن را پشتیبانی می‌کند، پاسخ خود را  می‌گیرد. اما این شبیه به جستجوی اطلاعات در یک پایگاه داده یا استفاده از موتور جستجو در وب نیست.

اگر به یک مدل زبانی بزرگ نگاهی بیندازید، اطلاعات آماده‌ای برای بازیابی نمی‌بینید. در عوض، میلیاردها و میلیاردها عدد پیدا می‌کنید. این مدل ها ، از این اعداد برای محاسبه پاسخ‌های خود از ابتدا استفاده می‌کند و به صورت لحظه‌ای توالی‌های جدیدی از کلمات تولید می‌کند.

بسیاری از متونی که یک مدل زبانی بزرگ تولید می‌کند، به نظر می‌رسد که از یک پایگاه داده یا یک صفحه وب واقعی کپی شده است. اما همانند بیشتر آثار داستانی، این شباهت‌ها تصادفی هستند. یک مدل زبانی بزرگ بیشتر شبیه به یک توپ جادویی ∞ بی‌نهایت است تا یک دانشنامه.

 

پیش‌بینی کلمات بعدی در مدل های زبانی بزرگ(LLMs)

مدل‌های زبانی بزرگ متن‌ها را با پیش‌بینی کلمه بعدی در یک توالی تولید می‌کنند. اگر مدلی “the cat sat” را ببیند، ممکن است “on” را حدس بزند. آن توالی جدید دوباره به مدل داده می‌شود که ممکن است اکنون “the” را حدس بزند. دوباره این کار را تکرار کنید و ممکن است “mat” را حدس بزند و همینطور ادامه می‌دهد.

این یک ترفند کافی است تا تقریباً هر نوع متنی را که می‌توانید به آن فکر کنید، از لیست‌های آمازون گرفته تا داستان‌های پر طرفدار، کدهای کامپیوتری و مقالات مجله ها و بسیاری موارد دیگر تولید کند. آندری کارپاتی، دانشمند کامپیوتر و یکی از بنیان‌گذاران  OpenAI، می گوید: “مدل‌های زبانی بزرگ یاد می‌گیرند که اسناد اینترنتی را در رویا ببینند”.

فکر کنید که میلیاردها عدد درون یک مدل زبانی بزرگ مانند یک صفحه گسترده وسیع است که احتمال آماری ظاهر شدن کلمات خاصی در کنار کلمات دیگر را ثبت می‌کند.  وقتی مدل آموزش داده شد، مقادیر در صفحه گسترده تنظیم می‌شوند.

فرآیندی این مقادیر را بارها و بارها تنظیم می‌کند تا حدس‌های مدل، با الگوهای زبانی که در ترابایت‌ها متن گرفته شده از اینترنت یافت می‌شوند، مطابقت داشته باشد.برای حدس زدن یک کلمه، مدل به سادگی اعداد خود را اجرا می‌کند.

امتیازی برای هر کلمه در واژگان خود محاسبه می‌کند که نشان می‌دهد چقدر احتمال دارد آن کلمه بعدی در توالی جاری باشد. کلمه‌ای که بهترین امتیاز را داشته باشد، برنده می‌شود. به طور خلاصه، مدل‌های زبانی بزرگ ماشین‌های آلات آماری هستند. دسته را بچرخانید و یک کلمه بیرون می‌آید.

LLMs Method

همه چیز  LLM توهم است

نکته اصلی چیست؟ به طور کلی همه چیز توهم است، اما ما فقط وقتی آن را توهم می‌نامیم که متوجه می‌شویم اشتباه است. آیا می‌توانیم آنچه مدل‌های زبانی بزرگ تولید می‌کنند را کنترل کنیم تا متنی تولید کنند که به طور قطعی صحیح باشد؟ این مدل‌ها آنقدر پیچیده هستند که اعداد آن‌ها را نمی‌توان به صورت دستی دستکاری کرد. اما برخی محققان معتقدند که آموزش آن‌ها بر روی متن‌های بیشتر به کاهش نرخ خطای آن‌ها کمک خواهد کرد. این روندی است که منجر به بزرگتر و بهتر شدن مدل‌های زبانی می شود.

درخواست از مدل‌ها برای بررسی کار خود به صورت مرحله به مرحله، رویکرد دیگری است که به عنوان زنجیره‌ای از تفکر شناخته می‌شود. تحقیقات نشان داده که این روش دقت خروجی یک چت‌بات را افزایش می‌دهد. در آینده ممکن است مدل‌های زبانی بزرگ بتوانند متن‌هایی که تولید می‌کنند را بررسی کرده و وقتی شروع به منحرف شدن می‌کنند، به عقب برگردند.

اما هیچ ‌یک از این تکنیک‌ها به طور کامل توهمات را متوقف نخواهد کرد. تا زمانی که مدل‌های زبانی بزرگ احتمالاتی باشند، در تولید آن‌ها عنصری از شانس وجود دارد. اگر ۱۰۰ تاس را بیندازید هر باریک الگوی متفاوت خواهید داشت.

 حتی اگر تاس‌ها، مانند مدل‌های زبانی بزرگ، طوری وزن شده باشند که برخی الگوها بسیار بیشتر از دیگران تولید شوند، نتایج همچنان هر بار یکسان نخواهند بود. وقتی در نظر بگیرید که این فناوری چند بار در روز استفاده می‌شود، حتی یک خطا در ۱,۰۰۰ یا ۱۰۰,۰۰۰، به تعداد زیادی خطا می‌انجامد.

هرچه این مدل‌ها دقیق‌تر شوند، بیشتر اعتماد ما را جلب خواهند کرد. مطالعات نشان می‌دهند هرچه چت‌بات‌ها بهتر شوند، زمانی که یک خطا اتفاق می‌افتد، بیشتر احتمال دارد افراد آن را نادیده بگیرند.

نمونه هایی از توهم مدل های زبانی  بزرگ

چت‌بات جدید سازمان بهداشت جهانی برای ارائه بهترین خدمات در تاریخ ۲ آوریل راه‌اندازی شد.

آواتار مجازی جدید با پشتیبانی از GPT-3.5 به نام SARA  (Smart AI Resource Assistant for Health) به صورت ۲۴ ساعته و در هشت زبان مختلف نکات بهداشتی درباره نحوه تغذیه مناسب، ترک سیگار، کاهش استرس و موارد دیگر را به میلیون‌ها نفر در سراسر جهان ارائه می‌دهد.

اما مانند همه چت‌بات‌ها، SARA نیز می‌تواند در پاسخ‌های خود اشتباه کند. به زودی مشخص شد که اطلاعات نادرستی ارائه می‌دهد. در یک مورد، لیستی از نام‌ها و آدرس‌های جعلی برای کلینیک‌های غیرواقعی در سان‌فرانسیسکو ارائه کرد. سازمان بهداشت جهانی در وب‌سایت خود هشدار می‌دهد که SARA همیشه دقیق نیست.

این اتفاق دوباره تکرار شد. اشتباهات چت‌بات‌ها اکنون به یک معضل جدی تبدیل  شده است. چت‌بات علمی Meta با نام Galactica که مدت کوتاهی فعال بود، مقالات علمی جعلی ساخت و در ویکی‌ پدیا درباره “تاریخ خرس‌ها در فضا” مقاله تولید کرد. در ماه فوریه، کانادا مجبور شد سیاست بازپرداختی، که توسط چت‌بات خدمات مشتریانش اختراع شده بود را رعایت کند.

 سال گذشته، یک وکیل به دلیل ارائه اسناد جعلی به دادگاه جریمه شد. این اسناد توسط ChatGPT ساخته شده بودند و پر از نظرات قضایی و ارجاعات قانونی جعلی بود. وکیل به قاضی گفته بود: “من درباره این سایت جدید شنیده بودم و به اشتباه تصور می کردم شبیه یک موتور جستجوی فوق ‌العاده است. نمی دانستم که ChatGPT می‌تواند مواردی را ابداع کند.”

 

برای کاهش اثرات منفی توهم مدل‌های زبانی بزرگ (Hallucination)، محققان به‌دنبال روش‌های بهبود الگوریتم‌های آموزشی، ارزیابی‌های انسانی و استفاده از منابع معتبر هستند.

شاید بهترین راه ‌حل برای جلوگیری از توهم LLMs، مدیریت انتظارات ما درباره موارد استفاده این ابزارها، باشد.

مدل های مولد یا Generative Models

مدل های مولد یا Generative Models

مدل‌ های مولد یا Generative Models  نوعی مدل هوش مصنوعی هستند که داده‌های جدیدی را از داده‌های موجود تولید می‌کنند. مدل‌ های Generative در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه‌ ها هستند. وظیفه اصلی مدل‌ های مولد درک الگوها از یک مجموعه داده است. هنگامی که این الگوها آموخته شدند، مدل مولد می‌تواند داده‌های جدیدی تولید کند که ویژگی‌های مشابهی با مجموعه داده اصلی دارد. Generative Models برای تولید محتوای خلاقانه در حوزه‌های مختلف از هنر تا علم، کاربردهای گسترده‌ای دارند. 

مدل های مولد چگونه کار می کنند؟

مدل های یادگیری ماشین معمولی، بر روی دسته بندی نقاط داده ای تمرکز دارند و سعی می کنند رابطه بین عوامل شناخته شده و ناشناخته را تعیین کنند. به عنوان مثال، مدل های معمولی به تصاویر نگاه می کنند – داده های شناخته شده مانند ترتیب پیکسل، خط، رنگ و شکل – را به کلمات – عامل ناشناخته – نگاشت می کنند. از لحاظ ریاضی، مدل ها با شناسایی معادلاتی که می توانند عوامل ناشناخته و شناخته شده را به عنوان متغیرهای x و y به صورت عددی نگاشت کنند، کار می کردند.

مدل های AI

یک رویکرد نسبتاً جدید در حوزه یادگیری عمیق (Deep Learning) ، برای مدل‌سازی فرایندهای تصادفی و پویا مورد استفاده قرار می‌گیرد. مدل‌های مولد از اصول حرکت مولکول‌ها و پخش و انتقال گرما در فیزیک مشتق گرفته‌ شده اند.

مدل های هوش مصنوعی مولد یک قدم فراتر می روند. به جای پیش بینی یک برچسب بر اساس برخی از ویژگی ها، سعی می کنند ویژگی های داده شده با برچسب خاصی را پیش بینی کنند. از لحاظ ریاضی، مدل Generative  احتمال رخ دادن همزمان x  و y را محاسبه می کند. این مدل ها توزیع ویژگی های مختلف داده ها و روابط آنها را یاد می گیرند.

به عنوان مثال، تصاویر حیوانات را تجزیه و تحلیل می کنند تا متغیرهایی مانند اشکال مختلف گوش، چشم، ویژگی های دم و الگوهای پوستی را ثبت کنند. مدل های مولد ویژگی ها و روابط متغیرها را یاد می گیرند تا بفهمند حیوانات مختلف به طور کلی چگونه به نظر می رسند. سپس می توانند تصاویر حیوانات جدیدی را که در مجموعه آموزشی نبوده اند، بازسازی کنند.

در ادامه برخی از انواع مدل های مولد را  معرفی می کنیم :

مدل های انتشار (Diffusion models)

مدل‌ های انتشار یک نوع مدل مولد است که رویکرد نسبتاً جدیدی در حوزه یادگیری عمیق (Deep Learning) است و برای مدل‌سازی فرایندهای تصادفی و پویا مورد استفاده قرار می‌گیرد. مدل‌های Diffusion براساس اعمال گام‌های کوچک و تصادفی روی داده‌ها، اطلاعات را از یک حالت شروع به یک حالت پایانی انتشار می‌دهند. این فرآیند پخش اطلاعات به طور تدریجی از یک سطح به سطح دیگر و از یک نقطه به نقطه دیگر انجام می‌شود از این رو آن را مدل‌سازی پخش اطلاعاتی نیز می‌توان نامید.

مدل‌های انتشار، با تغییرات تصادفی کنترل شده در نمونه‌ی اولیه، داده‌های جدیدی ایجاد می‌کنند. آن‌ها با داده‌ی اصلی شروع می‌کنند و تغییراتی (نویز) را به آن اضافه می‌کنند که به تدریج باعث می‌شود داده‌ی جدید کمتر شبیه داده‌ی اصلی شود. این نویز با دقت کنترل می‌شود تا داده‌های تولید شده همچنان مرتبط و واقع‌گرا باشند.

 پس از اضافه کردن نویز در چندین مرحله، مدل انتشار فرآیند را معکوس می‌کند. با حذف تدریجی نویز، داده‌ی جدیدی تولید می‌شود که شبیه داده‌ی اولیه است. این مدل‌ها به کمک فرآیند پخش اطلاعات و تحول تصویر، تصاویر جدید و شبیه به تصاویر ورودی را تولید می‌کنند.

مدل های انتشار (Diffusion models)

شبکه های مولد متخاصم (Generative Adversarial networks)

شبکه‌ های مولد متخاصم (GAN)، یکی از مدل‌ های مولد هوش مصنوعی است که بر پایه‌ی مفهوم مدل انتشار ساخته شده است. GAN‌ها از دو شبکه عصبی مختلف، شبکه مولد(generator) و شبکه تمیز دهنده (discriminator) ، تشکیل شده‌اند که به صورت رقابتی کار می‌ کنند. شبکه‌ی مولد با اضافه کردن نویز تصادفی، نمونه‌های داده‌ی جعلی تولید می‌کند که تا جای ممکن شبیه به داده‌های واقعی باشند. شبکه‌ی تمیز دهنده سعی می‌کند داده‌ های واقعی و داده‌ های جعلی تولید شده توسط مولد را تشخیص دهد. در طول آموزش، مولد به طور مداوم توانایی خود را در ایجاد داده‌ های واقعی بهبود می‌ بخشد در حالی که تمیز دهنده در تشخیص دادن داده‌ های واقعی از داده‌های جعلی بهتر می‌ شود. این فرآیند مقابله‌ای تا زمانی ادامه دارد که مولد داده‌ای تولید کند که تمیز دهنده نتواند آن را از داده‌ های واقعی تشخیص دهد . این رقابت میان دو شبکه توانایی بهبود تولید داده‌های مولد را افزایش می‌دهد و باعث تولید داده‌هایی با کیفیت بالاتر می‌شود. GANs در زمینه‌های مختلف مانند تولید تصاویر واقع گرایانه مانند ایجاد چهره‌های واقعی انسانی یا آثار هنری، تولید موسیقی، ترجمه ماشینی و سایر وظایف خلاقانه مورد استفاده قرار می‌گیرند.

شبکه های مولد متخاصم

اتوانکودرهای متغیر (Variational Autoencoders (VAEs) )

اتوانکودرهای متغیر  یک مدل مولد هوش مصنوعی هستند که یک نمایش فشرده از داده به نام ” فضای لاتنت” را یاد می‌گیرند. فضای لاتنت(نهفته) یک نمایش ریاضی از داده است. می‌توانید آن را به عنوان یک کد منحصر به فرد که داده را بر اساس تمام ویژگی‌های آن نشان می دهد، در نظر بگیرید. به عنوان مثال، اگر چهره‌ها را مورد مطالعه قرار دهیم، فضای لاتنت شامل اعدادی است که شکل چشم، شکل بینی، خطوط لب و گوش را نشان می‌ دهد.

اتوانکودرهای متغیر از دو شبکه عصبی استفاده می‌کنند – رمزگذار(encoder ) و رمزگشا(decoder). شبکه عصبی رمزگذار داده ورودی را به یک میانگین و واریانس برای هر بعد از فضای لاتنت نگاشت می‌کند. سپس یک نمونه تصادفی از یک توزیع گاوسی (نرمال) تولید می‌کند. این نمونه یک نقطه در فضای لاتنت است و نسخه فشرده و ساده شده داده ورودی را نشان می‌دهد.

 شبکه عصبی رمزگشا این نقطه نمونه‌برداری شده را از فضای لاتنت برمی‌دارد و آن را به داده‌ای که شبیه داده ورودی اصلی است بازسازی می‌کند. توابع ریاضی برای اندازه‌گیری اینکه چقدر داده بازسازی شده با داده اصلی مطابقت دارد، استفاده می‌شوند.

VAEها به خوبی برای تولید داده‌های جدید و ایجاد تنوع در داده‌ها استفاده می‌شوند، و همچنین برای فضای لاتنت یا فضای نهانی که بهبود انتشار ویژگی‌های مهم داده‌ها را توصیف می‌کند، بسیار مفید هستند. برای درک بهتر، این مدل‌ها معمولاً در وظایف ایجاد محتوای جدید مورد استفاده قرار می‌گیرند. به عنوان مثال:

  • ساخت تصاویر واقع‌گرایانه از چهره‌های انسان.
  • ساخت موسیقی.
  • تولید محتوای متنی.
  • افزایش داده‌های موجود با نمونه
اتوانکودر های مختلف

مدل های مبتنی بر ترانسفورمر(Transformer-based models)

مدل‌های مولد مبتنی بر ترانسفورمر، بر پایه‌ی مفاهیم رمزگذار و رمزگشا در اتوانکودرهای متغیر ساخته شده‌اند. مدل‌های مبتنی بر ترانسفورمر، لایه‌های بیشتری به رمزگذار اضافه می‌کنند تا عملکرد آن‌ها در وظایف مبتنی بر متن مانند درک، ترجمه و نوشتن خلاقانه بهبود یابد.

Transformer یک ساختار شبکه عصبی عمیق است که بر اساس مکانیزم توجه (attention mechanism) کار می‌کند.  در واقع، به جای استفاده از لایه‌های بازگردنده مانند GRU یا LSTM ، ترانسفورمر از لایه‌های توجه استفاده می‌کند که به مدل امکان مدل‌سازی موازی و نیز برقراری ارتباطات بین تمام توکن‌های ورودی را می‌دهند. Transformer اهمیت بخش‌های مختلف یک دنباله ورودی را در هنگام پردازش هر عنصر در دنباله محاسبه می‌کند.

Transformer-based models همچنین دارای اندازه قابل توجهی از پارامترها هستند که آن‌ها را قادر به یادگیری و تولید داده‌های با کیفیت و لغوی و تسلط بر زبان بیشتر می‌کند. مدل‌هایی مانند BERT برای تبدیل متن به نمایش برداری، و GPT برای تولید متن زبان طبیعی قابل استفاده هستند.

برای درک اینکه مدل‌های مبتنی بر ترانسفورمر چگونه کار می‌کنند، یک جمله را به عنوان یک دنباله از کلمات تصور کنید. خودتوجهی(Self-attention) به مدل کمک می‌کند تا هنگام پردازش هر کلمه، بر روی کلمات مرتبط تمرکز کند. برای به دست آوردن انواع روابط مختلف بین کلمات، مدل مولد مبتنی بر ترانسفورمر از چندین لایه رمزگذار به نام‌ “attention heads” استفاده می‌کند. هر head یاد می گیرد که به بخش‌های مختلف دنباله ورودی توجه ‌کند. در نتیجه مدل می تواند به طور همزمان به جنبه‌های مختلف داده فکر کند.

همچنین هر لایه تعبیه‌های متنی را بهبود می‌بخشد. لایه‌ها تعبیه‌ها را اطلاعاتی‌تر می‌کنند و همه چیز  از دستور گرامر تا معنایی پیچیده را در بر می‌گیرند.

 استفاده از Transformer-based models، به ویژه در مسائل مرتبط با پردازش زبان طبیعی، از جمله ترجمه ماشینی، استخراج اطلاعات و پرسش و پاسخ، بهبود قابل توجهی در نتایج و کارایی مدل‌ها داشته است.

 

مدل های مبتنی بر ترانسفورمر

شبکه های بیزی (Bayesian networks)

مدل مولد Bayesian networks، مدل‌ گرافیکی است که روابط احتمالی را میان مجموعه‌ای از متغیرها نشان می‌دهد .  در این مدل‌ها، توزیع احتمالاتی متغیرهای مختلف و وابستگی بین آن‌ها، با استفاده از شبکه‌های بیزی مدلسازی می‌شود.

مدل‌های Bayesian networks بر اساس اصل علت ‌گرایی ساخته شده‌اند و توانایی بسیار بالایی در تحلیل و پیش‌بینی وابستگی‌ها دارند. در مواقعی که باید فهمید که چگونه یک پدیده یا مسئله به ‌دیگر پدیده‌ ها و عوامل وابسته به آن مرتبط است، از مدل مولد Bayesian network استفاده می شود. 

به عنوان مثال در حوزه پزشکی، تشخیص صحیح یک بیماری ممکن است به دلیل وابستگی بین علائم و بیماری‌های مختلف، یک چالش باشد. با استفاده از شبکه Bayesian ، این وابستگی‌ها نشان داده می شود و  روابط میان علائم و بیماری‌ها ،  مدل‌سازی می‌شود. بنابراین امکان پیش‌بینی احتمال بروز یک بیماری بر اساس مجموعه از علائم مختلف افزایش می‌یابد. به طور خلاصه، با استفاده از مدل‌های Bayesian networks، می‌توان به صورت دقیق تر و موثرتر به تحلیل و پیش‌بینی روابط علّی و وابستگی‌های پیچیده در داده‌ها پرداخت.

مدل مولد Bayesian networks در بسیاری از زمینه ها از جمله تولید تصویر ، موسیقی، ترجمه ماشینی و سایر وظایف مربوط به هوش مصنوعی و یادگیری ماشینی کاربرد دارد. 

شبکه های بیزی

ماشین‌های محدود بولتزمن (RBMs)

مدل مولد ماشین‌های محدود بولتزمن یک نوع شبکه عصبی مصنوعی است که برای مدل‌سازی داده‌ها و استخراج ویژگی‌های مهم از داده‌ها استفاده می‌شود. این مدل‌ها برای تشخیص الگوها در داده‌ها و تولید داده‌های جدید استفاده می‌شوند.

مدل‌ مولد RBM  از دو نوع لایه تشکیل شده‌ است : لایه قابل مشاهده (visible layer) که مشاهدات را دریافت می‌کند و لایه پنهان (hidden layer) که ویژگی‌های نهانی از داده‌ها را نمایش می‌دهد.

 هدف اصلی از استفاده از مدل RBM، یادگیری توزیع احتمالاتی پنهان در داده‌ها و استخراج ویژگی‌های مهم از آن‌ها است. با آموزش RBM ، می‌توان ویژگی‌های مهم و ارتباطات میان داده‌ها را درک کرد. سپس این ویژگی‌ها می‌توانند برای مسائلی مانند تشخیص الگو، تقسیم بندی یا بازسازی داده‌ها استفاده شوند.

 مدل مولد RBM یک ابزار قدرتمند برای یادگیری و استخراج ویژگی از داده‌ها است و در زمینه‌های یادگیری ماشین، تشخیص الگو و پردازش تصویر مانند پیشنهاد فیلم در پلتفرم‌ های مختلف براساس علائق کاربر، استفاده می‌ شود.

هوش مصنوعی

هوش مصنوعی

مفهوم هوش مصنوعی در سال ۱۹۵۶ ابداع شد و به سیستم‌ های جامعی اشاره دارد که محیط اطراف را تجزیه و تحلیل می ‌کنند، از هوش برای انجام اقدامات مورد نیاز استفاده می ‌کنند و با استفاده از اختیارات داده شده، به اهداف تعریف شده  دست می‌ یابند. این سیستم‌ ها می‌ توانند مبتنی بر نرم‌ افزار (مانند دستیارهای صوتی) یا مبتنی بر سخت‌ افزار (مانند خودروهای خودکار) باشند. هوش فعالیت به دست آوردن دانش از محیط اطراف و استفاده از آن دانش و تجربه برای انجام وظایف است. هوش مصنوعی سیستم‌ هایی است که می‌ توانند مثل انسان‌ ها فکر کنند و از طریق گفت‌ و گوها و دستورات صوتی با انسان‌ ها تعامل کند. سپس داده‌ ها را در دستگاه‌ های ذخیره‌ سازی ذخیره کند و از این داده‌ ها به عنوان حافظه یا دانش مانند انسان‌ ها استفاده کند. هوش مصنوعی همچنین قادر به واکنش و نظارت بر اقدامات خود به شکلی مشابه با موجودات زنده است.

در زندگی روزمره ‌ی ما، مثال‌ های متعددی از این فناوری وجود دارد. به عنوان مثال، دستیارهای آنلاین مانند Google Assistant، Amazon Alexa، Apple Siri، خودروهای متصل به شبکه و چت بات ‌ها.

در ادامه به تاریخچه هوش مصنوعی ، انواع و کاربردهای هوش مصنوعی خواهیم پرداخت.

 

مهارت های هوش مصنوعی

تاریخچه هوش مصنوعی

در سال ۱۹۴۰، یک ریاضیدان برجسته، ایده‌ ای را مطرح کرد که در آن  داده‌ ها و فرآیندها می‌ توانند به عنوان حافظه در کامپیوتر ذخیره شوند. در سال ۱۹۴۹ مدلی ارائه شد که در آن تجربه ها شبکه ای از مسیرهای عصبی را ایجاد می کنند و این مسیرهای شبکه بسته به فراوانی و دفعات این تجربه ها قدرتمند می‌شوند. در سال ۱۹۵۰،  آزمونی به نام آزمون Turing  معرفی شد که تشخیص می داد که آیا ماشین یا سیستم مورد آزمایش، هوشمند است یا خیر. دانشجویان دانشگاه هاروارد، یک ماشین محاسباتی با ۴۰ نورون مصنوعی ساختند که از شبکه‌ های عصبی و الگوریتم‌ های تقویتی برای انجام محاسبات و تصمیم ‌گیری‌ های احتمالی استفاده می ‌کرد. در سال ۱۹۵۲، برنامه ی  کامپیوتری  برای بازی شطرنج طراحی شد که یک کامپیوتر را قادر می ساخت تا شطرنج را به تنهایی بازی کند همچنین ماشینی را توسعه دادند که خطوط محدودی از زبان روسی را به انگلیسی ترجمه می کرد.

در سال ۱۹۵۶، مفهوم هوش مصنوعی در ورکشاپ Dartmouth  به وجود آمد.  توافق شد که هوش محدود به موجودات زنده محدود نیست و می ‌تواند به ماشین ‌های مصنوعی نیز نسبت داده شود. سپس منطق ‌گرایی پیشنهاد شد . این ماشین های منطق گرا می ‌توانستند مثل انسان‌ها فکر کنند و مطابق با آن عمل کنند. در سال ۱۹۵۸، McCarthy زبان برنامه‌نویسی کامپیوتری LISP  را ایجاد کرد و به همراه Marvin Minsky  یک پروژه هوش مصنوعی را آغاز کردند. در سال ۱۹۶۰، McCarthy مقاله‌ای منتشر کرد که در آن از یادگیری ماشین ‌ها با استفاده از تجربیات، به همان روشی که انسان‌ها انجام می‌دهند، صحبت شده است. سپس در سال ۱۹۵۹  یک سرور عمومی ارائه شد که مشکلات عمومی را حل می کرد همچنین برنامه‌ای ارائه شد که می‌توانست مسایل هندسی را حل کند. Arthur Samuel  در حین همکاری با IBM، عبارت یادگیری ماشین را معرفی کرد. در سال ۱۹۶۳، McCarthy ، معروف به پدر هوش مصنوعی، یک آزمایشگاه هوش مصنوعی در دانشگاه استنفورد را تاسیس کرد. در سال ۱۹۶۹، یک سیستم متخصص به نام MYCIN، مبتنی بر هوش مصنوعی، معرفی شد که می‌توانست نوع باکتری‌ های را که بیماران از آن ها آلوده شده بودند، شناسایی کند و نوع آنتی‌بیوتیک‌هایی که برای درمان موثر هستند ، معرفی کند.

در سال ۱۹۸۱، شرکت Digital Equipment Corporation،  eXpert CONfigurer را معرفی کرد که نقش مهمی در تغییرات و پیشرفت‌ هایی که هوش مصنوعی در جهان به وجود آورده ایفا کرد و بدین ترتیب دوره اول زمستان هوش مصنوعی پایان یافت . در سال ۱۹۸۲، پروژه سیستم کامپیوتری نسل پنجم توسط ژاپن آغاز شد که می‌ توانست پلتفرمی بزرگ برای پروژه‌های آینده مرتبط با هوش مصنوعی فراهم کند. این پروژه در نهایت در سال ۱۹۹۲ به دلیل عدم توانایی در برآورده کردن انتظارات پایان یافت. در دوره‌ی بین سال‌های ۱۹۸۷ تا ۱۹۹۳، به دلیل فعالیت‌های تحقیقاتی گران ‌قیمت که نتایج مطلوبی نداشتند، دور دوم زمستان هوش مصنوعی شروع شد.

پس از سال ۲۰۰۰، فعالیت‌های تحقیقاتی مرتبط با هوش مصنوعی شتاب زیادی گرفت. DARPA یک مسابقه برگزار کرد که هدف آن ترویج نوآوری در وسایل نقلیه بود. در سال ۲۰۰۵ این مسابقه توسط یک ماشین رباتیک به نامStanley  که یک ماشین رباتیک ساخته شده توسط دانشگاه استنفورد بود، برنده شد. نیروی نظامی ایالات متحده راه را برای سرمایه‌گذاری در ربات‌ها مانند Big Dog  توسعه ‌یافته توسط Boston Dynamics  و PackBot  توسط iRobots  هموار کرد. گوگل در سال ۲۰۰۸  قابلیت تشخیص گفتار را در برنامه آیفون معرفی کرد و پس از آن یک خودروی خودران در سال ۲۰۱۴، AlphaGo  در سال ۲۰۱۶ و زبان BERT  در سال ۲۰۱۸ را معرفی کرد. پیشرفت های دیگری مانند Apple’s Siri  در سال ۲۰۱۱، Amazon’s Alexa  در سال ۲۰۱۴، ربات Sophia توسط Hanson Robotics در سال ۲۰۱۶ و Waymo One Service توسط Waymo در سال ۲۰۱۸ ارائه شد.  در طول پاندمی COVID-19، در سال ۲۰۲۰، Baidu، یک شرکت چند ملیتی چینی، الگوریتمی را ارائه داد که تنها در چند ثانیه با استفاده از تکنیک های هوش مصنوعی به درک توالی ویروس کمک کرد.

ChatGPT برای اولین بار در تاریخ ۳۰ نوامبر ۲۰۲۲ توسط OpenAI معرفی شد.  این چت‌بات بر اساس مدل‌های زبانی بزرگ (LLMs) ساخته شده است  . از آن زمان به بعد، ChatGPT  به عنوان یکی از ابزارهای هوش مصنوعی محبوب برای مکالمات تعاملی و پاسخ به سوالات کاربران مورد استفاده قرار گرفته است.چند نمونه از چت بات های هوش مصنوعی عبارتند از :

  • جمینای (Gemini) از گوگل
  • چت‌بات‌های متداول مایکروسافت (LLaMA) و بینگ
  • چت بات Q از آمازون

به طور کلی، در دهه‌ی گذشته، هوش مصنوعی در زمینه‌های مختلف پیشرفت‌های چشمگیری کرده است.  چند تکنولوژی مهم در این فناوری عبارتند از:

  1. یادگیری ماشینی (Machine Learning)
  2. بازاریابی خودکار (Marketing Automation)
  3. یادگیری عمیق (Deep Learning)
  4. پردازش زبان طبیعی (NLP)
  5. اتومبیل‌های خودران

به نظر می‌رسد هوش مصنوعی در سال‌های آینده نقش مهمی در تحولات فناوری خواهد داشت و تکنولوژی‌های جدیدی همچون ChatGPT-4 با توانایی‌های بهتر در درک زبان ، به توسعه‌ ی این حوزه کمک می ‌کنند.

 

انواع هوش مصنوعی

چهار نوع هوش مصنوعی وجود دارد که به شرح زیر می باشند:

  1. سیستم‌ های واکنشی (Reactive Systems): همانطور که از نامش پیداست، این نوع هوش مصنوعی بر اساس عوامل محیطی، واکنش نشان می‌ دهد، قادر به ذخیره اطلاعات نیست و از تجربه یا دانش تاریخی استفاده نمی کند. فقط عوامل موجود را درک می کند و بهترین عکس‌ العمل را انجام می‌ دهد. یک مثال از ماشین واکنشی، Deep Blue  شرکت IBM است. این نام کامپیوتری است که در یک بازی شطرنج بهترین قهرمان جهان را شکست داد. این کامپیوتر بر اساس وضعیت موجود پس از هر حرکت عمل می‌کرد و نمی‌توانست حرکات آینده را ارزیابی کند .  مثال دیگری از ماشین ‌های واکنشی، AlphaGo  شرکت Google است که در بازی Go  به مقام قهرمان جهانی رسید .
  2. سیستم‌های حافظه محدود (Limited Memory Systems): همانطور که از نامش پیداست، نه تنها بر اساس عوامل موجود عکس‌العمل نشان می‌ دهد، بلکه قابلیت محدودی در ذخیره داده‌ های گذشته و تجزیه و تحلیل آنچه ممکن است در آینده اتفاق بیفتد را دارد. فرآیند حافظه محدود در شکل زیر خلاصه شده است. در این فرآیند ابتدا داده‌ های پایه جمع ‌آوری می‌ شود سپس داده‌ ها با استفاده از مدل‌ ها برای سیستم یادگیری، تجزیه و تحلیل می‌شوند. با استفاده از تجزیه و تحلیل، پیش ‌بینی ‌ها انجام می‌ شود و برای بررسی و بازخورد ارسال می‌شوند. خروجی کلی این فرآیند برای مراجعه آینده ذخیره می‌ شود و بر اساس نیازها قابل بازیابی است. حافظه محدود سه مدل را دنبال می کند:

 

  • یادگیری از طریق تقویت‌ها (Reinforcements): این نوع سیستم ها از تکنیک‌های آزمایش و خطا برای رسیدن به تصمیمات نهایی استفاده می کنند. هر جا که نتایج مطلوب باشند، آن نتیجه انتخاب می‌ شود. این نوع یادگیری بدون هیچ ناظری عمل می کند؛ بنابراین نیاز به مجموعه‌ای از الگوریتم‌ های قوی دارد.
  • سیستم‌های حافظه‌ی بلند و کوتاه ‌مدت (LSTM) : هوش مصنوعی مبتنی بر LSTM از حافظه‌های طولانی ‌مدت و کوتاه ‌مدت و تجربیات استفاده می کند. سپس مدل‌ها را برای پیش‌ بینی‌های آینده ایجاد می کند و توسعه می‌ دهد. این سیستم‌ها هنگام تصمیم‌ گیری نهایی به حافظه‌ی کوتاه‌ مدت نسبت به حافظه‌ی طولانی‌ مدت وزن بیشتری می ‌دهند زیرا بر اساس فرضیه ‌ی پایه آن ها، رویدادهای گذشته‌ ی نزدیک بیشتر از رویدادهای گذشته دور بر روی نتایج آینده تأثیر دارند.
  • سیستم‌های شبکه‌ های مولد مبارزه‌ای تکاملی (Evolutionary GAN): در این نوع یادگیری، سیستم‌های شبکه‌ های مولد مبارزه‌ای بر اساس رویدادها پیوسته تکامل می‌ یابند و در طول زمان مراحل تکاملی مختلفی را طی می کنند. در این نوع یادگیری، سیستم‌ها همیشه مسیر یکسانی را دنبال نمی ‌کنند، بلکه شبکه‌ ها هر بار به دنبال مسیر جدید و بهتری می ‌گردند تا راه ‌حل‌ های بهتری ارائه دهند و اینگونه تکامل می‌یابند.
  1. نظریه ذهن (Theory of Mind): این نوع هوش مصنوعی رفتاری را که موجودات زنده بر اساس آن تصمیم گیری می کنند مورد مطالعه قرار می‌ دهد. این سیستم‌ها تحلیل می ‌کنند که موجودات زنده در زمان تصمیم گیری چه احساسی را تجربه می کنند تا به سطح معینی از استقلال و خودمختاری برسند. برای دستیابی به این هدف، سیستم‌ها باید بفهمند که ذهن موجودات زنده چگونه کار می کند و این دانش را مفهوم سازی کنند تا مطابق با آن عمل کنند. نظریه ذهن تا به امروز اجرایی نشده است.
  2. خودآگاهی (Self-awareness): این مرحله فقط پس از دستیابی به نظریه ذهن قابل دستیابی است. در این سطح، هوش مصنوعی سطح آگاهی موجودات زنده را تجزیه و تحلیل می کند و فقط بر روی چرایی تمرکز نمی کنند بلکه برای دستیابی به سطح مشابهی از آگاهی بر روی “چگونگی” نیز تمرکز می کند.

 

کاربردهای هوش مصنوعی

هوش مصنوعی موضوعی است که در تقریباً همه ‌ی زمینه‌ ها مورد بحث قرار می‌ گیرد و بدون شک، پتانسیل زیادی برای تغییر حوزه‌ های گوناگون زندگی را دارد . کاربردهای هوش مصنوعی در حوزه های مختلف به شرح زیر است:

کاربردهای هوش مصنوعی
  1. بهداشت و درمان: کاربردهای هوش مصنوعی در حوزه بهداشت و درمان شامل فعالیت هایی مانند نگهداری سوابق پزشکی بیمار در گذشته و حال، زمان ‌بندی نوبت ‌دهی به صورت زمان ‌واقعی، فعالیت‌ های مرتبط با صورتحساب و پرداخت و سایر فعالیت‌ های اداری می‌ شوند. ابزارها و برنامه‌ های پیشرفته شامل تشخیص خودکار بیماران و به اشتراک گذاری نتایج می شود که به پزشکان در درمان بیماران بسیار کمک می کند. در شرایط ویژه مانند اپیدمی ویروس کووید-۱۹، هوش مصنوعی به شدت در درک توالی ویروس در عرض چند ثانیه مفید بود.  تحقیقات زیادی در حال انجام است تا هوش مصنوعی را در حوزه پزشکی به سطحی برساند که بیمارستان‌ ها به طور کامل خودکار شوند و با دخالت بسیار کم انسانی عمل کنند.
  2. کسب و کار: تحقیقات زیادی برای توسعه محصولات جدید یا معرفی ویژگی‌های جدید برای تحقق نیازهای مصرف‌کنندگان انجام می‌ شود. برای دستیابی به این هدف، درک بازار هدف بسیار مهم است. از ابزارهای تحلیلی زیادی برای درک رفتار مصرف‌ کنندگان استفاده می‌ شود. هوش مصنوعی الگوریتم‌ های پیچیده‌ای را فراهم می کند که به تجزیه و تحلیل داده ها کمک می کند و نتایج تاثیر گذاری را ارائه می‌ دهد.
  3. آموزش: هوش مصنوعی می ‌تواند بیشتر فعالیت‌های اداری را که بر عهده معلمان است، خودکار کند. اتوماسیون زمان بیشتری به معلمان می‌ دهد تا بر روی بهبود دانش‌آموزان تمرکز کنند. با تحقیقات بیشتر، ممکن است زمانی بیاید که این فناوری بتواند جایگزین برخی از مربیان شود.
  4. مالی: هوش مصنوعی در زمینه‌ های زیادی مانند تجزیه و تحلیل داده‌ های مالی، مدلسازی ریسک و معامله‌ گری مفید است. این فناوری می ‌تواند به سرمایه ‌گذاران مشاوره‌ های مالی مفیدی ارائه دهد. نرم‌ افزارهای پیچیده برای معامله در سهام، با استفاده از هوش مصنوعی بهبود یافته اند.
  5. قانون: در حوزه حقوق، برای بررسی صحت اسناد و درک متون، وقت و تلاش زیادی صرف می شود. انجام این کارها با استفاده از هوش مصنوعی بسیار ساده می شود، به این صورت که دستگاه می تواند به سرعت منبع اسناد را تأیید کند، بازخورد خود را در مورد صحت سند به اشتراک بگذارد، و درک اسناد را با کلمات ساده از متن نوشته شده با کلمات پیچیده، به اشتراک بگذارد.
  6. ساخت و ساز: در بسیاری از واحدهای تولیدی، بیشتر کار توسط ماشین هایی انجام می شود که از طریق هوش مصنوعی با حداقل تعامل انسانی انجام می شود. در گذشته ماشین‌ ها فقط در یک جهت فعالیت می کردند و ماشین ‌ها با کارگران انسانی همزیستی نداشتند. اکنون، با کمک این فناوری، ماشین ‌ها مسئولیت‌ های کاملی را از اول تا آخر به عهده می گیرند و با نیروی انسانی همزیستی می کنند.
  7. بانکداری: چت بات ها نمونه بارز هوش مصنوعی در مورد عملیات بانکی هستند. هنگامی که از وب سایت یک بانک بازدید می کنید، یک ربات چت به سوالات شما جواب می دهد. سوالات زیادی در ذهن مشتریان وجود دارد که نیازمند زمان و هزینه زیادی توسط نیروی انسانی است. شرکت های بانکی منابع مالی هنگفتی را برای مدیریت تعاملات مشتریان صرف می کنند که با استفاده از این فناوری، این هزینه ها به طور قابل ملاحظه ای کاهش می یابد .
  8. حمل و نقل: هوش مصنوعی می تواند در بخش حمل و نقل به طرق مختلف از جمله مدیریت ترافیک در جاده، تجزیه و تحلیل حرکت پروازها، و پیش بینی تاخیر در پرواز و وسایل نقلیه مرتبط، بسیار مفید باشد.
  9. امنیت: حملات سایبری مختلفی وجود دارد که از برقراری ارتباط امن در شبکه های ارتباطی جلوگیری می کند. هوش مصنوعی در تشخیص زودهنگام هرگونه تلاش غیرمجاز در شبکه، بسیار مفید است و در صورت ادغام با فناوری های دیگر مانند بلاکچین، می تواند شبکه را از حملات مختلف محافظت کند.

 

چالش های هوش مصنوعی

اجرای موفق هوش مصنوعی نیاز به مدیریت چالش‌های مختلف دارد. در زیر به برخی از این چالش‌ها و راه ‌حل‌ های ممکن برای غلبه بر آن‌ها می‌پردازیم:

  1. دانش فنی پیچیده: هوش مصنوعی یک فناوری بسیار پیچیده و در حال تکامل است. محققان سال‌ هاست که بر روی درک و پیاده‌سازی آن کار می کنند، اما هنوز بسیاری از اهداف آن‌ها دور از دسترس است. بنابراین رسیدن به تخصص فنی مورد نیاز، برای هر نهادی بسیار دشوار است.
  2. هزینه‌های زیاد: فقط سازمان‌های بزرگ مانند گوگل، اپل و آمازون می‌ توانند منابع مالی زیادی را برای تحقیقات در زمینه هوش مصنوعی اختصاص دهند. سازمان‌ های کوچک، ممکن است نتوانند هزینه‌های مورد نیاز برای پروژه‌های تحقیقاتی مرتبط با این فناوری را تامین کنند.
  3. ظرفیت ذخیره‌ سازی بالا: موفقیت هوش مصنوعی تا حد زیادی در دسترسی به داده‌ ها بستگی دارد. الگوریتم‌ ها و ابزارهای برنامه‌ نویسی مقدار زیادی داده را تجزیه و تحلیل می ‌کنند، که موجب چالش ذخیره ‌سازی این حجم عظیم از داده‌ ها می‌ شود.
  4. نیروی کار تخصصی: همانطور که قبلاً گفته شد، کار با هوش مصنوعی نیاز به دانش فنی پیچیده دارد. در دسترس بودن کارکنان با این دانش فنی محدود است، که منجر به هزینه‌های بالای استخدام نیروی کار ماهر می‌ شود.
  5. سرعت بالای محاسباتی: الگوریتم‌ های پردازش شده در مدل‌های هوش مصنوعی بسیار پیچیده هستند، و نیاز به فناوری‌ها و ابزارهای پیشرفته ‌ای دارند تا سرعت محاسباتی بالا را فراهم کنند.
  6. چالش‌های حقوقی: مدل‌های ساخته شده از طریق هوش مصنوعی ممکن است به دلیل عدم شفافیت و دیدگاه واضح، با چالش های قانونی روبرو شوند زیرا ممکن است افراد نتوانند تصمیم ‌گیری‌های مدل را درک کنند یا توضیح دهند.
  7. امنیت فنی: به دلیل عدم توانایی هوش مصنوعی در مدیریت موقعیت‌های خاص، ممکن است در مواقع غیر عادی ایمنی افراد به خطر بیافتد. این مسئله می ‌تواند به تدابیر امنیتی و حقوقی منجر شود.
  8. مسائل متفرقه دیگر: استفاده از هوش مصنوعی می ‌تواند به مشکلات متعدد دیگر نیز منجر شود. این مشکلات شامل بیکاری گسترده، افزایش نابرابری اقتصادی و تأثیر مخرب بر محیط زیست می‌ شود.

به طور کلی، هوش مصنوعی همزمان با فرصت‌ها، چالش‌های حقوقی و اجتماعی را نیز به همراه دارد. برای مدیریت این چالش‌ها، نیاز به توسعه قوانین و تدابیر مناسب است همچنین، توجه به مسائل امنیتی و تأثیرات زیست ‌محیطی نیز از اهمیت بالایی برخوردار است. 

طرح کسب و کار چیست و AI چگونه آن بهبود می دهد؟

طرح کسب و کار چیست و AI چگونه آن بهبود می دهد؟

طرح کسب و کار (Business Plan) یک سند تخصصی است که شامل جزئیات و برنامه‌ های کسب و کار برای توسعه و رشد آن در آینده می‌ باشد. بیزینس پلن حاوی اهداف، استراتژی‌ها، تحلیل بازار، برنامه‌های مالی، ساختار سازمانی، محصولات و خدمات، رقبا و فرصت‌ها و تهدیدات به کسب و کار است.

طرح کسب و کار به عنوان یک راهنمای استراتژیک ، به کسب و کارها کمک می کند تا اهداف خود را تعیین کنند، راهبرد های خود را ارتقا دهند و منابع مالی و منابع انسانی لازم برای رشد و توسعه کسب و کار را بهینه کنند. همچنین بیزینس پلن می تواند به کسب و کار در جذب سرمایه گذاران، اعضای تیم و همکاران، تعیین قیمت و استراتژی‌های بازاریابی کمک کند.

در این مقاله نقش هوش مصنوعی (AI) در بهبود برنامه ریزی کسب و کار را مورد بررسی قرار می دهیم و تأثیر AI در بهبود عملکرد کلی کسب و کار و توسعه استراتژی را بررسی می کنیم.

برنامه ریزی کسب و کار چیست؟

برنامه ریزی کسب و کار یک فرآیند سیستماتیک است که سازمان ها با تعیین اهداف، تعریف جهت گیری خود و تخصیص منابع برای دستیابی به آن اهداف، انجام می دهند. این فرآیند شامل  آنالیز محیط داخلی و خارجی، شناسایی فرصت ها و تهدیدات و تدوین استراتژی هایی برای پاسخ به آنها است. مزایای برنامه ریزی کسب و کار بسیار زیاد است، از جمله بهبود تصمیم گیری، افزایش رقابت پذیری در بازار، تخصیص بهتر منابع، افزایش سودآوری و پایداری در بلند مدت.

برنامه ریزی کسب و کار همچنین به سازمان ها کمک می کند تا ماموریت و چشم انداز خود را مشخص کنند، و اطمینان حاصل کنند که تمامی ذینفعان همسو هستند و  برای رسیدن به یک هدف مشترک تلاش می کنند. این فرآیند یک چارچوب برای اولویت بندی اقدامات و برنامه های سازمان ها فراهم می کند، به گونه ای که زمان و منابع بر روی مهم ترین و مؤثرترین حوزه ها متمرکز شود. علاوه بر این، بیزینس پلن به کسب و کارها اجازه می دهد تا تغییرات بازار، صنعت و چشم انداز رقابتی را پیش بینی کنند و با آن سازگار شوند، به طوری که بتوانند از رقبای خود پیشی گرفته و فرصت های جدید را به دست آورند.

بیزینس پلن

نقش AI در طرح کسب و کار

نقش هوش مصنوعی (AI) در برنامه ریزی کسب و کار یکی از موضوعات مورد علاقه و تحقیقاتی در زمینه مدیریت استراتژیک است. پیش بینی قدرتمند AI به شرکت ها امکان پیش بینی دقیق تر در مورد روند بازار و رفتار مشتریان در آینده را می دهد. با تحلیل حجم بزرگی از داده های گذشته، الگوریتم های AI می توانند الگوها و روندهایی را شناسایی کنند که انسان ها ممکن است قادر به شناسایی آنها نباشند. این امر به سازمان ها اجازه می دهد تا تصمیمات آگاهانه در مورد تخصیص منابع و بهینه سازی فعالیت های خود بگیرند.

AI همچنین نقش حیاتی در  پیش بینی تحلیل ها دارد، که شامل استفاده از داده ها برای پیش بینی نتایج آینده و تصمیمات پیشگیرانه است. با آنالیز داده ها از منابع مختلف، الگوریتم های AI می توانند الگوها را شناسایی کرده و پیش بینی هایی در مورد رفتار مشتریان، روند بازار و تقاضای محصولات یا خدمات ارائه شده انجام دهند. سپس این اطلاعات می تواند برای برنامه ریزی کسب و کار و توسعه استراتژی استفاده شود.

آنالیز بی وقفه بازار ، یکی دیگر از حوزه هایی است که AI می تواند با آن، برنامه ریزی کسب و کار را بهبود بخشد. با مانیتورینگ و آنالیز مداوم داده ها از منابع مختلف، الگوریتم های AI می توانند به شرکت ها اطلاعات به روز در مورد شرایط بازار، فعالیت های رقبا و اولویت های مشتریان ارائه دهند. این امر به سازمان ها اجازه می دهد تا استراتژی های خود را تنظیم کرده و تصمیمات به موقع برای حفظ رقابت پذیری بگیرند.

علاوه بر این، AI می تواند فرآیندهای مختلف طرح کسب و کار را به صورت خودکار انجام دهد و در زمان و منابع صرفه جویی کند.

با خودکارسازی وظایفی مانند جمع آوری داده ها، آنالیز و گزارش دهی، AI می تواند فرآیند برنامه ریزی را بهینه سازی کرده و سازمان ها را قادر می سازد بر تصمیم گیری های استراتژیک تمرکز کنند.

مزایای استفاده از AI در طرح کسب و کار (business Plan)

مزایای طرح کسب و کار

مزایای ترکیب هوش مصنوعی در طرح کسب و کار آشکار است. فناوری هوش مصنوعی قابلیت تحول فرآیندهای تصمیم گیری را دارد و به شرکت ها در محیطی سریع و داده محور، مزیت رقابتی می دهد. در ادامه، سه مزیت کلیدی هوش مصنوعی در برنامه ریزی کسب و کار ذکر شده است:

  1. بهبود کارایی: یکی از مزایای اصلی یکپارچه سازی هوش مصنوعی در طرح کسب و کار، بهبود کارایی است. سیستم های قدرتمند هوش مصنوعی می توانند وظایف تکراری و زمان بر را خودکار کنند و به کارمندان اجازه دهند تا بر روی فعالیت های استراتژیک و دارای ارزش افزوده تمرکز کنند. به عنوان مثال، هوش مصنوعی می تواند فرآیند آنالیز داده ها را ساده کند و الگوها و روندهایی را از حجم بزرگی از داده ها، شناسایی کند که زمان زیادی برای پردازش آنها توسط انسان ها لازم است. این نه تنها در زمان صرفه جویی می کند، بلکه به شرکت ها کمک می کند تا تصمیمات سریع تر و آگاهانه تری بگیرند.
  2. افزایش دقت: فناوری هوش مصنوعی قابلیت پردازش و آنالیز حجم بزرگی از داده ها را با خطای کم دارد، که منجر به بهبود دقت در ابزارهای بهره وری کسب و کار می شود. برخلاف انسان ها، سیستم های هوش مصنوعی خسته نمی شوند و بر روی مساله ای تعصب ندارند و تضمین می کنند که تجزیه و تحلیل ها یکسان و بی طرفانه باشند. با هوش مصنوعی، شرکت ها می توانند به تحلیل ها و پیش بینی های دقیق اعتماد کنند تا بتوانند پیش بینی های قابل اعتماد تری را ارائه دهند، تخصیص منابع را بهینه کنند و خطرات را کاهش دهند. این سطح دقت می تواند فرآیندهای تصمیم گیری را به طور قابل توجهی بهبود بخشد و در نهایت منجر به نتایج بهتر کسب و کار شود.
  3.  افزایش شخصی سازی: یکی دیگر از مزایای استفاده از هوش مصنوعی در طرح کسب و کار، قابلیت ارائه تجربیات شخصی سازی شده به مشتریان است. الگوریتم های قدرتمند هوش مصنوعی می توانند رفتار، اولویت ها و تاریخچه خرید مشتریان را تجزیه و تحلیل کرده تا پیشنهادات متناسب و کمپین های بازاریابی سفارشی ایجاد کنند. این نه تنها رضایت مشتری را بهبود می بخشد، بلکه احتمال مراجعه دوباره و وفاداری مشتری را افزایش می دهد. با بهره گیری از هوش مصنوعی، کسب و کارها می توانند محصولات، خدمات و پیام های بازاریابی شخصی سازی شده با مشتریان را ارائه دهند و منجر به افزایش نرخ مشارکت شوند.

۴. پایش بی وقفه: تکنولوژی هوش مصنوعی کسب و کارها را قادر می سازد تا بدون وقفه داده ها را جمع آوری و  آنالیز کنند و تحلیل به روز در مورد روند بازار، اولویت های مشتری و دید رقابتی به آنها ارائه دهند. با استفاده از ابزارهای  آنالیز هوش مصنوعی، کسب و کارها می توانند بر مکالمات در رسانه های اجتماعی نظارت کرده، بررسی نظرات آنلاین را پیگیری کرده و بازخورد مشتری را به صورت همزمان  آنالیز کنند، به طوری که بتوانند به سرعت استراتژی های خود را تطبیق دهند و در مقابل رقبا پیشی گیرند. با بهره گیری از پایش بی وقفه، کسب و کارها می توانند تصمیمات سریع و مبتنی بر داده  بگیرند و اطمینان حاصل کنند که در یک محیط کسب و کار پیوسته در حال تغییر، همچنان مرتبط و پاسخگو باشند.

۵. صرفه جویی در هزینه:  یکپارچه سازی هوش مصنوعی در بیزینس پلن می تواند منجر به صرفه جویی قابل توجهی در هزینه ها شود. سیستم های قدرتمند هوش مصنوعی می توانند وظایف مختلف را خودکار کنند و نیاز به کار دستی و هزینه های مرتبط را کاهش دهند. علاوه بر این، هوش مصنوعی می تواند با شناسایی ناکارآمدی ها و پیشنهاد بهبود آنها، فرآیندها را بهینه کند و در نتیجه  منابع و هزینه ها بهینه سازی شوند. علاوه بر این، هوش مصنوعی می تواند با شناسایی ناهنجاری ها و بی نظمی ها در الگوهای داده ای، از خطاهای پرهزینه و تقلب جلوگیری کند. با بهره گیری از فناوری هوش مصنوعی، کسب و کارها می توانند عملیات خود را بهینه سازی کرده، هزینه ها را کاهش داده و سودآوری خود را بیشتر کنند.

مزایای یکپارچه سازی هوش مصنوعی در طرح کسب و کار بسیار و تأثیرگذار است. از بهبود کارایی و دقت تا افزایش شخصی سازی و تحلیل های همزمان. کسب و کارها می توانند با بهره گیری از فناوری هوش مصنوعی، دارای مزیت رقابتی شوند. علاوه بر این، صرفه جویی در هزینه های مرتبط با بهره گیری از هوش مصنوعی ، می تواند به موفقیت کلی کسب و کار کمک کند. با پیشرفت هوش مصنوعی، کسب و کارهایی که این فناوری را پذیرفته اند و به طور موثر از آن استفاده کنند، در چشم انداز کسب و کار پیچیده و داده محور، موقعیت خوبی برای رشد خود خواهند داشت.

آینده برنامه ریزی کسب و کار با AI

با توجه به یکپارچه سازی بینش های مبتنی بر هوش مصنوعی در فرآیندهای کسب و کار، پتانسیل بسیاری برای بهبود فرآیندهای تصمیم گیری، بهبود کارایی و نوآوری وجود دارد. پیش بینی مبتنی بر  AI، خودکارسازی برنامه ریزی، تجزیه و تحلیل پیش بینی، تصمیم گیری هوشمندانه و یادگیری ماشین در استراتژی، برخی از حوزه های کلیدی هستند که انتظار می رود AI  طرح کسب و کار را متحول کند.

AI  در استراتژی کسب و کار می تواند اطلاعات را به بینش های عملی تبدیل کند و در  برنامه ریزی کسب و کار باعث تحول فرآیندهای تصمیم گیری شود. پیش بینی قدرتمند AI و تجزیه و تحلیل پیش بینی نقش حیاتی در بهبود طرح کسب و کار دارند.

 با تحلیل حجم بزرگی از داده ها و شناسایی الگوها، الگوریتم های AI می توانند پیش بینی های دقیقی در مورد روند بازار، رفتار مشتریان و پویایی صنعت ارائه دهند. این امر به سازمان ها اجازه می دهد تا تصمیمات آگاهانه را بر اساس پیش بینی های قابل اعتماد بگیرند.

علاوه بر این، AI  با ارائه بینش ها و پیشنهادات بدون وقفه، تصمیم گیری هوشمند را تسهیل می کند. با بهره گیری از الگوریتم های یادگیری ماشین، کسب و کارها می توانند وظایف روتین را خودکار کرده و زمان ارزشمندی را برای تفکر و تجزیه و تحلیل استراتژیک آزاد کنند. این پتانسیل اتوماسیون، به تصمیم گیرندگان اجازه می دهد تا بر فعالیت های با ارزش که رشد و نوآوری را به دنبال دارند، تمرکز کنند.

 بهره گیری از AI در برنامه ریزی کسب و کار،به کسب و کارها مزیت رقابتی می دهد.سازمان هایی که به طور موثر از فناوری های AI استفاده می کنند، به بینش های عمیق دسترسی پیدا می کنند و این امر به آنها اجازه می دهد تا فرصت ها را قبل از رقبا شناسایی کنند. علاوه بر این، با بهینه سازی تخصیص منابع از طریق پیشنهادات AI، شرکت ها می توانند کارایی خود را بهبود بخشید و به نتایج بهتری دست یابند.

نتیجه

در نهایت، یکپارچه سازی هوش مصنوعی در طرح کسب و کار انقلابی در نحوه تصمیم گیری استراتژیک سازمان ها ایجاد کرده است. با استفاده از داده ها و به دست آوردن بینش های ارزشمند، کسب و کارها می توانند عملکرد خود را افزایش دهند و رشد کنند.

هوش مصنوعی کسب و کارها را قادر می سازد تا اطلاعات را به استراتژی های عملی تبدیل کنند که منجر به بهبود فرآیندهای تصمیم گیری می شود. با پیشرفت تکنولوژی، آینده برنامه ریزی کسب و کار با هوش مصنوعی، پتانسیل زیادی برای بهینه سازی و نوآوری بیشتر دارد.

با توانایی هوش مصنوعی برای آنالیز مقادیر زیاد داده و ارائه بینش های ارزشمند، روشن است که همچنان نقش مهمی در شکل دادن به آینده بیزینس پلن ایفا خواهد کرد.

هوش مصنوعی مولد (Generative AI) چیست؟

هوش مصنوعی مولد (Generative AI) چیست؟

هوش مصنوعی مولد (Generative AI) نوعی هوش مصنوعی است که می تواند محتوا و ایده های جدیدی از جمله مکالمه، داستان، تصویر، فیلم و موسیقی ایجاد کند. فن آوری های هوش مصنوعی تلاش می کنند هوش انسانی را در وظایف محاسباتی غیر سنتی مانند تشخیص تصویر، پردازش زبان طبیعی (NLP) و ترجمه تقلید کنند. Generative AI گام بعدی در هوش مصنوعی است. شما می توانید هوش مصنوعی مولد را برای یادگیری زبان انسان، زبان های برنامه نویسی، هنر، شیمی، زیست شناسی یا هر موضوع پیچیده ای آموزش دهید. Generative AI داده های آموزشی را برای حل مشکلات جدید استفاده می کند. به عنوان مثال، می تواند واژگان انگلیسی را یاد بگیرد و یک شعر از کلماتی که پردازش می کند ایجاد کند. سازمان شما می تواند از هوش مصنوعی مولد برای اهداف مختلف مانند چت بات ها (chatbots)، ایجاد رسانه ها و توسعه و طراحی محصول استفاده کند.

چرا GENERATIVE AI مهم است؟

برنامه های AI مولد مانند ChatGPT توجه و تخیل گسترده ای را به خود جلب کرده اند. آنها می توانند به بازافرینی اکثر تجربیات و برنامه های مشتری کمک کنند، برنامه های جدیدی را ایجاد کنند که قبلا هرگز دیده نمی شدند و به مشتریان کمک می کنند تا به سطوح بهره وری جدید برسند.

به گفته گلدمن ساکس، هوش مصنوعی مولد می تواند باعث افزایش ۷ درصدی (یا تقریبا ۷ تریلیون دلاری) تولید ناخالص داخلی جهانی شود. آنها همچنین پیش بینی می کنند که می تواند رشد بهره وری را ۱.۵ درصد در طول ۱۰ سال افزایش دهد.

 در ادامه مزایای بیشتری از هوش مصنوعی مولد آورده شده است:

مزایای هوش مصنوعی مولد

 

تسریع تحقیقات

الگوریتم های هوش مصنوعی مولد می توانند داده های پیچیده را به روش های جدید کشف و تجزیه و تحلیل کنند. بنابراین، محققان می توانند روندها و الگوهای جدیدی را کشف کنند که ممکن است بدون استفاده از هوش مصنوعی مولد آشکار نباشد. این الگوریتم ها می توانند محتوا را خلاصه کنند، مسیرهای راه حل چندگانه را مشخص کنند، ایده پردازی کنند و مستندات دقیق را از یادداشت های تحقیقاتی درست کنند. به همین دلیل است که هوش مصنوعی مولد به شدت تحقیق و نوآوری را افزایش می دهد.

به عنوان مثال، سیستم های هوش مصنوعی مولد در صنعت داروسازی برای تولید و بهینه سازی توالی پروتئین و به طور قابل توجهی سرعت بخشیدن به کشف دارو استفاده می شود.

بهبود تجربه مشتری

هوش مصنوعی مولد می تواند به طور طبیعی به محاوره انسانی پاسخ دهد و به عنوان ابزاری برای خدمات مشتری و شخصی سازی گردش کار مشتری عمل کند.

به عنوان مثال، شما می توانید از چت بات های AI، ربات های صوتی و دستیاران مجازی استفاده کنید که به مشتریان دقیق ترین پاسخ را  با اولین تماس ارائه می دهند. آنها می توانند  با ارائه پیشنهادات مناسب و برقراری ارتباط به روش شخصی سازی شده، تعامل مشتری را افزایش دهند.

بهینه سازی فرایندهای کسب و کار

با هوش مصنوعی مولد، بیزینس شما می تواند فرایندهای کسب و کار را با استفاده از یادگیری ماشین (ML) و برنامه های AI در تمام زمینه ها بهینه سازی کند. شما می توانید تکنولوژی را در تمام زمینه های کسب و کار، از جمله مهندسی، بازاریابی، خدمات مشتری، امور مالی و فروش اعمال کنید.

به عنوان مثال، کارهایی که AI مولد می تواند برای بهینه سازی انجام دهد عبارتند از:

  • استخراج و خلاصه کردن داده ها از هر منبع برای توابع جستجوی دانش
  • ارزیابی و بهینه سازی سناریوهای مختلف برای کاهش هزینه در زمینه هایی مانند بازاریابی، تبلیغات، امور مالی و تدارکات
  • تولید داده های مصنوعی برای ایجاد داده های برچسب گذاری شده برای یادگیری تحت نظارت و سایر فرایندهای ML(آموزش مدل های یادگیری ماشین با استفاده از داده های برچسب گذاری شده مصنوعی)

افزایش بهره وری کارکنان

مدل های هوش مصنوعی مولد می توانند گردش کار کارمندان را تقویت کنند و به عنوان دستیاران کارامد برای همه افراد در سازمان شما عمل کنند. آنها می توانند همه چیز را از جستجو تا ایجاد، به شیوه ای شبیه به انسان انجام دهند.

هوش مصنوعی مولد می تواند بهره وری انواع مختلف کارکنان را افزایش دهد:

  • پشتیبانی از وظایف خلاقانه با تولید چندین نمونه اولیه بر اساس ورودی ها و محدودیت های خاص. همچنین می تواند طرح های موجود را بر اساس بازخورد انسانی و محدودیت های مشخص بهینه سازی کند.
  • تولید پیشنهادات جدید کد نرم افزار برای توسعه برنامه.
  • پشتیبانی از مدیریت با تولید گزارش ها، خلاصه ها و پیش بینی ها.
  • ایجاد اسکریپت های فروش جدید، محتوای ایمیل و وبلاگ ها برای تیم های بازاریابی.

شما می توانید در وقت صرفه جویی کنید، هزینه ها را کاهش دهید و در سراسر سازمان خود کارایی را افزایش دهید.

هوش مصنوعی مولد چگونه کار می کند؟

مانند تمام هوش مصنوعی ها، هوش مصنوعی مولد با استفاده از مدل های یادگیری ماشین کار می کند – مدل های بسیار بزرگ که بر اساس مقادیر زیادی از داده ها آموزش دیده اند.

مدل های بنیادی((FM)Foundation models)

مدل های بنیادی مدل های یادگیری ماشین (ML) هستند که بر روی طیف گسترده ای از داده های عمومی و بدون برچسب آموزش دیده اند. آنها قادر به انجام طیف گسترده ای از وظایف عمومی هستند.

FM نتیجه آخرین پیشرفت ها در تکنولوژی است که برای دهه ها در حال تکامل است. به طور کلی، FM از الگوها و روابط آموخته شده برای پیش بینی مورد بعدی در یک توالی استفاده می کند.

به عنوان مثال، در تولید تصویر، مدل تصویر را تجزیه و تحلیل می کند و یک نسخه شفاف تر و واضح تر از تصویر ایجاد می کند. به طور مشابه، در تولید متن، در یک رشته متن مدل کلمه بعدی را بر اساس کلمات قبلی و زمینه آنها پیش بینی می کند. سپس کلمه بعدی را با استفاده از تکنیک های توزیع احتمال انتخاب می کند.

مدل های زبانی بزرگ(Large language models (LLMs))

مدل های زبان بزرگ  یک کلاس از FMها هستند. به عنوان مثال برای LLMها  ، مدل های ترانسفورماتور از پیش آموزش دیده مولد (GPT) در  OpenAI هستند. LLMها به طور خاص بر وظایف مبتنی بر زبان مانند خلاصه سازی، تولید متن، طبقه بندی، مکالمه باز و استخراج اطلاعات متمرکز شده است.

آنچه LLMها را خاص می کند توانایی آنها در انجام چندین کار است زیرا شامل پارامترهای زیادی هستند که آنها را قادر به یادگیری مفاهیم پیشرفته می کند.

LLM مانند GPT-3 می تواند میلیاردها پارامتر را در نظر بگیرد و توانایی تولید محتوا را از ورودی بسیار کم دارد. با وجود قابلیت پیش آموزش و مواجه با داده هایی در مقیاس اینترنت در تمام اشکال مختلف و الگوهای بی شمار، LLMها یاد میگیرند که دانش خود را در طیف گسترده ای از زمینه ها اعمال کنند.

هوش مصنوعی مولد چگونه بر صنایع تاثیر خواهد گذاشت؟

هوش مصنوعی مولد می تواند در طول زمان بر تمام صنایع تاثیر بگذارد، با ابن حال صنایع خاصی به سرعت از این تکنولوژی بهره مند می شوند.

خدمات مالی

شرکت های خدمات مالی می توانند از قدرت هوش مصنوعی مولد برای خدمت بهتر به مشتریان خود استفاده کنند و در عین حال هزینه ها را کاهش دهند:

  • موسسات مالی می توانند از چت بات ها برای تولید پیشنهادات محصول و پاسخ به سوالات مشتری استفاده کنند که باعث بهبود کلی خدمات مشتری می شود.
  • مؤسسات اعطای وام می‌توانند با استفاده از چت‌بات‌ها، فرآیند تایید وام را برای بازارهای مالی کم درآمد، به خصوص در کشورهای در حال توسعه، سریع‌تر انجام دهند.
  • بانک ها می توانند به سرعت تقلب در مطالبات، کارت های اعتباری و وام ها را تشخیص دهند.
  • شرکت های سرمایه گذاری می توانند با استفاده از قدرت هوش مصنوعی مولد ، به مشتریان خود مشاوره مالی ایمن و شخصی سازی شده با هزینه کمتری ارائه دهند.

بهداشت و درمان و علوم زیستی

یکی از کاربردهای امیدوارکننده هوش مصنوعی مولد، سرعت بخشیدن به کشف و تحقیقات دارویی است. هوش مصنوعی مولد از مدل‌ها برای ایجاد توالی‌ پروتئینی جدید با خصوصیات خاص ، برای طراحی آنتی‌بادی، آنزیم‌ها، واکسن‌ها و درمان ژنی استفاده می‌کند.

شرکت‌های علوم بهداشتی و پزشکی می‌توانند از مدل‌های تولیدی برای طراحی توالی‌ ژن مصنوعی برای کاربردهای بیولوژی مصنوعی و مهندسی متابولیک استفاده کنند. به عنوان مثال، آن‌ها می‌توانند مسیرهای بیوسنتزی جدیدی ایجاد کنند یا بیان ژن را برای اهداف بیوتولید بهینه کنند.

در نهایت، هوش مصنوعی مولد می تواند برای ایجاد داده های مصنوعی در مورد  بیمار و مراقبت های بهداشتی استفاده شود. این داده ها برای اموزش مدل های هوش مصنوعی، شبیه سازی آزمایشات بالینی یا مطالعه بیماری های نادر، بدون دسترسی به مجموعه داده های بزرگ واقعی، مفید است.

خودرو و صنعت

شرکت های خودروسازی می توانند از تکنولوژی هوش مصنوعی مولد برای بسیاری از اهداف، از مهندسی تا تجربیات درون خودرو و خدمات مشتری استفاده کنند. به عنوان مثال، آنها می توانند طراحی قطعات مکانیکی را به منظور کاهش مقاومت هوایی در طراحی خودرو بهینه سازی کنند یا طراحی دستیاران شخصی را تطبیق دهند.

شرکت های خودروسازی از هوش مصنوعی مولد برای ارائه خدمات بهتر به مشتریان با ارائه پاسخ های سریع به رایج ترین سوالات مشتری استفاده می کنند. می توان با هوش مصنوعی مولد طرح های جدید قطعات، مواد و تراشه  را برای بهینه سازی فرایندهای تولید و کاهش هزینه ها ایجاد کرد.

هوش مصنوعی مولد همچنین می تواند برای تولید داده های مصنوعی به منظور آزمایش برنامه ها استفاده شود. این کار به خصوص برای داده هایی که اغلب در مجموعه داده های آزمایشی وجود ندارند (مانند عیوب یا حالت های لبه) مفید است.

رسانه و سرگرمی

مدل های هوش مصنوعی مولد می توانند محتوای جدید از انیمیشن ها و اسکریپت ها تا فیلم های کامل را با هزینه و زمان کمتری نسبت به تولید سنتی ، تولید کنند.

در اینجا راه های دیگری وجود دارد که می توانید از هوش مصنوعی مولد در صنعت استفاده کنید:

  • هنرمندان می توانند آلبوم های خود را با موسیقی تولید شده توسط AI تکمیل کنند و بهبود دهند تا تجربیات کاملا جدیدی ایجاد کنند.
  • سازمان های رسانه ای می توانند از هوش مصنوعی مولد برای بهبود تجربیات مخاطبان خود با ارائه محتوا و تبلیغات شخصی سازی شده برای افزایش درآمد استفاده کنند.
  • شرکت های بازی ساز می توانند از هوش مصنوعی مولد برای ایجاد بازی های جدید استفاده کنند و به بازیکنان اجازه دهند اواتار بسازند.

ارتباطات

اولویت استفاده هوش مصنوعی مولد در حوزه ارتباطات بر بازسازی تجربه مشتری متمرکز است. تجربه مشتری توسط تعاملات تجمعی مشترکین در تمام نقاط تماس مسیر مشتری تعریف می شود.

به عنوان مثال، سازمان های ارتباطاتی می توانند از هوش مصنوعی مولد برای بهبود خدمات مشتری از کارگزارهای زنده مکالمه شبه انسان استفاده کنند. آنها همچنین می توانند با تجزیه و تحلیل داده های شبکه برای پیشنهاد راه حل ها، عملکرد شبکه را بهینه کنند و روابط مشتری را با دستیاران فروش شخصی سازی شده یک به یک ، بازسازی کنند.

انرژی

هوش مصنوعی مولد یک فناوری مناسب برای انجام وظایف بخش انرژی است که شامل تجزیه و تحلیل داده های خام پیچیده، شناسایی الگو، پیش بینی و بهینه سازی است. سازمان های انرژی می توانند با تحلیل داده های شرکتی برای شناسایی الگوهای استفاده شده، خدمات مشتری را بهبود بخشند. با این اطلاعات، سازمان ها می توانند پیشنهادات محصول هدفمند، برنامه های بهره وری انرژی یا ابتکارات پاسخ به تقاضا را توسعه دهند. هوش مصنوعی مولد می تواند به مدیریت شبکه کمک کند، ایمنی سایت عملیاتی را افزایش دهد و تولید انرژی را از طریق شبیه سازی مخزن بهینه کند.

تکنولوژی هوش مصنوعی مولد چگونه تکامل یافت؟

مدل‌های مولد اولیه برای دهه‌ها در آمار به منظور کمک در تجزیه و تحلیل داده‌های عددی استفاده شده‌اند. شبکه‌های عصبی و یادگیری عمیق از پیشگامان (دستاوردهای) اخیر در هوش مصنوعی مولد مدرن بودند. اتوانکودرهای متغیر که در سال ۲۰۱۳ توسعه داده شدند، اولین مدل‌های مولد عمیق بودند که می‌توانستند تصاویر و گفتار واقعی تولید کنند.

اتوانکودرهای متغیر، قابلیت ایجاد تغییرات جدید از انواع داده‌ها را معرفی کردند. در نتیجه سایر مدل‌های هوش مصنوعی مولد مانند شبکه‌های مولد مقابله‌ای و مدل‌های انتشار به سرعت ایجاد شدند. این نوآوری‌ها بر روی تولید داده‌هایی تمرکز داشتند که با وجود اینکه به صورت مصنوعی تولید شده‌اند، به طور فزاینده ای شبیه داده‌های واقعی بودند.

در سال ۲۰۱۷، تغییر بیشتری در تحقیقات هوش مصنوعی با معرفی ترانسفورمرها رخ داد. ترانسفورمرها به طور ساده، معماری رمزگذار و رمزگشا را با مکانیزم توجه، یکپارچه کردند. ترانسفورمرها فرآیند آموزش مدل‌های زبانی را با کارایی و تطبیق پذیری استثنایی ساده کردند. مدل‌های قابل توجهی مانند GPT به عنوان مدل‌های بنیادی ظهور پیدا کردند که قابلیت پیش‌آموزش بر روی مجموعه‌های گسترده ای از متن خام و تنظیم دقیق برای وظایف مختلف را داشتند.

ترانسفورمرها، آنچه را که برای پردازش زبان طبیعی امکان پذیر بود، تغییر دادند و توانایی‌های مولد را برای وظایفی از جمله ترجمه، خلاصه‌سازی و پاسخ به سوالات تقویت کردند.

بسیاری از مدل‌های هوش مصنوعی مولد همچنان پیشرفت‌های قابل توجهی را کسب می‌کنند و در برنامه‌های متنوعی در صنایع مختلف کاربرد دارند. نوآوری‌های اخیر بر روی بهبود مدل‌ها برای کار با داده‌های اختصاصی تمرکز دارند. پژوهشگران همچنین می خواهند متن، تصاویر، فیلم ها و گفتار را که هر چه  بیشتر شبیه انسان باشد، ایجاد کنند.

بهترین شیوه ها در پذیرش AI مولد چیست؟

اگر سازمان شما می‌خواهد راه‌حل‌های هوش مصنوعی مولد را پیاده‌سازی کند، برای ثمر بخش بودن تلاش های خود راهکارهای زیر را در نظر بگیرید.

با برنامه‌های داخلی شروع کنید

بهتر است با توسعه برنامه‌های داخلی شروع کنید و بر روی بهینه‌سازی فرآیند و بهره‌وری کارکنان تمرکز کنید. با ایجاد مهارت‌ها و درک فناوری در سازمان، محیطی کنترل شده‌تر برای آزمایش نتایج خواهید داشت. می‌توانید مدل‌ها را به طور گسترده تست کنید و حتی آن‌ها را بر اساس منابع دانش داخلی سفارشی کنید.

 به این ترتیب، وقتی شما در نهایت از مدل‌ها برای برنامه‌های خارجی استفاده می‌کنید، مشتریان شما تجربه بهتری خواهند داشت.

افزایش شفافیت

بهبود شفافیت در پروژه های هوش مصنوعی، موضوعی است که بسیاری از افراد به آن توجه می کنند. این کار به کاربران شما کمک می کند تا بدانند که با یک هوش مصنوعی و نه یک انسان در حال تعامل هستند. به عنوان مثال، هوش مصنوعی می تواند خود را به عنوان AI معرفی کند یا نتایج جستجوی مبتنی بر هوش مصنوعی می تواند علامت گذاری و برجسته شود.

به این ترتیب، کاربران شما می توانند از صلاحدید خود در هنگام تعامل با محتوا استفاده کنند. همچنین کاربران ممکن است در برخورد با هر گونه اشتباهات یا تعصبات پنهان که مدل های اساسی ممکن است به دلیل محدودیت های داده های اموزشی خود داشته باشند، فعال تر باشند.

پیاده سازی امنیت

می توانید تیم های امنیتی را از ابتدا در پروژه های هوش مصنوعی خود دعوت کنید تا همه جنبه ها را از ابتدا در نظر بگیرند و محدودیت هایی را پیاده سازی کنند که از دسترسی غیرمجاز به داده های حساس جلوگیری می کنند.به عنوان مثال، شما ممکن است مجبور باشید قبل از آموزش هر مدلی بر روی داده های داخلی، داده ها را ماسک(پنهان) کنید و اطلاعات شناسایی شخصی (PII) را حذف کنید.

تست گسترده

فرایندهای تست خودکار و دستی را برای اعتبار سنجی نتایج توسعه دهید و انواع سناریوهایی را که سیستم هوش مصنوعی مولد ممکن است تجربه کند، آزمایش کنید. گروه های مختلفی از آزمایش کنندگان بتا را داشته باشید که برنامه ها را به روش های مختلف امتحان می کنند و نتایج را مستند می کنند. همچنین مدل به طور مداوم از طریق تست شدن بهبود می یابد و شما کنترل بیشتری بر نتایج و پاسخ های مورد انتظار دارید.

تست گسترده

کاربردهای رایج هوش مصنوعی مولد چیست؟

با استفاده از هوش مصنوعی مولد، می توانید از مزایای یادگیری ماشین برای کسب و کار خود سریع تر استفاده کنید و آن را در یک مجموعه گسترده از موارد کاربردی اعمال کنید. شما می توانید هوش مصنوعی تولیدی را در تمامی زمینه های کسب و کار از جمله مهندسی، بازاریابی، خدمات مشتری، مالی و فروش به کار ببرید. تولید کد یکی از امیدوار کننده ترین کاربردهای  هوش مصنوعی مولد است و با Amazon CodeWhisperer، یک همراه کدنویسی هوش مصنوعی، نتایج بسیار خوبی در بهبود بهره وری توسعه دهندگان دیده شده است. در طول پیش نمایش (قبل از ارائه)، Amazon  یک چالش بهره وری را اجرا کرد و شرکت کنندگانی که از Amazon CodeWhisperer  استفاده کردند، ۲۷٪ احتمال موفقیت بیشتری در انجام وظایف داشتند و این کار را با یک میانگین ۵۷٪ سریعتر از کسانی که از CodeWhisperer  استفاده نکردند، انجام دادند.

علاوه بر تولید کد، بسیاری از کاربردهای دیگری وجود دارند که می توانید از هوش مصنوعی مولد برای دستیابی به تغییراتی در تجربه مشتری، بهره وری کارکنان، کارایی کسب و کار و خلاقیت استفاده کنید. شما می توانید از هوش مصنوعی مولد برای بهبود تجربه مشتری از طریق قابلیت هایی مانند چت بات، دستیار مجازی، مراکز تماس هوشمند، شخصی سازی و مدیریت محتوا استفاده کنید. با استفاده از جستجوی مکالمه ای، تولید محتوا و خلاصه سازی متنی با هوش مصنوعی، می توانید بهره وری کارکنان خود را در مقایسه با دیگران افزایش دهید. با پردازش سند هوشمند، دستیارهای تعمیر و نگهداری، کنترل کیفیت و بازرسی بصری، و تولید داده های آموزشی مصنوعی، می توانید عملیات کسب و کار خود را بهبود بخشید. در نهایت، می توانید با استفاده از هوش مصنوعی مولد، تولید تمام انواع محتوای خلاق از جمله هنر و موسیقی با متن، انیمیشن، ویدئو و تولید تصویر را تسریع کنید.

حل چالش های SRE با LLM

حل چالش های SRE با LLM

حل چالش های SRE با LLM به معنای استفاده از روش‌ ها و رویکردهای یادگیری ماشین (Machine learning) برای حل مسائل و چالش‌ های مربوط به Site Reliability Engineering) SRE) است. با استفاده از الگوریتم‌ها و مدل‌های یادگیری ماشین، می‌توان بهبود عملکرد سیستم‌ ها، پیش‌ بینی مشکلات و خطاها، بهینه‌ سازی عملکرد تحت بار و افزایش قابلیت اطمینان و پایداری سیستم‌ ها را فراهم کرد.

از جمله کاربردهای LLM در حوزه SRE می‌توان به ایجاد سیستم‌های خودکار برای مانیتورینگ و رفع خطاها، پیش‌بینی عملکرد سیستم‌ ها، تشخیص و رفع انحراف‌ها، بهینه‌سازی عملکرد و مقیاس‌پذیری سیستم‌ها اشاره کرد. این رویکرد می‌تواند به بهبود عملکرد و ایجاد سیستم‌ های قابل اطمینانتر و پایدارتر در محیط‌های SRE کمک کند.

در این مقاله ابتدا چالش های SRE  مطرح می شود و سپس به بررسی این موضوع می‌پردازیم که چگونه LLM این چالش‌ ها را کاهش می دهد و یک چشم‌ انداز قوی‌ تر و کارآمدتر از SRE ایجاد می کند.

حل چالش های SRE با LLM (مدل های زبانی بزرگ)

علیرغم اهداف و شیوه های واضح، مهندسان SRE اغلب با چالش هایی مواجه می شوند. LLM ها نقش مهمی در کمک به مهندسین SRE برای ارتقای قابلیت های خود و تسریع پذیرش آنها، خواهند داشت. بیایید نگاهی به هشت چالش SRE بیندازیم که مهندسان SRE بر اساس تجربیات واقعی پیاده سازی برای کلاینت های مختلف، با آن مواجه می شوند:

چالش های SRE

۱-   کارهای تکراری و خسته کننده انجام نشده (اصل: حذف کارهای تکراری)

کارهای تکراری SRE

بیان مشکل: اگرچه اتوماسیون یک اصل کلیدی در SRE است، برخی از وظایف و فرآیندهای تکراری وجود دارند که به صورت دستی انجام می شود که زمان و منابع ارزشمندی را صرف می کند. این کارها معمولاً به دلیل پیچیدگی فنی، سیستم های قدیمی، یا کمبود منابع به صورت دستی انجام می شود و نه تنها وقت گیر است بلکه پرهزینه هم است.

مطالعه انجام شده در دانشگاه کالیفرنیا نشان داد که کارکنان، پس از یک وقفه مانند پرداختن به یک کار دستی ، به طور متوسط ۲۳ دقیقه طول می کشد تا ریکاور شوند که  جریان کار راهبردی و خلاقانه را مختل می کند و بر بهره وری تاثیر می گذارد.

مشارکت LLM:

مهندسان SRE می توانند از LLM برای تولید اسکریپت اتوماسیون در یک زبان مانند پایتون بر اساس وظیفه مورد نیاز استفاده کنند. آنها باید اطمینان حاصل کنند که فرمان های صحیح در LLM برای مطالعه و بررسی نیازمندی ایجاد شده است.

پس از تولید، حتی می توان از LLM درخواست کرد تا کد نوشته شده را بهینه کند. سناریوی دیگری که در آن LLM ها می توانند کمک کنند، وظیفه مهم اما وقت گیر ایجاد گزارش های “پس از حادثه” است. با استفاده از GPT، می‌توانیم کل فرآیند را با چند مرحله خودکار کنیم.

۱)  یکپارچه سازی داده ها: استفاده از الگوریتم های استخراج یا APIs برای جمع آوری داده های تصادفی از منابعی مانند لاگ ها، ابزارهای مدیریت سرویس آی تی(ITSM) یا کانال های Slack . این داده ها نیاز به پیش پردازش با استفاده از توکن سازی، رمزگذاری، یا نرمال سازی برای تبدیل آن به فرمتی که GPT می تواند پردازش کند، دارند.

۲)استفاده از مدل: برای استفاده از LLM از پیش آموزش دیده، مدل باید بر روی مجموعه داده گزارش های پس از حادثه موجود، به خوبی تنظیم شده باشد. برای این کار، از یادگیری نظارت شده استفاده کنید، بنابراین GPT ساختار و سبک این گزارش ها را یاد می گیرد. سپس، سیستمی بسازید که داده های از پیش پردازش شده حادثه را به GPT وارد می کند و پیش نویس گزارش پس از حادثه را دریافت می کند. این کار شامل فرآیندهایی مانند تولید توکن و تکمیل توالی است.

۳)  مکانیسم بررسی: هنگامی که پیش نویس اولیه تولید شد، مهندس SRE باید یک بررسی دستی انجام دهد تا صحت چهارچوب را بررسی کرده و مطابق با آن اصلاح کند. الگوریتم های بازخورد یا تکنیک های  تقویت یادگیری را می توان برای گنجاندن بازخورد در مدل، بهبود دقت و کیفیت خروجی های آینده استفاده کرد.

۴)    یکپارچه سازی سیستم: در نهایت، برای اینکه یکپارچه شود، سیستم تولید گزارش باید با سیستمITSM   از طریق APIها برای شروع فرآیند تولید گزارش به طور خودکار پس از حل یک حادثه ادغام شود. از طرف دیگر، می‌توان یک رابط روی سیستم تولید گزارش ایجاد کرد که مهندسین SRE ‌بتوانند به صورت دستی برای یک حادثه خاص درخواست گزارش بدهند .

توجه به این نکته مهم است که چنین یکپارچه سازی فرض می کند حوادث و هشدارهای وابسته از سیستم های منبع مرتبط هستند. در غیر این صورت، نمی تواند گزارش معناداری تولید کند. به طور مشابه، این می تواند با استفاده از Microsoft Copilot ، هنگامی که در دسترس قرار میگیرد، پیاده سازی شود.

از آنجایی که این در مجموعه ابزارهای بهره وری ۳۶۵  Microsoftتعبیه شده است، می تواند برای مواردی استفاده شود که گزارش های پس از حادثه (به منظور شناسایی علت حادثه) به عنوان اسناد Microsoft Word ساخته می شوند.

Copilot می‌تواند محتوای سند را بیشتر اصلاح کند و با پیشبینی الگو آنالیز علت ریشه ای(RCA:Root Cause Analysis) بر اساس منابع داده سازمانی، کمک کند.

۲-    نشت هزینه در ابر (اصل: پذیرش ریسک، حذف کارهای تکراری)

نشت هزینه ابر

بیان مشکل: علیرغم معرفی عملیات مالی ابری (FinOps)برای کنترل هزینه های ابر، یک سیستم بهینه نشده می تواند باعث افزایش قابل توجه هزینه های ابر شود. SLOs باید برای این کار تنظیم شوند و توسط SRE مورد بررسی قرار گیرند. علاوه بر این، در حالی که تست عملکرد و مهندسی  آشوب می تواند نقاط ضعفی را که ممکن است بر هزینه ابر تأثیر بگذارد را آشکار می کند، بسیاری از سازمان‌ها به دلیل هزینه‌ها و تاخیر در عرضه ویژگی‌ها، از اجرای آن اجتناب می‌کنند.

طبق آمار مرکز مهندسی آشوب گرملین(Gremlin)، در سال ۲۰۲۱، تنها ۳۴ درصد از ۴۰۰ پاسخ دهنده، آزمایش مهندسی آشوب را روی تولید انجام می دهند.

مشارکت LLM: LLM هایی مانند GPT می توانند برای آنالیز داده های ابری و برنامه کاربردی، برای بهینه سازی پلت فرم ابری به کار گرفته شوند. در غیر این صورت نیاز به تلاش دستی مهندس SRE دارد تا داده ها و روندهای مشاهده شده را بر اساس الگوهای بهره وری تفسیر کند.

به عنوان مثال، برنامه ای که گزارش‌های بیش از حد تولید می کند می‌تواند نشان دهنده اقدامات زائد یا ناکارآمد روش های گزارش گیری باشد که منجر به هزینه‌های ذخیره سازی غیر ضروری می‌شود. یکLLM  می‌تواند نویز را غربال کند، ورودی‌ لاگ های رایج یا مکرر را شناسایی کند و بهینه‌سازی‌هایی را برای کاهش حجم لاگ پیشنهاد دهد. برای انجام این کار با استفاده از GPT، یک مهندس SRE مراحل زیر را دنبال می کند:

۱)    استخراج داده‌های لاگ: لاگ‌ها باید با استفاده از خط لوله داده (Data Pipeline) یا API که با سیستم ثبت گزارش ارتباط  دارند از برنامه واکشی(برداشته) شوند. به طور کلی، ما از ابزارهایی مانند Logstash یا Splunk برای کمک به زمینه سازی و متمرکز کردن داده های لاگ از منابع مختلف استفاده می کنیم.

۲)    پیش پردازش داده ها: داده ها باید در قالبی پیش پردازش شوند که GPT بتواند آن را درک کند، مانند تبدیل فرمت های تاریخ و زمان، نشانه‌گذاری متن و حذف ورودی‌های لاگ نامربوط.

۳)    تشخیص الگو با GPT: GPT می‌تواند خلاصه‌ای از لاگ‌های دریافت شده ایجاد کند و اطلاعات را فشرده کند و الگوهای مکرر را که ممکن است نشان دهنده افزونگی یا ثبت بیش از حد باشد، برجسته کند.

۴)    توصیه ها و پیاده سازی قابل اجرا: خروجی GPT با استناد فراوانی عبارات لاگ، تعداد توکن‌ها و خلاصه ی آن می‌تواند برای شناسایی رویدادهایی که ممکن است به صورت غیرضروری اضافی باشند، استفاده شود. اگر اطلاعات نشان دهنده خطا در کد برنامه باشد، می توان از آن برای رفع مشکل استفاده کرد. در غیر این صورت، افزونگی لاگ‌ها را می‌توان کاهش داد تا در رویدادهای لاگ و هزینه‌های ذخیره‌سازی صرفه‌جویی شود.

استفاده از پیاده‌سازی‌های مشابه می‌تواند برای تجزیه و تحلیل استفاده ناموثر از منابع ابری توسط برنامه‌هایی که اغلب به دلیل مصرف بالای CPU در حالی که ترافیک شبکه بسیار کمی را مصرف می‌کنند، مورد استفاده قرار گیرد.

 در چنین مواردی، LLMمی تواند معیارهای برنامه را از یکپارچه سازی ابزار نظارت بر عملکرد برنامه(Application Performance Monitoring: APM) و الگوهای استفاده از منابع ابری آنالیز کند تا پیشرفت هایی مانند بهینه سازی کد یا استفاده بهتر از حافظه پنهان را نشان دهد.

نمونه ای از سرویس هایی که با این روش ارائه می شود در runnel.ai است و SRE as a Service را ارائه می کند.

در این سرویس با بهره گیری از مدلهای یادگیری عمیق برای پیش بینی خرابی استفاده می کند. همچنین پیش بینی میزان مصرف نیز به همین روش انجام می شود که امکان بهینه سازی مصرف منابع را می دهد.

۳-    همبستگی داشبورد Dashboard Correlation

(اصل: نظارت بر سیستم های توزیع شده)

همبستگی داشبورد

در استقرار یک ابر هیبریدی، سیستم‌ها توزیع می‌شوند که به تلاش قابل توجهی برای تریاژ و عیب‌یابی از طرف مهندسین SRE نیاز دارند. این کار شامل بررسی داده‌های مربوط بهtrace ، مرتبط کردن رویدادها و تجزیه و تحلیل داشبورد است.

به عنوان مثال، در محیط یک ابری هیبریدی که در آن یک پایگاه داده حیاتی درون سازمانی است (op-premises) و میکرو سرویس و برنامه‌های دیگر در ابر عمومی قرار دارند، مهندسان SRE باید ردیابی ها را از لایه میکرو سرویس ها  با تماس های پایگاه داده و وضعیت سلامتی هماهنگ  کنند. این موضوع می تواند پیچیده و زمان بر باشد و مهندسان SRE ممکن است سیگنال های خاص را از دست بدهند.

مشارکت LLM: LLM ها می توانند با دریافت داده های Telemetry بزرگ و پاسخ دادن به سوالاتی که به عیب یابی کمک می کند، به مهندسان SRE کمک کنند. این موضوع می تواند در زمان و تلاش دستی مهندسان SRE برای پیمایش دستی داشبورد های مختلف و فیلترهای لاگ روی محصولاتی مانند Logstash  صرفه جویی کند.

در زیر نمونه ای آورده شده است که نشان می دهد چگونه این نوع راه حل را می توان پیاده سازی کرد و همان اصل را برای استفاده از هر نوع LLM دیگر مانند GPT یا Bard Enterprise اعمال کرد.

۱)    جذب داده: داده ها باید از هر دو سیستم نظارت بر پایگاه داده درون سازمانی و ابر عمومی مبتنی بر پلتفرم مشاهده‌پذیری از طریق APIها یا عامل‌های پلتفرم ابری که می‌توانند در میزبان‌های پایگاه داده باشند، جمع آوری شوند.

۲)    پیش پردازش و نرمال سازی: داده های خام باید به یک فرمت متنی سازگار تبدیل شوند که LLM می تواند پردازش کند. این باید به صورت مکالمه یا گفتگو باشد، زیرا GPT برای مدیریت داده های مکالمه طراحی شده است. برای مثال، یک عبارت ورودی ایده‌آل به این صورت است: “ ChatGP، من متوجه الگوهای زیر شدم. آیا می توانی کمک کنی و آنها را تحلیل کنی؟» به دنبال آن داده‌های تله‌متری می آید، «در ساعت ۲۲:۳۰، پایگاه داده داخلی Oracle استفاده از CPU   بالای ۹۲%  را تجربه کرده است.»

۳)    تجزیه و تحلیل و تولید پاسخ:  ChatGPT  یک پاسخ بر اساس داده های ورودی ایجاد خواهد کرد. سپس شما اطلاعات مربوطه را با استفاده از روش های پس پردازش یا با طراحی پیام برای وارد کردن ورودی های اولیه توسط کاربر، از خروجی استخراج می کنید و برای هدایت مدل برای تولید خروجی مورد نظر استفاده می کنید.

۴)    پس پردازش و هشدار: بسته به نوع تجزیه و تحلیل دریافت شده توسطGPT، سیستم می تواند هشدار دهد یا اقدامات مناسبی مانند تشخیص خودکار یا اصلاح بیشتر را انجام دهد.

۵)    حلقه بازخورد پیوسته: در صورت امکان، می‌توانیم یک حلقه بازخورد راه‌اندازی کنیم که نتایج حاصل از خروجی ChatGPT می تواند برای بهبود پاسخ های آینده استفاده شود.

 

۴-    ناهماهنگی فرهنگی (اصول: ساده نگه داشتن کارها، حفظ بودجه خطا)

ناهماهنگی فرهنگی

اتخاذ SLOs و بودجه های خطا مستلزم مسئولیت مشترک بین همه ذینفعان در یک جریان ارزش است. این کار می تواند به علت فشار برای تحویل سریعتر امکانات جدید دشوار باشد. چگونه اغلب اوقات صاحبان محصول مانع تغییر در به کارگیری آن محصول میشوند در حالی که بودجه خطا در حال انفجار است؟ با این حال، صرف نظر از همه ابزارهای ارائه شده، نیاز به همکاری و ارتباط است. ارائه ابزارها یک چیز است، در حالی که استفاده مؤثر از آن چیز دیگری است.

مشارکت : LLM یکی از دلایل اصلی ناهماهنگی فرهنگی، ارتباط نامناسب است. این مورد بیشتر در مورد کمبود ابزار برای تسهیل نیست، بلکه بیشتر در مورد این واقعیت است که هر فردی پیام ها را از طریق این محصولات، متفاوت تفسیر می کند. یک LLM مانند Bing Chat Enterprise می تواند در زمینه های زیر کمک کند:

۱)    ارتباط معنادار: اصطلاحات فنی از داشبوردهای قابلیت اندازه گیری وضعیت فعلی سیستم نشان می دهد که SLO و نقض های بودجه خطا را می توان به زبانی قابل فهم برای سهامداران مختلف ترجمه کرد. به عنوان مثال، LLMمی تواند توضیحی در مورد اینکه چگونه بودجه های خطای بیش از حد، ممکن است بر قابلیت اطمینان سیستم در زمینه محصول مربوطه، کمک به صاحبان محصول و کاربران تجاری در تصمیم گیری آگاهانه، تاثیر بگذارد.

۲)    هشدارها و اعلان ها‌:  LLMsمی‌توانند داده‌ها را از ابزارهای مشاهده‌پذیری پردازش کنند و هشدارهای معنی‌دارتر و مرتبط تولید کنند. آنها می توانند زمینه های نگرانی کلیدی را برجسته کنند، به خصوص اگر مشکل شناسایی شده به کد زیربنایی مرتبط باشد. این مورد باعث صرفه جویی در تلاش مهندس SRE در توضیح مشکلات مربوط به ویژگی های توسعه یافته برای هر یک از توسعه دهندگان می شود.

۳)    مدیریت دانش: اگر LLM بر روی مجموعه داده های پس از حادثه آموزش داده شود، می توان از آن به عنوان یک مرکز متمرکز دانش محور استفاده کرد. فراتر از داده‌های پس از حادثه، می‌تواند گزارشات جلسه و مستندات سیستم را استفاده کند تا منابع خود را غنی کند. مهندسین SRE، توسعه دهندگان، صاحبان محصول و سایر ذینفعان می توانند با استفاده از پروفایل های یکتا، کوئری ها را به LLM ارسال کنند، و پاسخ هایی که دریافت می کنند به روشی ارائه می شود که  درک آن برای آنها آسان است.

۴)    آموزش و راهنمایی:LLMs می توانند سناریوها یا مطالعات موردی را بر اساس داده های گذشته برای آموزش توسعه دهندگان و مهندسان SRE در مورد بهترین شیوه ها، SLOs و بودجه خطا، ایجاد کنند. از این سناریوها می توان در تمرین های جهت گیری گروهی مشترک استفاده کرد تا همه نقش ها در اکوسیستم بتوانند در مورد مفاهیم و پیاده سازی های عملی به روشی که آنها درک می کنند، یاد بگیرند.

۵)    حل تعارض: با ارائه گزارش های عینی و مبتنی بر داده ها و هشدارها، LLMs  می توانند به وساطت بین تیم های مختلف کمک کنند .آن‌ها می‌توانند زمان و مکان نقض بودجه‌های خطا را مشخص کنند که می‌تواند منجر به بحث های سازنده در مورد تخصیص منابع، سلامت سیستم و سرعت استقرار شود.

به طور کلی، هدف استفاده از LLM به عنوان تسهیل کننده ارتباطات و تفاهم برای همسو کردن همه به سوی هدف مشترک قابلیت اطمینان و پایداری سیستم، است.

۵-    کاهش وابستگی به متخصص موضوع(Subject Matter Expert-SME)  (اصل: رفع زحمت)

Subject Matter Expert-SME

اتکای بیش از حدی به مهندسین SRE از طرف گروه‌های توسعه قابلیت و سایر تیم های عملیاتی مرتبط، وجود دارد. سیستم‌های تجاری معمولاً مجموعه‌ای از کامپوننت های توزیع‌شده هستند که با همدیگر تعامل دارند که ممکن است تیم های عملیات جداگانه داشته باشند، که همه آنها مهندسان SRE نباشند.

برای حل این موضوع، مهندسان SRE می توانند دانش خود را مستند کنند. با این حال، مهندسان SRE باید با این واقعیت روبرو شوند که به طور مداوم با چنین تیم های خارجی در پلتفرم های همکاری، به عنوان متخصص با یک نظم خاص در تماس باشند .

اعضای تیم عملیات می‌توانند برای مشاوره تخصصی عیب یابی یک حادثه خاص با مهندسین SRE از سیستم دیگری مشورت بگیرند. مهندسین SRE  با استعداد به راحتی در دسترس نیستند و استخدام آنها دشوار است.

مشارکت LLMs: LLMمی توانند به SMEs کمک کنند تا محتوا را سریعتر تولید کنند، یک پایگاه دانش جامع ایجاد کنند و به ذینفعان از نظر پشتیبانی سلف سرویس کمک کنند. این امر می تواند به پاسخگویی به اکثر پرس و جو های داخلی یا خارجی و کاهش وابستگی SME  کمک کند.GPT  همچنین می تواند به ارائه محتوای آموزشی به کارکنان کمک کند، بنابراین مشارکت SME  در آموزش و معارفه کارمندان کاهش می یابد.

موارد زیر روش‌های خاصی است که یک LLM می‌تواند به همه اعضا تیم کمک کند و مهندسان SRE را از طریق بهبود کارایی، افزایش به اشتراک گذاری دانش و دقت بیشتر بهره مند کند.

۱. پایگاه دانش خودکار: LLMs می توانند اسناد و سایر منابع دانش ایجاد شده توسط مهندسین SRE را جذب کنند و به عنوان یک ابزار جستجوی پیچیده خدمت کنند. بوسیله تعامل با  LLM، سایر تیم ها می توانند اطلاعات مورد نیاز خود را بدون ایجاد وقفه در کار مهندسین SRE دریافت کنند و زمان صرف شده برای پاسخگویی به سوالات معمول آنها را کاهش دهند.

با فرض استفاده از ChatGPT، یک رابط مانند ربات چت یا نوار جستجو می تواند ارائه شود تا کاربران بتوانند سؤال بپرسند، و LLM  که اکنون با مجموعه داده های آموزش دیده به خوبی تنظیم شده است، می تواند به سبکی متناسب با درخواست کننده به آنها پاسخ دهد.

۲. مستند سازی پویا: برای کمک به مستند سازی، می‌توان سیستمی ساخت که به مهندسان SRE اجازه وارد کردن اطلاعات خام  را میدهد و ChatGPT می‌تواند محتوای واضح و خواناتری تولید کند. مثلا،ChatGPT با در نظر گرفتن یک قطعه کد، ممکن است بتواند توضیحی قابل خواندن برای انسان در مورد کد ارائه دهد.

مثال دیگر این است که LLMs می توانند برای تولید محتوا برای مستندات “کتابچه راه‌اندازی” که ضعیف هستند و روش های عملیاتی استاندارد را پوشش می دهند، استفاده شوند. در چنین مواردی، LLM  را می توان برای شناسایی کتاب های راه اندازی استاندارد “خوب” در برابر یک قالب خاص آموزش داد و به دلیل ماهیت مولد آن، می تواند عمق و حجم بیشتری به روش های موجود در کتابچه راه اندازی اضافه کند یا زمانی که یک مهندس داده ها را از طریق یک اعلان درخواست می کند، آن را تکمیل کند.

۳. آموزش و معارفه: با استفاده ازChatGPT، می‌توان راهنمای تعاملی شبانه روزی ایجاد کرد که در آن اعضا جدید می توانند سوال بپرسند و پاسخ بگیرند. راهنمای تعاملی شبانه روزی می تواند راهنماهای گام به گام، توضیحات، اطلاعات مفید دیگر و همه مکالمه ها را ارائه دهد.

برای مثال، یک عضو جدید تیم می‌تواند از رابط بپرسد: «نمای کلی سطح بالای معماری سیستم ما چیست ؟ »و ChatGPT می تواند با یک خلاصه مختصر از معماری سیستم، احتمالا شامل اجزای اصلی، نحوه تعامل آنها، محل میزبانی آنها و غیره پاسخ دهد. اگر از Bing Chat Enterprise استفاده شود، می‌تواند تصویر معماری را نیز نشان دهد.

پس از این، درخواست‌ کننده می ‌تواند به پرسیدن «معمولاً چگونه مشکلات را در ماژول A اشکال زدایی کنیم؟» ادامه دهد.

که LLM ممکن است با راهنمای اشکال زدایی گام به گام بر اساس اشکال زدایی قبلی و گزارشات حادثه مربوط به ماژول، پاسخ دهد. راهنمایی ها را می توان بیشتر شرح داد و موشکافی کرد و در هر مرحله، درخواست کننده پاسخ های مفصل، دقیق و متنی را دریافت می کند که در غیر این صورت و عدم وجود این امکان، توجه ویژه مهندسان SRE را نیاز داشت.

۶-    پیاده سازی شاخص سطح خدمات (Service Level Indicator(SLI) )

(اصل: پیاده سازی SLO)

Service Level Indicator(SLI)

تعریف  SLIs خوب برای مهندسان SRE چالش برانگیز است زیرا آنها باید “عملکرد فنی” و “انتظارات تجاری” را بالانس کنند. حد نرمال حفظ حداکثر سه SLI در هر تجربه کاربر، این را حتی دشوار تر می کند. در حالی که برخی از محصولات فراهم کننده قابلیت مشاهده (observability productsشامل ابزارهایی مانند مانیتورینگ، لاگینگ، تریسینگ )  می‌توانند به تعریف و حتی پیشنهاد SLI به صورت خودکار کمک کنند، اما فاقد محتوا و موضوع هستند.

مهندسان SRE هنوز باید نمودارهای توالی مسیر(Sequence Diagram) استفاده کاربر از سایت را بررسی کنند تا یکی را که می تواند زمان بر باشد، مشخص کنند. پس از تعریف، چالش بعدی اطمینان از تنظیم صحیح هدف SLO است. این کار میتواند  توسط جستجوی داده‌های گذشته یا «مشاهده و صبر کن» انجام شود، اما هر دو روش زمان‌ بر هستند.

مشارکت : LLM به عنوان مثال ai. SLOGPT از شرکت Nobl9 می تواند از اسکرین شات های موجود نمودارهای ابزار نظارت برای شناسایی SLOs کمک کند.

– با این حال، این خروجی فاقد زمینه مشتری است. آنچه در زیر آمده موارد استفاده ای است که LLMs می توانند پتانسیل یک SRE را در اجرای SLI افزایش دهند:

۱. تعریف: SLI LLMs  می توانند به ارائه پیشنهادات SLI بر اساس داده های متنی کمک کنند. به عنوان مثال، پس از آماده سازی (Priming) LLM  با اطلاعاتی در مورد معماری برنامه، می توان در رابط کاربری، با استفاده از prompts، مسیرهای مشتری را در سیستم های مختلف مشخص کرد.

یک LLM مانندChatGPT، می تواند نقش یک مهندس SRE را بر عهده بگیرد و سه SLI  برتر را بر اساس انواع خاص SLI (مثلاً تأخیر) در مقابل مدل “۴ سیگنال طلایی ” یا هر مدل دیگری پیشنهاد دهد.

پس از انجام، می‌توان خواست تا هر SLI را با جزئیات تعریف کند و همچنین درباره دلایل انتخاب آن سوال کرد.

۲. تعریف : SLOهنگامی که لیست  SLIsبالقوه به دست آمد و اصلاح شد، یک مهندس SRE می تواند از ChatGPT  برای پیشنهاد  SLOsمناسب استفاده کند.

به عنوان مثال، اعلانی مانند: SLOما برای نرخ خطای سرویس Aچیست؟” می تواند پرسیده شود ChatGPT. ممکن است یک SLO مانند «نرخ خطای سرویس A باید کمتر از ۰.۱٪ در هر ۵ دقیقه پیمایش باشد»  را پیشنهاد دهد.

این مدل می تواند پیشنهاد خود را بر اساس استانداردهای صنعت، بهترین شیوه‌ها و داده‌های عملکرد گذشته سرویس که در طول آموزش دریافت کرده است، ارائه دهد.

با این حال، اگر مستندات طراحی دقیق که الزامات غیر عملکردی( Non-Functional Requirements (NFRs))   را پوشش می‌دهند، وجود داشته باشند، زمینه و اعتبار بهتری را در برابر  SLOs پیشنهادی ارائه می دهند.

۳. تنظیم مداوم: با تکامل سیستم و جمع آوری داده های عملکرد، مهندسان SRE می توانند از GPTبرای پیشنهاد تنظیمات SLI و SLO استفاده کنند. به عنوان مثال، اگر سرویس A به طور مداوم با SLO خود با مارجین زیادی روبرو می شود، یک مهندس SRE ممکن است از ChatGPT  بپرسد که آیا باید SLO  سختگیرانه تر باشد یا خیر.

اگر سرویس به طور مداوم بهSLO  خود دست نیابد ، مهندس SRE می تواند بپرسد که آیا SLO  باید آسان گیر شود یا چه تغییراتی باید در سرویس ایجاد شود تا به آن کمک کند تا SLO را برآورده کند.

۷-    مدیریت ایمیل ها (اصول: حذف زحمت، ساده نگه داشتن کارها)

سرویس های ایمیل

با وجود ابزار ثبت تیکت ITSM، بسیاری از مشتریان و سایر تیم ها هنوز ترجیح می دهند از ایمیل برای ارتباط استفاده کنند. اوضاع وقتی بدتر میشود که انتظار می رود که به این موارد فورا پاسخ داده شود، در نتیجه منجر به تغییر قابل توجه موضوع کاری و مدیریت سخت آن‌ها میشود.

علاوه بر این، سنجش نظرات مشتری تنها بر اساس ایمیل‌ها، می‌تواند دشوار باشد. در حالی که SREs بر جنبه فنی تمرکز دارند، مدیریت ارائه خدمات باید عملکرد خدمات ارائه شده توسط تیم ها را درک کند و به چیزی بیشتر از SLOs نیاز است.

مشارکت: LLM LLM می تواند محتوای کل متن ایمیل و ارتباطات ابزار همکاری را آنالیز کند.

(به عنوان مثال، مکالمات Slack) برای شناسایی درخواست و استفاده از سایر عناصر بدنه ایمیل برای تعیین نظرات و احساسات مشتری .به عنوان مثال، Bing Chat Enterprise می تواند به پردازش، دسته بندی، اولویت بندی، خلاصه کردن و حتی پاسخ به ایمیل ها کمک کند.

۱.تریاژ (اولویت بندی) ایمیل: از LLMs می توان برای مرتب کردن ایمیل ها در دسته های مختلف بر اساس محتوای آنها استفاده کرد. برای مثال، آنها می‌توانند ایمیل‌ها را با عناوین: اطلاعاتی، درخواست‌های اقدام، گزارش‌های خطا یا درخواست‌های عمومی، شناسایی و برچسب گذاری کنند.

این کار به SREs کمک می کند تا مشخص کنند چه چیزی به توجه آنها نیاز دارد و فعالیت های خود را به سرعت بر اساس آن اولویت بندی کنند. برای انجام این کار، ابتدا باید دسته بندی موضوعی ایمیل تعریف شوند. سپس مدل می تواند با مثال های مختلفی تغذیه شود که هر دسته را برای آموزش نشان می دهد.

پس از تنظیم دقیق، LLM اکنون باید بتواند ایمیل های دریافتی جدید را بر اساس محتوا دسته بندی کند.

۲.پاسخ های خودکار:  LLM می تواند برای برخی از انواع ایمیل ها پاسخ خودکار ایجاد کند. این کار می تواند برای درخواست های استاندارد یا سوالات رایج مورد استفاده قرار گیرد. این مدل ها می توانند پاسخ های دقیق و منسجمی را برای  پرداختن به پرس و جو ایجاد کنند. مانند دسته بندی ایمیل، مدل باید در مورد انواع سؤالات رایج و پاسخ های مربوطه آموزش داده شود. سپس، می تواند از این الگوها برای ایجاد پاسخ برای پرس و جو های مشابه در آینده استفاده کند.

۳. تجزیه و تحلیل نظرات: از LLMs می توان برای درک نظرات افراد در مضمون ایمیل ها استفاده کرد. آنها می توانند تشخیص دهند که این نظرات مثبت، منفی یا خنثی است و یک امتیاز کلی ارائه می دهد. این کار می تواند بطور ویژه برای درک حالت یا لحن کلی ارتباطات کاربران، توسعه دهندگان یا تیم های دیگر مفید باشد .

این کار مستلزم یک مجموعه داده برچسب ‌دار حاوی متنی با برچسب‌های نظرات مرتبط (مثلاً مثبت، منفی، خنثی) است. یک مدل آموزش دیده بر روی این داده ها، اکنون می تواند با ایمیل های دریافتی تغذیه شود و سپس نظرات پشت متن ایمیل را پیش بینی کند. ابزار مبتنی بر GPT مانند ChatGPT نمی تواند نظرات را به طور مستقل تجزیه و تحلیل کند چون هدفش این نیست.

در عوض،  ChatGPTرا می توان در یک خط لوله شامل مدل های دیگر، مانند (Bidirectional Encoder Representations from Transformers)BERT که زمینه را هم از سمت چپ و هم از سمت راست در نظر می گیرد، (به عنوان مثال، دو طرفه)، استفاده کرد  که منجر به درک دقیق تری از معناشناسی زبان می شود.

۴. خلاصه سازی: برای ایمیل های طولانی تر، LLMs می توانند خلاصه ای از نکات اصلی را ارائه دهند. برایSREs  که نیاز به درک سریع محتوای ایمیل بدون خواندن کل متن دارند، خلاصه سازی می تواند مفید باشد. علاوه بر این، با ایمیل های بیشتری که توسط LLM خوانده می شود، می تواند تاریخچه ای از مکالمات مرتبط را حفظ کرده و محتوای مرتبط را ارائه دهد.

برای پیاده سازی این حالت، می توان از مجموعه داده هایی با متن طولانی و خلاصه های کوتاه متناظر با آن، برای آموزش LLM استفاده کرد. پس از آموزش مدل روی چنین داده‌هایی، مدل می‌تواند هر متن طولانی را بگیرد و خلاصه‌ای را با دقت تولید کند.

۵. استخراج نگرش و رویکرد: در طول زمان، با تجزیه و تحلیل محتوا و نظرات ایمیل ها، LLMs می توانند نگرش ارزشمندی در مورد مسائل تکرار شونده، مشکلات متداول، زمینه های بهسازی، و رضایت کلی کاربر ارائه دهند. این نگرش ها می تواند تصمیم گیری استراتژیک را هدایت کند و به بهبود خدمات و عملیات SRE کمک کند. با این حال، برای انجام این کار، مدل نیاز به تجزیه و تحلیل ایمیل های طبقه بندی شده و نظرات مرتبط، در یک دوره زمانی دارد تا موضوعات یا مسائل تکراری را شناسایی کنید.

در تمام این موارد، LLM باید یک جریان ورودی ثابت از محتوای ایمیل دریافت کند که می تواند از طریق API استخراج شود.

یک LLM باید قبل از استفاده، با مجموعه داده های آموزشی مناسب برای هر سناریو تنظیم شود. دامنه گسترده درک زبان می تواند به GPT در تجزیه و تحلیل نظرات در زبان های مختلف کمک کند. شایان ذکر است در حالی که مدلی مانند ChatGPT را می توان برای مطالعه داده های نوشته شده به زبان های مختلف استفاده کرد، اما در زبان انگلیسی بسیار ماهرتر است. دقت و نتایج تفسیر زبان‌های غیرانگلیسی بر اساس نمایش آن در مجموعه داده آموزشی، متفاوت خواهد بود.

۸-    خستگی هشدار(Alert fatigue) (اصول: اجرای SLO، حذف زحمت)

 

 

سرویس های ایمیل

حجم زیاد هشدارهای سیستم می تواند چالش مهمی برای مهندسین SRE باشد. مطابق مقاله Forbes ، «تیم‌هایی که برنامه‌ها و فرآیندهای متعدد را نظارت می‌کنند، نسبت به هشدارها حساسیت زدایی می شوند و به توانایی آنها در عملکرد موثر یا اولویت بندی مناسب مسائل آسیب رسانده می شود».

فراتر از این، سیل هشدار همچنین آنالیز سببی ( causal analysis) را پیچیده می کند و تریاژ (اولویت بندی) حادثه( incident triaging)، به طور قابل توجهی روند را به تاخیر می اندازد. در پلتفرم‌های ابری توزیع‌شده، میزان هشدارها تنها از آن زمان افزایش می‌یابد که ما جریان های داده های تله متری (telemetry data)   زیادی داریم که می توانند هشدارها را شروع کنند. چالش مبرم در اینجا این است که کمیت (تعداد) هشدار را کاهش و کیفیت آنها را افزایش دهیم که این کار آنها را معنادار تر و کاربردی تر می کند.

مشارکت LLMs: LLM می توانند برای توسعه سیستم های مدیریت هوشمند هشدار که در سیستم خط لوله اطلاع رسانی(notification pipeline) تعبیه شده، استفاده شوند. این سیستم ها از قابلیت های پردازش زبان طبیعی LLM برای خواندن و فهمیدن محتوای هر هشدار استفاده می کنند.

سپس می تواند هشدارها را بر اساس شدت، علت احتمالی اصلی، خدمات تحت تأثیر، کاهش حجم هشدارها با حذف تکرار اعلان‌های مشابه و فیلتر کردن موارد غیر بحرانی طبقه بندی کند. به این ترتیب، مهندسان SRE می توانند بر روی هشدارهای مهم تمرکز کنند.

۱.    اولویت بندی هشدار و طبقه بندی LLMs: را می توان آموزش داد تا تفاوت های ظریف هشدارهای مختلف را درک کنند و آنها را قادر می سازد تا به طور خودکار هشدارها را بر اساس محتوا، شدت و زمینه آنها طبقه بندی کنند. به عنوان مثال، هشدارها را می توان به دسته های “بحرانی”، “هشدار”، “اطلاعاتی” و غیره طبقه بندی کرد .این دسته بندی خودکار به مهندسان SRE کمک می کند بر روی هشدارهایی که نیاز به توجه فوری دارند، تمرکز کنند.

برای انجام این کار، مجموعه داده ای از هشدارها باید جمع آوری شود، که هر کدام در دسته بندی صحیح خود برچسب گذاری شده اند. در مرحله بعد، مدل باید در این مجموعه داده ها آموزش داده شود تا یاد بگیرد که گروه هشدار ورودی را بر اساس محتوای آن پیش بینی کند. پس از آموزش، می توان آن را با خط لوله سیستم هشدار یکپارچه کرد تا هشدارها را همانطور که تولید می شوند به صورت خودکار طبقه بندی کند .

۲.    حذف هشدارهای تکراری: چندین هشدار اغلب توسط یک حادثه ایجاد می شود و رگباری از اعلان ها را برای مشکل یکسان ایجاد می کند. LLMs می توانند هشدارهای مشابه را شناسایی و گروه بندی کنند و یک دید تلفیقی از حادثه و کاهش نویز را به مهندسان SRE ارائه دهند. مجموعه داده های گذشته از هشدارها و حوادث با گروه بندی مناسب، برای آموزش مدل مورد نیاز است.  مدلی مانند GPT می تواند شباهت های بین هشدارهای متنی مشابه را شناسایی کند.

با این حال، چالش زمانی است که سعی می‌کنید به گروه بندی هشدارها چهارچوب بدهید و آنهایی را که دارای تفاوت گسترده در محتوا هستند را گروه بندی کنید. پس از آموزش، این مدل می تواند روی جریان هشدارهای دریافتی به عنوان بخشی از سیستم خط لوله مدیریت هشدار اعمال شود.

۳.    همبستگی هشدار LLMs: می توانند از شناخت خود در معناشناسی زبان و مضمون، برای همبستگی هشدارهای به ظاهر نا مرتبط که نشانه یک موضوع بزرگتر و پیچیده تر هستند، استفاده کنند .این کار در شناسایی زودهنگام مسائل مهم کمک می کند در غیر این صورت می تواند نادیده گرفته شود.

یک مجموعه از داده های گذشته که در آن هشدارها به یک حادثه مرتبط شده است در اینجا مورد نیاز است.  دوباره، مدل نیاز به تنظیم دقیق دارد، و پس از تکمیل، می تواند هشدارهای دریافتی را برای یافتن و پیوند دادن هشدارهای مرتبط اسکن کند. البته، فرآیند واقعی اتصال باید توسط ابزار پشتیبانی ITSM مربوطه یا یک سیستم متوسط دسترسی به اطلاعات تیکت از طریق APIs انجام شود.

۴.    خلاصه سازی هشدارها: هنگامی که هشدارها طبقه بندی و مرتبط شدند و موارد تکراری حذف شد، LLM می تواند خلاصه های مختصری از گروه های هشدار تولید کند این کار به درک سریع موقعیت و زمان سریعتر پاسخ کمک می کند. باز هم، مجموعه داده های گذشته مورد نیاز است. با این حال، مسئله حصول اطمینان از محتوای کافی داده های آموزشی در هشدار یا حادثه برای خلاصه سازی توسط مدلی مانند GPT است.

برای این کار ابتدا باید مهندس SRE جزئیات کافی در هشدارها را از طریق پلتفرم مشاهده پذیری، ایجاد کند. مجموعه داده ها می تواند خلاصه های کوتاهی در ارتباط با هر هشدار برای آموزش مدل برای خلاصه سازی دقیق تر داشته باشد. پس از تنظیم دقیق، درست مانند سناریوهای دیگر، مدل را می توان در سیستم خط لوله اعلان هشدار پیاده سازی کرد.

۵.    پیشنهادات حل مشکلات وقایع ناگوار: با مرتبط کردن هشدارها با مشکلات و راه حل های شناخته شده در پایگاه دانش موجود، LLMs  می توانند راه حل ها یا مراحل کاهش بالقوه مشکل را به مهندسان SRE پیشنهاد دهند. با فرض یک پایگاه داده دانش مناسب یا یک پایگاه داده خطای شناخته شده با محتوای کافی در مورد مراحل قبلی رفع خطا و طبقه بندی هشدارها ؛ داشتن اطلاعات علت ریشه ای مشکل باعث می شود نتایج استفاده از LLM در این خط لوله بهبود یابد.

این راه حل ها را می توان با اتخاذ SLOs به اندازه کافی بهبود داد تا هشدارهایی را بر اساس نرخ سوخت (SLO burn rate) یا نقض SLO به جای نقض آستانه، در سطح مانیتور ایجاد کند. برای افزایش بیشتر این مقدار، ادغام سیستم مدیریت تغییر با سیستم مدیریت هشدار به LLM کمک خواهد کرد تا برخی از این هشدارها را با استقرار مداوم(ongoing deployments) شناسایی و مرتبط کند.

اگر هشدارهای تولید شده برای جلوگیری از شکست قریب الوقوع کل سیستم، واقعی و مهم باشد، یک مهندس SRE می تواند  ویژگی های Rollback خودکار از استقرار سیستم را پیش ببرد.

  نتیجه گیری و جهت گیری آینده

در این مقاله، ما چالش‌های مهم در قلمرو SRE، مانند کارهای دستی، خستگی هشدار و وظیفه پیچیده حفظ  SLOsدقیق را روشن کرده‌ایم. ما همچنین نقش تحول آفرین LLMs هایی مانندGPT  را در مهندسی SRE به عنوان یک ابزار تکمیلی که در نهایت برای مهندسان محوری خواهد شد، پوشش دادیم.

یکی از مشاهدات کلیدی این است که یک LLM را نمی توان خارج از چهارچوب مشخص استفاده کرد (به عنوان مثال، از طریق ChatGPT) و انتظار نتایج دقیق را در هر خط لوله ای که اجرا شده داشت.

دلیل اصلی این امر این است که LLMهایی مانند GPT ممکن است به هالوسیناسیون (پاسخ های نادرست یا گمراه کننده)مبتلا شود،  به این معنی که آنها می توانند چیزهایی را فراتر از داده های منبع خود بسازند. این ویژگی یکی از عواقب مولد بودن GPT در مقابل نسخه‌های دیگر است.

به عبارت دیگر،GPT  به‌طور خودکار و بدون نیاز به داده‌های ورودی، پاسخ‌هایی را تولید می‌کند که ممکن است با داده‌های موجود در متن اولیه مطابقت نداشته باشند. در چنین مواردی، استفاده از مجموعه داده صحیح برای آموزش مدل‌های  خاص مورد استفاده، کلیدی است، به خصوص با توجه به اینکه مهندسان SRE معمولاً با سیستم‌های حیاتی برای کسب و کارها سر و کار دارند.

به همین دلیل، مهندسان SRE باید زمان و تلاش خود را برای آموزش و یکپارچه سازی چنین مدل هایی قبل از استفاده اصلی از آنها ، صرف کنند. حتی پس از اجرای کامل، باید از نزدیک برای دقت شان بررسی شوند.

همانطور که به آینده نگاه می کنیم، روندهای صنعت نشان می دهد که نقش هوش مصنوعی در SRE همچنان در حال گسترش است. پیش بینی می شود که LLMs   بخش مهمی از این موج هوش مصنوعی را تشکیل دهند و تأثیر عمیق تری را در فضای SRE ارائه دهند.

در مقابل، یک مقاله در سال ۲۰۲۱ از DevOps.com نشان می دهد که تنها ۷.۵٪ از مهندسان SRE، AIOps را به عنوان یک محصول با ارزش بالا” در نظر دارند. در حالی که استفاده از LLM نمی‌تواند با موفقیت جایگزین مهندسان SRE شود یا تمام مشکلات را حذف کند، استفاده از LLM در عملکرد سیستم می تواند پذیرش AIOps را بهبود بخشد. با ارائه یوزکیس ها( use cases ، ابزاری برای تعریف تعاملات مورد نیاز کاربر در سیستم ) ، ممکن است شاهد بهبود نرخ های پذیرش باشیم.

خوشبختانه، با سیستم‌هایی مانند Microsoft 365 Copilot، Google Bard وOpenAI ChatGPT ، عملیات افزوده با فناوری AIOps آسان تر و جذاب تر شده است.

با در نظر گرفتن این موضوع، عصر آینده ی SRE  شاهد تکامل LLMs از دستیارانی که وظایف معمول را انجام می دهند به شرکای استراتژیک که در فرآیندهای تصمیم گیری در SRE مشارکت دارند ، خواهد بود. با بهره گیری از LLM، تیم های SRE  می توانند کارهای دستی را کاهش دهند و تخصص ارزشمند انسانی را برای کارهای پیچیده تر و با ارزش تر آزاد کنند.

تکامل راه حل های LLM در عملکرد استراتژیک کسب و کار، به ناچار منجر به چالش های مربوط به هزینه و ROI (Return on Investment  معیاری به منظور ارزیابی کارایی یا سودآوری یک سرمایه‌گذاری یا مقایسه کارایی چندین سرمایه‌گذاری مختلف است) خواهد شد.

در حالی که بسیاری از سناریوهای ذکر شده را می توان با استفاده از LLM حل کرد، یک مهندس SRE هنوز باید یک مطالعه امکان سنجی برای شناسایی، کمیت و اندازه گیری بازده سرمایه گذاری، قبل از اجرای چنین راه حل هایی انجام دهد. این مرحله برای جلوگیری از هزینه بیش از حد در مناطقی که بازدهی قابل توجه کمتری را فراهم می کند، بسیار مهم است.

در نتیجه، مسیر ادغام LLM در SRE هنوز در حال تکامل است و مهم است که با مراقبت و احتیاط، به ویژه در زمینه مهندسی SRE پیش برویم. اگرچه پیامدها گسترده است، اما پتانسیل بسیار زیاد است. هوش مصنوعی همچنان نقش مهمی در تضمین قابل اعتماد، کارآمد و انعطاف پذیر باقی ماندن سیستم ها ایفا خواهد کرد.