۵ روش استفاده خلافکاران از هوش مصنوعی

۵ روش استفاده خلافکاران از هوش مصنوعی

هوش مصنوعی مولد، جعل، کلاهبرداری و داکسینگ را آسانتر از همیشه کرده است. استفاده خلافکاران از هوش مصنوعی ، جهش بزرگی در بهره‌وری  دنیای زیرزمینی خلافکاران ایجاد کرده است. هوش مصنوعی مولد یک جعبه ابزار جدید و قدرتمند فراهم می‌کند که به خلافکاران اجازه می‌دهد بسیار کارآمدتر و بین ‌المللی‌تر از همیشه عمل کنند. 

افزایش کارایی و بهره‌وری خلافکاران

استفاده خلافکاران از هوش مصنوعی (AI) در دهه‌های اخیر به شدت افزایش یافته است. این فناوری با قابلیت‌های پیشرفته‌اش می‌تواند به آنها در انجام فعالیت‌های غیرقانونی کمک کند. بیشتر خلافکاران در مخفیگاه تاریک زندگی نمی‌کنند و نقشه نمی‌کشند. بیشتر آن‌ها افراد معمولی هستند که فعالیت‌های معمولی دارند و نیاز به بهره‌وری دارند.

سال گذشته شاهد ظهور و سقوط WormGPT بودیم. یک مدل زبانی هوش مصنوعی که بر اساس یک مدل منبع باز ساخته شده بود و بر روی داده‌های مرتبط با بدافزار آموزش دیده بود. این مدل برای کمک به هکرها ایجاد شده بود و هیچ قاعده یا محدودیت اخلاقی نداشت.

اما سازندگان آن اعلام کردند که این مدل را پس از جلب توجه رسانه‌ها تعطیل می‌کنند. از آن زمان، خلافکاران سایبری توسعه مدل‌های هوش مصنوعی خود را متوقف کرده‌اند. در عوض، آن‌ها به ترفندهایی روی آورده‌اند که با ابزارهای موجود به طور قابل اعتمادی کار می‌کنند.

در ادامه ۵ روش استفاده خلافکاران از هوش مصنوعی شرح داده شده است:

فیشینگ :  بزرگترین کاربرد هوش مصنوعی مولد در بین خلافکاران

فیشینگ تلاش برای فریب مردم به افشای اطلاعات حساس است که می‌تواند برای مقاصد مخرب استفاده شود. محققان دریافته‌اند که با افزایش استفاده از چت ‌بات  ChatGPT، تعداد ایمیل‌های فیشینگ نیز به شدت افزایش یافته است.

خدمات تولید اسپم، مانند GoMail Pro، چت‌ بات ChatGPT را در خود ادغام کرده‌اند. این سرویس ها به کاربران خلافکار اجازه می‌دهد پیام‌های ارسالی به قربانیان را ترجمه یا بهبود دهند.

سیاست‌های OpenAI استفاده از محصولات آن‌ها برای فعالیت‌های غیرقانونی را ممنوع می‌کند. اما در عمل نظارت بر این موضوع دشوار است. زیرا بسیاری از درخواست‌های به ظاهر بی‌ ضرر نیز می‌توانند برای مقاصد مخرب استفاده شوند.

OpenAI  از ترکیب بازبینی‌های انسانی و سیستم‌های خودکار برای شناسایی و جلوگیری از سوءاستفاده از مدل‌های خود استفاده می‌کند. در صورت نقض سیاست‌های شرکت، هشدارها، تعلیق موقت و ممنوعیت‌ها را صادر می‌کند.

سخنگوی OpenAI گفت: “ما ایمنی محصولات خود را جدی می‌گیریم و همواره در حال بهبود اقدامات ایمنی خود بر اساس نحوه استفاده مردم از محصولاتمان هستیم.” او افزود: “ما به طور مداوم در تلاشیم تا مدل‌های خود را در برابر سوءاستفاده و فرار از محدودیت‌ها، مقاوم‌تر و ایمن‌تر کنیم، در حالی که همچنان مفید بودن و عملکرد وظیفه‌ای آن‌ها را حفظ می‌کنیم.”

قبلا تشخیص کلاهبردارانی که به انگلیسی مسلط نبودند نسبتاً آسان بود زیرا پیام‌های انگلیسی آنها پر از اشتباهات گرامری بود. مدل‌های زبانی به کلاهبرداران اجازه می‌دهند پیام‌هایی تولید کنند که شبیه چیزی باشد که یک گوینده بومی زبان نوشته است.

به لطف ترجمه بهتر توسط هوش مصنوعی، گروه‌های جنایی مختلف در سراسر جهان نیز می‌توانند بهتر با یکدیگر ارتباط برقرار کنند. خطر این است که آن‌ها می‌توانند عملیات‌هایی در مقیاس بزرگی‌ را هماهنگ کنند که فراتر از مرزهای ملی آن‌ها باشد و قربانیانی در کشورهای دیگر را هدف قرار دهند.

جعل صوتی دیپ ‌فیک‌ : استفاده خلافکاران از دیپ ‌فیک‌ برای کلاهبرداری

هوش مصنوعی مولد توسعه دیپ ‌فیک‌ را به طور قابل توجهی پیش برده است، به طوری که تصاویر، ویدیوها و صداهای مصنوعی، واقعی‌تر از همیشه به نظر می‌رسند. این موضوع از نظر خلافکاران پنهان نمانده است.

اوایل امسال، یک کارمند در هنگ ‌کنگ به دلیل استفاده خلافکاران از دیپ ‌فیک‌ صدای مدیر مالی شرکت، برای متقاعد کردن او به انتقال ۲۵ میلیون دلار به حساب کلاهبرداران، قربانی شد.

دیپ ‌فیک‌ها در دنیای زیرزمینی بازاریابی می‌شوند و افرادی در پلتفرم‌هایی مانند تلگرام نمونه کار دیپ ‌فیک‌های خود را نشان می‌دهند و خدمات خود را می‌فروشند. یکی از محبوب‌ترین افرادی که خلافکاران برای دیپ ‌فیک‌ استفاده می‌کنند، ایلان ماسک است.

ساخت ویدیوهای دیپ ‌فیک‌ همچنان پیچیده است و برای انسان‌ها راحت‌تر قابل تشخیص است. ولی این مورد برای دیپ ‌فیک‌های صوتی صدق نمی‌کند. ساخت آن‌ها ارزان است و تنها به چند ثانیه از صدای کسی نیاز دارد.

در ایالات متحده، مواردی گزارش شده که در آن مردم تماس‌های نگران ‌کننده‌ای از عزیزان خود دریافت کرده‌اند که می‌گفتند ربوده شده‌اند و برای آزادی خود درخواست پول می‌کردند.

مردم باید آگاه باشند که اکنون این چیزها وجود دارد  و ممکن است آنها را در موقعیتی بسیار استرس‌زا قرار دهند.

راه‌هایی برای محافظت از این خطرات وجود دارد. مثلا بین عزیزان یک کلمه امن محرمانه و به طور منظم تغییر کننده، توافق شود که می‌تواند به تأیید هویت شخص در طرف دیگر خط کمک کند.

 

دور زدن بررسی های هویتی : استفاده از دیپ ‌فیک‌ها برای دور زدن سیستم‌های تأیید هویت

خلافکاران از دیپ ‌فیک‌ها برای دور زدن سیستم‌های تأیید هویت “مشتری خود را بشناسید” نیز استفاده می‌کنند. بانک‌ها و صرافی‌های ارزهای دیجیتال از این سیستم‌ها برای تأیید اینکه مشتریان آن‌ها افراد واقعی هستند استفاده می‌کنند.

آن‌ها از کاربران جدید می‌خواهند در حالی که یک سند هویتی فیزیکی را در مقابل دوربین نگه داشته‌اند، یک از خودشان عکس بگیرند. اما خلافکاران شروع به فروش اپلیکیشن‌هایی در پلتفرم‌هایی مانند تلگرام کرده‌اند که به افراد اجازه می‌دهد این الزام را دور بزنند.

استفاده از دیپ ‌فیک‌ها برای تأیید هویت

این اپلیکیشن‌ها با ارائه یک شناسه جعلی یا دزدیده شده و اعمال تصویر دیپ ‌فیک بر روی صورت شخص واقعی، برای فریب دادن سیستم تأیید هویت در دوربین گوشی اندرویدی کار می‌کنند.

تکنیک‌هایی که استفاده می شود شبیه به فیلترهای اینستاگرام است که در آن صورت شخص دیگری جایگزین صورت شما می‌شود.مهندسان باید در آینده احراز هویت‌های پیچیده‌تری را پیاده سازی کنند.

خدمات جیلبریک  (jailbreak) : استفاده از جیلبریک  به عنوان یک خدمت توسط خلافکاران

اگر از اکثر سیستم‌های هوش مصنوعی بپرسید که چگونه یک بمب بسازید، پاسخی مفید دریافت نخواهید کرد. دلیل آن این است که شرکت‌های هوش مصنوعی تدابیر مختلفی برای جلوگیری از ارائه اطلاعات مضر یا خطرناک توسط مدل‌های خود اعمال کرده‌اند.

به جای ساخت مدل‌های هوش مصنوعی بدون این تدابیر، که پرهزینه، زمانبر و دشوار است، خلافکاران به یک روند جدید روی آورده‌اند: خدمات جیل ‌بریک.

بیشتر مدل‌های هوش مصنوعی قوانین خاصی در مورد نحوه استفاده از آن‌ها دارند. جیل ‌بریک کردن به کاربران اجازه می‌دهد سیستم هوش مصنوعی را برای تولید خروجی‌هایی که این قوانین را نقض می‌کنند، دستکاری کنند .

به عنوان مثال، نوشتن کد برای باج‌ افزار یا تولید متنی که می‌تواند در ایمیل‌های کلاه ‌برداری استفاده شود.خدماتی مانند EscapeGPT و BlackhatGPT دسترسی ناشناس به  API‌های مدل‌های زبانی و پیشنهادات جیل ‌بریک که به ‌طور مداوم به ‌روز می‌شوند را ارائه می‌دهند.

برای مقابله با این صنعت رو به رشد، شرکت‌های هوش مصنوعی مانند OpenAI و Google باید به طور مداوم حفره‌های امنیتی را که می‌توانند به سوءاستفاده از مدل‌های آن‌ها منجر شوند، پر کنند.

خدمات جیل ‌بریک از ترفندهای مختلفی برای شکستن مکانیسم‌های ایمنی استفاده می‌کنند، مانند پرسیدن سوالات فرضی یا پرسیدن سوالات به زبان‌های خارجی. بین شرکت‌های هوش مصنوعی که سعی در جلوگیری از بدرفتاری مدل‌های خود دارند و افراد بدخواهی که همواره پیشنهادات خلاقانه ‌تری برای جیل ‌بریک ارائه می‌دهند، یک بازی مداوم گربه و موش وجود دارد.

جیل‌ بریک یک خدمت فوق‌ العاده جالب برای خلافکاران است.

داکسینگ (Doxing) و نظارت : استفاده از مدل‌های زبانی هوش مصنوعی برای داکسینگ و نظارت

مدل‌های زبانی هوش مصنوعی نه تنها ابزار مناسبی برای فیشینگ بلکه برای Doxing (افشای اطلاعات خصوصی و شناسایی افراد به صورت آنلاین) هستند.

به این دلیل که مدل‌های زبانی هوش مصنوعی بر روی مقادیر زیادی از داده‌های اینترنتی، از جمله داده‌های شخصی، آموزش دیده‌اند و می‌توانند حدس بزنند که مثلاً کسی ممکن است کجا باشد.

به عنوان مثال، شما می‌توانید از یک چت‌ بات بخواهید که تظاهر کند یک کارآگاه خصوصی با تجربه در پروفایل ‌سازی است. سپس می‌توانید از آن بخواهید که متنی را که قربانی نوشته است تحلیل کند و از سرنخ‌های کوچک در آن متن اطلاعات شخصی را استنتاج کند .

به عنوان مثال، سن آن‌ها بر اساس زمانی که به دبیرستان رفتند، یا جایی که زندگی می‌کنند بر اساس نشانه‌هایی که در مسیر رفت و آمدشان ذکر کرده‌اند. هرچه اطلاعات بیشتری درباره آن‌ها در اینترنت وجود داشته باشد، آن‌ها بیشتر در معرض شناسایی قرار می‌گیرند.

تیمی از محققان اواخر سال گذشته کشف کردند که مدل‌های زبانی بزرگ، مانند  GPT-4، Llama 2 و Claude، قادر به استنتاج اطلاعات حساس مانند قومیت، محل و شغل افراد تنها از گفتگوهای معمولی با یک چت‌ بات هستند. در تئوری، هر کسی که به این مدل‌ها دسترسی داشته باشد می‌تواند از آن‌ها به این روش استفاده کند.

از زمان انتشار مقاله آن‌ها، خدمات جدیدی که از این ویژگی مدل‌های زبانی سوءاستفاده می‌کنند، ظهور کرده‌اند.

و اگر افراد عادی می‌توانند ابزارهای نظارتی مانند این بسازند، احتمالاً عوامل دولتی سیستم‌های بهتری دارند.

شرکت‌ها باید در حفاظت از داده‌ها و امنیت سرمایه‌ گذاری کنند و روی دفاع‌ها کار کنند.

افزایش آگاهی افراد ضروری است. مردم باید دوباره درباره آنچه آنلاین به اشتراک می‌گذارند فکر کنند و تصمیم بگیرند که آیا با استفاده از جزئیات شخصی‌ شان در مدل‌های زبانی راحت هستند یا نه.

 نتیجه ‌گیری

این موارد تنها بخشی از چالش‌های امنیتی ناشی از استفاده خلافکاران از هوش مصنوعی در فعالیت‌های غیرقانونی است. هوش مصنوعی مولد، ابزارهای قدرتمندی در اختیار خلافکاران قرار داده است.

آگاهی و احتیاط می‌تواند به محافظت از اطلاعات شخصی و جلوگیری از قربانی شدن کمک کند. شرکت‌ها نیز باید به طور مداوم بر روی امنیت داده‌ها و سیستم‌های خود سرمایه ‌گذاری کنند تا از سوء استفاده‌های احتمالی جلوگیری کنند.

ادغام بلاکچین و هوش مصنوعی در شبکه‌ها و سیستم‌های ارتباطی

ادغام بلاکچین و هوش مصنوعی در شبکه‌ها و سیستم‌های ارتباطی

ادغام فناوری‌ بلاکچین و هوش مصنوعی (AI) در شبکه‌ها و سیستم‌های ارتباطی یکی از روندهای نوآورانه و پیشرو در عصر دیجیتال است که می‌تواند تحولات عمیقی را در این حوزه ایجاد کند. شبکه‌های ارتباطی که ستون فقرات بسیاری از صنایع هستند، به طور روز افزونی نیازمند امنیت، کارایی و هوشمندی بیشتر هستند.

ادغام بلاکچین و هوش مصنوعی، با ترکیب ویژگی‌های امنیتی بلاکچین و توانایی تحلیل داده‌ها و یادگیری هوش مصنوعی، می‌توانند سطح جدیدی از امنیت، شفافیت و بهینه‌ سازی ترافیک داده را به شبکه‌های ارتباطی بیاورد.

بلاکچین با ساختار غیر متمرکز و توزیع ‌شده خود، به‌ عنوان یک راهکار برای افزایش امنیت و کاهش خطرات حملات سایبری شناخته می‌شود.

در مقابل، هوش مصنوعی با توانایی تحلیل سریع و خودکار داده‌ها، قابلیت پیش ‌بینی تهدیدات و بهینه ‌سازی ارتباطات را فراهم می‌آورد.

ادغام این دو فناوری به سازمان‌ها و سیستم‌های ارتباطی اجازه می‌دهد تا از هر دو مزیت استفاده کرده و بهبود‌های قابل توجهی در امنیت و مدیریت داده‌ها ایجاد کنند.

با افزایش نیاز به ارتباطات امن، ادغام هوش مصنوعی و بلاکچین می‌تواند به رفع چالش‌های امنیتی کمک کند. بلاکچین اعتماد و تغییر ناپذیری داده‌ها را تضمین می‌کند و هوش مصنوعی تحلیل‌های پیشرفته و پاسخ‌های خودکار به تهدیدات امنیتی ارائه می‌دهد.

در این مقاله، به بررسی کاربردهای عملی این ادغام در شبکه‌ها و سیستم‌های ارتباطی می‌پردازیم. همچنین مزایا و چالش‌های پیش ‌رو را بررسی می کنیم.

ادغام بلاکچین با هوش مصنوعی برای ارتباطات امن

ترکیب بلاکچین و هوش مصنوعی، ادغام بسیار مفیدی است که می‌تواند تقریباً هر بخش یا صنعتی را به طور کامل متحول کند. بلاکچین با ارائه دو لایه حفاظت در برابر دسترسی‌های غیرمجاز یا حملات هکری، امنیت بیشتری فراهم می‌آورد.

هوش مصنوعی می‌تواند بر روی داده‌ها و اعداد عظیم کار کرده و آنها را تحلیل کند تا الگوهایی در سوابق شناسایی کند. بلاکچین می‌تواند به حذف داده‌های مشکوک که ممکن است منجر به مشکلات امنیتی شود، کمک کند.

 به طور کلی، هوش مصنوعی می‌تواند بر روی داده‌های ذخیره شده در بلاکچین کار کند و الگوهایی را شناسایی کند که ممکن است نگرانی‌های امنیتی داشته باشند. بلاکچین اصالت این رکوردهای شناسایی شده را تأیید کرده و اقدامات اصلاحی لازم را انجام می‌دهد.

ادغام هوش مصنوعی و بلاکچین به رفع مسائل امنیتی مختلف کمک می‌کند. محرمانگی و یکپارچگی داده‌ها و اطلاعات از طریق ویژگی‌های ناشناس و توافق جمعی بلاکچین، و شناسایی پیشگیرانه حملات سایبری و حل خودکار مشکلات توسط هوش مصنوعی، تضمین می‌شود.

  • نگرانی‌هایی مانند فریب سیستم‌ها، حملات ورودی و فساد داده‌ها از طریق این ادغام برطرف می‌شود. زیرا اصالت داده‌ها از طریق الگوریتم‌ها قبل از تولید خروجی بررسی می‌شود.
  • دستکاری سیستم‌ها در این ادغام امکان ‌پذیر نیست. زیرا هیچ سرور مرکزی وجود ندارد. کل سیستم ارتباطی به صورت توزیع‌ شده در میان کاربران در مدل ادغام شده، عمل می‌کند.
  • ریسک یادگیری انتقال محدود است. زیرا مدل ادغام‌  شده بر روی مکانیزم‌های یادگیری در حال تحول عمل می‌کند و به منابع محدود گذشته وابسته نیست.
  • ریسک پنهان‌ کاری در مدل ادغام، مدیریت می‌شود. زیرا سیستم ارتباطی در برابر دستکاری مقاوم است و ناهنجاری‌ها نمی‌توانند در حضور الگوریتم‌های رمزنگاری پیشرفته ساخته شده در محیط ادغام، پنهان بمانند.
  • اعتماد کاربران به مرور زمان بازسازی خواهد شد زیرا محیط ادغام از اشتباهات خود یاد می‌گیرد و مشکلات آینده را پیش‌ بینی کرده و از تکرار مشکلات جلوگیری می‌کند.

مطالب مرتبط : کاربردهای بلاکچین

کاربردهای ادغام بلاکچین و هوش مصنوعی

تعدادی از کاربردهای مهم ادغام بلاکچین و هوش مصنوعی در در شبکه‌ها و سیستم‌های ارتباطی شامل موارد زیر می باشد که هکراه با مثال های کاربردی شرح داده شده است:

کاربردهای ادغام بلاکچین و هوش مصنوعی
  1. بهبود امنیت و حریم خصوصی در شبکه‌های ارتباطی

امنیت و حفظ حریم خصوصی یکی از بزرگترین چالش‌ها در شبکه‌های ارتباطی است. با رشد اینترنت اشیا (IoT)، شبکه‌های ۵G و سایر فناوری‌های ارتباطی، امنیت داده‌ها و حریم خصوصی کاربران بیش از هر زمان دیگری اهمیت پیدا کرده است.

 بلاکچین به عنوان یک فناوری غیر متمرکز و توزیع‌ شده می‌تواند نقش حیاتی در تامین امنیت شبکه‌ها داشته باشد. بلاکچین به دلیل رمزنگاری قوی و غیرقابل تغییر بودن داده‌ها  می‌تواند امنیت بیشتری برای شبکه‌های ارتباطی فراهم کند. با ثبت تراکنش‌ها و ارتباطات روی بلاکچین، امکان دستکاری یا هک اطلاعات از بین می‌رود.

 از سوی دیگر، هوش مصنوعی می‌تواند با شناسایی الگوهای مشکوکدر ترافیک شبکه و پیش‌ بینی حملات سایبری، یک لایه هوشمند از امنیت را به سیستم‌ها اضافه کند.

 برای مثال، در سیستم‌های ارتباطی ۵G، هوش مصنوعی می‌تواند تهدیدات امنیتی را در زمان واقعی شناسایی کرده و با استفاده از بلاکچین، احراز هویت امن کاربران را تضمین کند.

  1. مدیریت خودکار و بهینه ‌سازی شبکه

هوش مصنوعی می‌تواند نقش موثری در مدیریت خودکار شبکه‌ها داشته باشد. با استفاده از الگوریتم‌های AI، شبکه‌ها می‌توانند به طور مداوم بهینه‌ سازی شوند و به شکل هوشمندانه‌ای ترافیک را کنترل کنند. از سوی دیگر، بلاکچین می‌تواند  قابلیت اعتماد  و  شفافیت  در مدیریت شبکه‌ها را افزایش دهد.

برای مثال، بلاکچین می‌تواند به عنوان یک لایه شفاف برای تخصیص پهنای باند و مدیریت تراکنش‌های داده در شبکه‌های ارتباطی عمل کند.

پروژه‌هایی مانند Helium، که از بلاکچین برای ایجاد یک شبکه ارتباطی غیر متمرکز استفاده می‌کنند، نمونه‌ای از این ادغام هستند. در این پروژه، کاربران می‌توانند با به اشتراک گذاشتن پهنای باند خود و استفاده از AI برای بهینه ‌سازی ترافیک، از شبکه استفاده کنند و به آن پاداش دریافت کنند.

این مدل‌های جدید، امکان ایجاد شبکه‌های ارتباطی پایدار و مقیاس ‌پذیر را فراهم می‌آورند که به طور هوشمند و خودکار مدیریت می‌شوند.

  1. بهبود کیفیت سرویس (QoS) و کاهش تأخیر

شبکه‌های ارتباطی نیازمند آن هستند که با افزایش تقاضا برای داده‌ها و سرویس‌های جدید (مانند استریم ویدئو، بازی‌های آنلاین و ارتباطات ویدیویی)، کیفیت خدمات خود را حفظ کنند. ترکیب هوش مصنوعی و بلاکچین می‌تواند به بهبود کیفیت سرویس (QoS) و کاهش تأخیر در شبکه‌های ارتباطی کمک کند.

هوش مصنوعی می‌تواند به تحلیل real-time ترافیک شبکه پرداخته و پیش ‌بینی نیازهای آینده را انجام دهد، در حالی که بلاکچین می‌تواند مدیریت قراردادهای کیفیت سرویس را انجام دهد.

 با استفاده از قراردادهای هوشمند، شبکه‌ها می‌توانند تضمین کنند که کاربران مطابق با توافق ‌نامه‌های QoS، پهنای باند مناسب دریافت می‌کنند.

 به عنوان مثال، در یک شبکه ۵G، الگوریتم‌های هوش مصنوعی می‌توانند به طور پیش‌ فرض ترافیک را بهینه کنند تا تأخیر کمینه شود و قراردادهای هوشمند بر اساس توافقنامه‌ها، کیفیت خدمات تضمین شده‌ای را ارائه دهند.

  1. امنیت و مدیریت در اینترنت اشیا (IoT)

اینترنت اشیا (IoT) یکی از فناوری‌هایی است که به شدت به امنیت و اعتماد وابسته است. میلیون‌ها دستگاه IoT به شبکه‌های ارتباطی متصل هستند و اطلاعات حساس کاربران را جمع‌ آوری و منتقل می‌کنند.

 این دستگاه‌ها اغلب هدف حملات سایبری قرار می‌گیرند و به راحتی می‌توانند به دروازه‌های ورودی برای هکرها تبدیل شوند. ادغام بلاکچین و هوش مصنوعی می‌تواند امنیت و مدیریت بهتری برای دستگاه‌های IoT در شبکه‌های ارتباطی فراهم کند.

بلاکچین می‌تواند با ثبت تراکنش‌های دستگاه‌های IoT و تضمین اینکه هیچ ‌کدام از این تراکنش‌ها دستکاری نمی‌شوند، امنیت بالاتری ارائه دهد.

همچنین، هوش مصنوعی می‌تواند با پایش رفتار دستگاه‌ها و شناسایی الگوهای غیرعادی، حملات احتمالی را در مراحل ابتدایی شناسایی کند.

برای مثال، در یک خانه هوشمند، سیستم AI می‌تواند رفتار دستگاه‌های متصل را بررسی کند و در صورت بروز هرگونه فعالیت مشکوک، با استفاده از بلاکچین به صورت خودکار دستگاه‌ها را از شبکه قطع کند.

  1. بهبود شبکه‌های غیر متمرکز

بلاکچین به عنوان یک فناوری غیر متمرکز می‌تواند ساختار سنتی متمرکز شبکه‌های ارتباطی را به چالش بکشد. با استفاده از بلاکچین، می‌توان شبکه‌های غیر متمرکز ارتباطی را ایجاد کرد که نیازی به واسطه‌های متمرکز ندارند. این شبکه‌ها می‌توانند با کمک هوش مصنوعی به طور خودکار مدیریت و بهینه ‌سازی شوند.

برای مثال، در یک شبکه مش (Mesh Network) که بر بستر بلاکچین ساخته شده، کاربران می‌توانند به صورت مستقیم به یکدیگر متصل شوند و داده‌ها را به اشتراک بگذارند. هوش مصنوعی می‌تواند بهینه‌ ترین مسیرها برای انتقال داده‌ها را پیدا کرده و ترافیک شبکه را مدیریت کند.

این نوع شبکه‌ها می‌توانند در مناطقی که زیرساخت‌های ارتباطی ضعیفی دارند، کارآمد باشند و دسترسی به اینترنت و ارتباطات را بهبود بخشند.

  1. ارتباطات بین ماشین‌ها (M2M) و بلاکچین

ارتباطات بین ماشین‌ها (M2M) یکی از جنبه‌های کلیدی در فناوری‌های پیشرفته است. ماشین‌ها به طور فزاینده‌ای در حال ارتباط با یکدیگر و تبادل اطلاعات هستند و این ارتباطات نیازمند مدیریت هوشمند و امنیت بالا است. ادغام بلاکچین و هوش مصنوعی می‌تواند به بهبود M2M کمک کند.

بلاکچین می‌تواند به عنوان یک لایه ثبت و تایید برای تعاملات بین ماشین‌ها عمل کند، به طوری که هر تراکنش بین ماشین‌ها به صورت غیرقابل تغییر ثبت شود. از سوی دیگر، هوش مصنوعی می‌تواند ارتباطات را بهینه ‌سازی کرده و رفتار ماشین‌ها را بر اساس داده‌های ورودی تنظیم کند.

 این امر می‌تواند به بهبود کارایی و کاهش هزینه‌های عملیاتی در صنایعی مانند خودرو سازی، انرژی و حمل و نقل منجر شود.

    مزایای ادغام بلاکچین و هوش مصنوعی

    یکی از مثال‌های ادغام بلاکچین و هوش مصنوعی، پلتفرم FINALIZE است. این پلتفرم در پروژه‌های مربوط به زیرساخت‌ها استفاده می‌شود و مزایای اتوماسیون در فعالیت‌های مختلف از جمله مقررات ایمنی، تأیید و بهبود فرآیندها را فراهم می‌کند.

    دستیابی به ادغام بلاکچین و هوش مصنوعی در تمام بخش‌ها کار آسانی نیست و نیازمند تلاش‌های زیادی برای پیاده ‌سازی موفقیت‌ آمیز است. برخی از مزایای ادغام عبارتند از:

    1. افزایش امنیت : بلاکچین با تأمین امنیت داده‌ها و هوش مصنوعی با تحلیل رفتارهای مشکوک، شبکه را در برابر تهدیدات سایبری مقاوم‌تر می‌سازند.
    2. افزایش کارایی: هوش مصنوعی می‌تواند بسیاری از کارهایی که توسط ماینرها انجام می‌شود را انجام دهد و در نتیجه هزینه‌های استخراج را کاهش دهد. هوش مصنوعی می‌تواند با تحلیل تراکنش‌های بلاکچین به بهینه‌سازی فرآیندهای ارتباطی و کاهش ترافیک شبکه کمک کند.
    3. افزایش اعتماد و حریم خصوصی : حریم خصوصی یکی از الزامات اصلی در مدیریت داده‌های محرمانه است. هوش مصنوعی حریم خصوصی را در شبکه بلاکچین تقویت کرده و حفظ حریم کاربران را در اولویت قرار می‌دهد. کاربران می‌توانند گزارش‌ها را پیگیری کرده و از نحوه تفکر سیستم آگاه شوند که این موضوع باعث افزایش قابلیت اطمینان می‌شود.
    4. ذخیره ‌سازی موثر: ذخیره ‌سازی در شبکه‌های بلاکچین در ادغام با هوش مصنوعی مؤثرتر می‌شود. ابزارهای هوش مصنوعی مجموعه‌های داده را بهینه کرده و کارایی ذخیره ‌سازی داده‌های بزرگ را افزایش می‌دهد.
    5. افزایش توان محاسباتی و مدیریت انرژی: توان محاسباتی به طور قابل توجهی افزایش می‌یابد. دانش حاصل از هوش مصنوعی توان محاسباتی را در محیط بلاکچین تسریع می‌کند. در نتیجه استفاده بهینه از منابع تضمین می شود.
    6. شناسایی فرصت‌های جدید: هوش مصنوعی می‌تواند بر روی داده‌های متنوع بلاکچین عمل کرده و قابلیت‌های بیشتری به بلاکچین اضافه کند. همچنین به شناسایی فرصت‌های جدید در داده‌های بلاکچین کمک می کند.
    7. تصمیم ‌گیری هوشمندانه: با ترکیب داده‌های شفاف بلاکچین و الگوریتم‌های یادگیری هوش مصنوعی، سیستم‌ها می‌توانند تصمیمات بهتری برای بهینه ‌سازی عملکرد خود بگیرند.
    8. اتوماسیون: بسیاری از فعالیت‌ها به طور خودکار انجام می‌شود و نیاز به دخالت انسانی کاهش می‌یابد. این ویژگی کارایی را افزایش داده، خطا را کاهش داده و فرآیندها را تسریع می‌کند.
    9. اصالت و شفافیت: صحت رکوردها و داده‌های ثبت شده، به دلیل بررسی‌های دقیق هوش مصنوعی، در بلاکچین تضمین می‌شود. تمامی رکوردها با زمان ‌سنجی در دسترس هستند که باعث افزایش شفافیت سیستم‌ها می‌شود. این ویژگی باعث افزایش اعتبار سیستم‌ها می‌شود.
    10. عدالت: هوش مصنوعی تضمین می‌کند که تمامی طرف‌های مرتبط با بلاکچین به طور عادلانه پاداش دریافت کنند و از حقوق کاربران محافظت می‌شود.
    مزایا و چالش های ادغام بلاکچین و هوش مصنوعی

    چالش‌های ادغام بلاکچین و هوش مصنوعی

    ادغام بلاکچین و هوش مصنوعی با وجود مزایای بسیار، با چالش‌هایی نیز روبرو است:

    1. صحت و کیفیت داده‌های ورودی: هماهنگی سیستم‌های اطلاعاتی مختلف با بلاکچین و هوش مصنوعی دشوار است و کیفیت داده‌ها باید بالا باشد تا تحلیل‌های هوش مصنوعی مؤثر واقع شود.
    2. پیچیدگی‌ فناوری: هر دو فناوری پیچیده‌اند و درک و پیاده ‌سازی آن‌ها نیاز به زمان و منابع زیادی دارد. پیاده ‌سازی فناوری‌های جدید می‌تواند چالش‌هایی ایجاد کند.
    3. چالش مقیاس ‌پذیری: ویژگی توافق در بلاکچین، ممکن است باعث کندی فرآیندها و نیاز به ذخیره ‌سازی زیاد داده‌ها شود. این مساله می‌تواند چالش‌های مقیاس ‌پذیری ایجاد کند.
    4. نبود استانداردها: عدم وجود استانداردهای جهانی برای بلاکچین و هوش مصنوعی ممکن است نتیجه بهینه را نداشته باشد و نیاز به توسعه استانداردهای جدید وجود دارد.
    5. انتقال یادگیری: انتقال نتایج ادغام به ماشین‌های دیگر و ایجاد پروتکل‌های جدید برای یادگیری هموار، نیاز به تلاش دارد و می‌تواند زمان‌ بر باشد.

    مسیر آینده در زمینه ادغام هوش مصنوعی و بلاکچین

    ادغام بلاکچین و هوش مصنوعی در شبکه‌ها و سیستم‌های ارتباطی، زمینه‌ ساز تحولات شگرفی در این حوزه‌ها است. این ترکیب می‌تواند امنیت، اعتماد، کارایی و کیفیت خدمات را بهبود بخشد و امکان ایجاد شبکه‌های غیرمتمرکز و هوشمند را فراهم کند.

    با توجه به پیشرفت‌های روزافزون در هر دو فناوری، پیش ‌بینی می‌شود که در آینده‌ای نزدیک شاهد کاربردهای بیشتری از این ادغام در صنایع مختلف باشیم، از جمله ارتباطات موبایل، اینترنت اشیا و مدیریت شبکه‌های کلان.

    هالوسیناسیون هوش مصنوعی چیست؟

    هالوسیناسیون هوش مصنوعی چیست؟

    هالوسیناسیون هوش مصنوعی (AI Hallucination)  یا توهم هوش مصنوعی به اشتباهات یا توهمی گفته می‌شود که مدل‌های هوش مصنوعی می‌توانند در هنگام تولید پاسخ‌هایشان داشته باشند. هالوسیناسیون معمولاً به دلیل مشکلات در داده‌های آموزشی، محدودیت‌های مدل، یا پیچیدگی‌هایی که مدل نمی‌تواند به درستی پردازش کند، به وجود می‌آید.

    توهم هوش مصنوعی یکی از مفاهیم پیشرفته و پرچالش در زمینه هوش مصنوعی است که در سال‌های اخیر به عنوان یک حوزه تحقیقاتی مورد توجه قرار گرفته است.

    این توهم به این دلیل رخ می‌دهند که LLMها، مانند ChatGPT یا Google Bard، درک واقعی از محتوای تولیدی خود ندارند. آن‌ها بر اساس الگوهای آماری آموزش دیده‌اند تا متنی را تولید کنند که به نظر منسجم و معقول بیاید. آنها تنها بر اساس احتمال پیش ‌بینی می‌کنند که کلمه بعدی چه خواهد بود.

    توهم هوش مصنوعی علاوه بر متن در سیستم‌های شناسایی و تولید تصویر هوش مصنوعی نیز رخ می دهد. این مشکل برای هر سازمان و فردی که از هوش مصنوعی مولد برای به‌دست‌آوردن اطلاعات و انجام کارها به طور دقیق استفاده می‌کند، اهمیت دارد.

    اگر مایلید در مورد توهم در مدلهای زبانی بزرگ (LLMs) بیشتر بدانید، پیشنهاد می کنم مطلب زیر را مطالعه بفرمائید:

    توهم مدل های زبانی بزرگ (Hallucination) – چالش‌ مهم در توسعه LLMs

    چه عواملی باعث توهم هوش مصنوعی می‌شوند؟

    مدل‌های هوش مصنوعی بر اساس داده‌ها آموزش می‌بینند و با یافتن الگوهای موجود در داده‌ها، پیش ‌بینی می‌کنند. با این حال، دقت این پیش ‌بینی‌ها اغلب به کیفیت و کامل بودن داده‌های آموزشی بستگی دارد.

     اگر داده‌های آموزشی دارای نقص‌هایی باشند، مدل هوش مصنوعی ممکن است الگوهای نادرستی یاد بگیرد که منجر به پیش ‌بینی‌های نادرست یا توهم می‌شود.

    چندین عامل می‌تواند به هالوسیناسیون هوش مصنوعی منجر شود:

    علل توهم هوش مصنوعی
    1. کیفیت داده‌های آموزشی: اگر داده‌های آموزشی حاوی خطا، تعصبات یا ناسازگاری‌ باشند، ممکن است مدل خروجی‌های نادرستی تولید کند. برای مثال، اگر LLM بر روی اطلاعات نادرست یا گمراه‌کننده آموزش دیده باشد، پاسخ‌های آن ممکن است این نادرستی‌ها را منعکس کند.
    2. روش تولید: نحوه تولید متن توسط LLMها می‌تواند منجر به هالوسیناسیون شود. این مدل‌ها از روش‌های احتمالاتی برای پیش ‌بینی آنچه که در جمله بعدی می‌آید استفاده می‌کنند. این روش می‌تواند منجر به اختراع جزئیات یا تولید جملات متناقض شود.
    3. ورودی نادرست: اگر ورودی نامشخص یا متناقض باشد، ممکن است AI پاسخ‌هایی تولید کند که بی‌معنی یا نادرست است. ارائه ورودی‌های واضح و مشخص می‌تواند به هدایت مدل به سمت خروجی‌های دقیق‌تر کمک کند.
    4. محدودیت‌های مدل: فرآیند تصمیم‌ گیری داخلی LLMها همیشه شفاف نیست. این عدم وضوح باعث می‌شود که شناسایی دلیل تولید توهم دشوار باشد.

    مثال‌هایی از هالوسیناسیون هوش مصنوعی

    توهم هوش مصنوعی می‌توانند اشکال مختلفی به خود بگیرند. برخی از نمونه‌های رایج عبارتند از:

    • ادعاهای نادرست: به عنوان مثال، Google Bard به اشتباه بیان کرد که تلسکوپ فضایی جیمز وب اولین تصاویر از یک سیاره خارج از منظومه شمسی را گرفته است. در حالی که این تصاویر در سال ۲۰۰۴ گرفته شده‌اند و تلسکوپ جیمز وب در سال ۲۰۲۱ به فضا پرتاب شده است.
    • مراجع نادرست: Galactica از Meta، که برای استفاده‌های علمی طراحی شده بود، به اشتباه مقاله‌ای غیرواقعی را در هنگام تدوین محتوا ذکر کرد، که به تولید مراجع علمی ساختگی منجر شد.
    • تناقضات: LLMها ممکن است جملات متناقضی را در یک پاسخ تولید کنند. برای مثال، توصیف منظره‌ای که رنگ چمن در آن به‌طور نامنظم تغییر می‌کند.
    • اطلاعات نامربوط: گاهی اوقات، LLMها ممکن است اطلاعاتی غیرمرتبط با موضوع درخواست تولید کنند، مانند ذکر جزئیات مراقبت از حیوانات خانگی در پاسخ به توصیف یک شهر.
    • پیش ‌بینی‌های نادرست: مدلی ممکن است پیش ‌بینی کند که یک رویداد رخ خواهد داد در حالی که احتمال وقوع آن بسیار کم است. به عنوان مثال، مدلی که برای پیش ‌بینی وضعیت آب و هوا استفاده می‌شود، ممکن است پیش ‌بینی کند که فردا باران خواهد بارید در حالی که در پیش ‌بینی‌ها هیچ بارانی وجود ندارد.
    • مثبت‌های کاذب: ممکن است مدل هوش مصنوعی چیزی را به عنوان تهدید شناسایی کند در حالی که اینگونه نیست. به عنوان مثال، مدلی که برای تشخیص تقلب استفاده می‌شود، ممکن است تراکنشی را به‌ اشتباه تقلبی شناسایی کند.
    • منفی‌های کاذب: مدلی ممکن است نتواند چیزی را به عنوان تهدید شناسایی کند در حالی که چنین تهدیدی وجود دارد. به عنوان مثال، مدلی که برای تشخیص سرطان استفاده می‌شود، ممکن است نتواند تومور سرطانی را شناسایی کند.

    چرا هالوسیناسیون مشکل ‌ساز هستند؟

    هالوسیناسیون هوش مصنوعی می‌تواند حجم زیادی از محتوای نادرست را در مدت زمان کوتاهی تولید کند، و این منجر به مشکلات زیر می شود:

    1. اعتماد کاربران: توهم می‌توانند اعتماد به سیستم‌های هوش مصنوعی را کاهش دهند، به ویژه اگر کاربران به این سیستم‌ها برای اطلاعات دقیق وابسته شوند.
    2. گسترش اطلاعات نادرست: اطلاعات نادرست یا جعلی می‌تواند به سرعت منتشر شود و به گسترش اطلاعات نادرست منجر شود. این می‌تواند عواقب جدی در زمینه‌هایی مانند بهداشت عمومی، آموزش و رسانه‌ها داشته باشد.
    3. چالش‌های شناسایی: شناسایی و اصلاح هالوسیناسیون می‌تواند دشوار باشد. کاربران ممکن است نتوانند همیشه اطلاعات نادرست را شناسایی کنند، به ویژه اگر به نظر معقول بیاید یا در مورد موضوعات پیچیده باشد.

    چگونه از توهم هوش مصنوعی جلوگیری کنیم؟

    پیشگامان حوزه هوش مصنوعی مولد در حال کار بر روی حل مشکل هالوسیناسیون هوش مصنوعی هستند.

    گوگل Gemini را به اینترنت متصل کرده است تا پاسخ‌های آن مبتنی بر داده‌های آموزشی و اطلاعاتی که در وب پیدا کرده است، باشد.

     OpenAI تلاش کرده است تا ChatGPT را با بازخورد از تست‌کنندگان انسانی بهبود بخشد و از تکنیک یادگیری تقویتی استفاده کرده است.

    این شرکت همچنین یک استراتژی جدید برای پاداش دادن به مدل‌ها پیشنهاد کرده است . در این استراتژی مدل به جای پاداش نهایی، برای هر گام صحیح دراستدلال، پاداش دریافت می کند. این رویکرد “نظارت بر فرآیند” نامیده می‌شود و می‌تواند منجر به نتایج قابل توضیح‌تری شود.

     اما برخی از کارشناسان مطمئن نیستند که آیا این می‌تواند راه موثری برای مبارزه با جعل باشد یا خیر.

    مدل‌های هوش مصنوعی تولیدی “همیشه در حال توهم هستند و چیزهایی را اختراع می‌کنند.

    بنابراین، حذف احتمال تولید اطلاعات نادرست از توهم هوش مصنوعی می‌تواند دشوار باشد. اما برخی اقدامات وجود دارد که هم شرکت‌ها و هم کاربران می‌توانند برای مقابله و محدود کردن آسیب آنها انجام دهند.

    روشهای مقابله با هالوسیناسیون

    برای جلوگیری از هالوسیناسیون می‌توان اقداماتی انجام داد، از جمله:

    • ورودی‌های دقیق: ارائه ورودی‌های خاص و با تعریف دقیق می‌تواند به کاهش احتمال تولید اطلاعات نادرست کمک کند.
    • بهبود کیفیت و تنوع داده‌ها: اطمینان از اینکه داده‌های آموزشی دقیق، کاربردی و به‌روز هستند، می‌تواند ریسک توهم را کاهش دهد.
    • تنظیم پارامترها: تنظیم پارامترهایی مانند دما (که تصادفی بودن خروجی‌ها را کنترل می‌کند) می‌تواند به کاهش تولید پاسخ‌های نامربوط کمک کند.
    • بررسی درستی نتایج: کاربران باید محتوای تولید شده توسط AI را بررسی کنند، به ویژه برای موضوعات مهم یا ناآشنا، تا از دقت آن مطمئن شوند.
    • استفاده از روش‌های تفسیرپذیر: توسعه مدل‌های تفسیرپذیر که بتوان به کمک آنها علت تولید هر خروجی را توضیح داد، می‌تواند به شناسایی و تصحیح خطاها کمک کند.
    • توسعه الگوریتم‌های مقاوم‌تر: پژوهش در زمینه توسعه الگوریتم‌هایی که در مقابل داده‌های نادرست یا حملات مقاوم‌تر باشند.

    حتی با وجود این کنترل‌ها ، در نهایت بر عهده کاربر است که پاسخ‌های تولید شده توسط مدل را بررسی کند. این مطمئن‌ترین روش برای شناسایی هالوسیناسیون هوش مصنوعی است.

    بنابراین، کسی که از هوش مصنوعی برای نوشتن کد، انجام تحقیق یا تهیه یک ایمیل استفاده می کند، باید همیشه محتوای تولید شده را قبل از استفاده یا به اشتراک‌گذاری بررسی کند.

     نتیجه ‌گیری

    توهم هوش مصنوعی یکی از چالش‌های مهم در زمینه توسعه و کاربرد هوش مصنوعی است. با وجود پیشرفت‌های چشمگیر در این حوزه، هنوز هم نیاز به تحقیقات و تلاش‌های بیشتری برای مقابله با این مشکل وجود دارد.

     با بهبود کیفیت داده‌ها، توسعه مدل‌های تفسیرپذیر و استفاده از روش‌های آزمون و ارزیابی دقیق، می‌توان از وقوع هالوسیناسیون هوش مصنوعی جلوگیری کرد و اطمینان حاصل کرد که این فناوری با دقت و صحت بیشتری به کار گرفته می‌شود.

    توهم مدل های زبانی بزرگ (Hallucination)

    توهم مدل های زبانی بزرگ (Hallucination)

    توهم مدل‌های زبانی بزرگ (Hallucination) یکی از چالش‌های مهم در توسعه و استفاده از این مدل‌ها است. این پدیده زمانی رخ می‌دهد که مدل‌های زبانی اطلاعات نادرست، غیرواقعی یا بی‌اساس تولید می‌کنند. با وجود پیشرفت‌های چشمگیر در حوزه هوش مصنوعی و به‌ویژه مدل‌های زبانی بزرگ مانند GPT-4، توهم LLMs نشان‌دهنده محدودیت‌هایی است که هنوز در زمینه درک و تولید زبان طبیعی وجود دارد.

    مشکل توهم مدل‌های زبانی بزرگ (Hallucination) به علت گرایش این مدل ها به ساختن است. مدل‌های زبانی بزرگ به قدری در کار خود خوب هستند که معمولاً نتایج آنها درست به نظر می‌رسد و این اعتماد به آن‌ها را سخت می‌کند.

    این گرایش به ساختن چیزها که به عنوان توهم شناخته می‌شود، یکی از بزرگترین موانع پیشرفت چت‌بات‌ها و استفاده گسترده‌تر از آن‌ها است. چرا توهم LLMs اتفاق می‌افتد؟ و چرا نمی‌توانیم آن را برطرف کنیم؟

    اگر مایلید در مورد توهم هوش مصنوعی یا هالوسیناسیون بیشتر بدانید، پیشنهاد می کنم مطلب زیر را مطالعه بفرمائید:

    هالوسیناسیون هوش مصنوعی چیست؟ – علل توهم هوش مصنوعی چیست؟ 

    چرا توهم مدل های زبانی اتفاق می افتد؟

    برای درک اینکه چرا توهم مدل‌های زبانی بزرگ ایجاد می شود، باید ببینیم که چگونه کار می‌کنند. اولین نکته‌ای که باید توجه داشت این است که مدل‌ها طراحی شده‌اند تا چیزهایی را بسازند. وقتی از یک چت‌بات سوالی می‌پرسید، از مدل زبانی بزرگی که آن را پشتیبانی می‌کند، پاسخ خود را  می‌گیرد. اما این شبیه به جستجوی اطلاعات در یک پایگاه داده یا استفاده از موتور جستجو در وب نیست.

    اگر به یک مدل زبانی بزرگ نگاهی بیندازید، اطلاعات آماده‌ای برای بازیابی نمی‌بینید. در عوض، میلیاردها و میلیاردها عدد پیدا می‌کنید. این مدل ها ، از این اعداد برای محاسبه پاسخ‌های خود از ابتدا استفاده می‌کند و به صورت لحظه‌ای توالی‌های جدیدی از کلمات تولید می‌کند.

    بسیاری از متونی که یک مدل زبانی بزرگ تولید می‌کند، به نظر می‌رسد که از یک پایگاه داده یا یک صفحه وب واقعی کپی شده است. اما همانند بیشتر آثار داستانی، این شباهت‌ها تصادفی هستند. یک مدل زبانی بزرگ بیشتر شبیه به یک توپ جادویی ∞ بی‌نهایت است تا یک دانشنامه.

     

    پیش‌بینی کلمات بعدی در مدل های زبانی بزرگ(LLMs)

    مدل‌های زبانی بزرگ متن‌ها را با پیش‌بینی کلمه بعدی در یک توالی تولید می‌کنند. اگر مدلی “the cat sat” را ببیند، ممکن است “on” را حدس بزند. آن توالی جدید دوباره به مدل داده می‌شود که ممکن است اکنون “the” را حدس بزند. دوباره این کار را تکرار کنید و ممکن است “mat” را حدس بزند و همینطور ادامه می‌دهد.

    این یک ترفند کافی است تا تقریباً هر نوع متنی را که می‌توانید به آن فکر کنید، از لیست‌های آمازون گرفته تا داستان‌های پر طرفدار، کدهای کامپیوتری و مقالات مجله ها و بسیاری موارد دیگر تولید کند. آندری کارپاتی، دانشمند کامپیوتر و یکی از بنیان‌گذاران  OpenAI، می گوید: “مدل‌های زبانی بزرگ یاد می‌گیرند که اسناد اینترنتی را در رویا ببینند”.

    فکر کنید که میلیاردها عدد درون یک مدل زبانی بزرگ مانند یک صفحه گسترده وسیع است که احتمال آماری ظاهر شدن کلمات خاصی در کنار کلمات دیگر را ثبت می‌کند.  وقتی مدل آموزش داده شد، مقادیر در صفحه گسترده تنظیم می‌شوند.

    فرآیندی این مقادیر را بارها و بارها تنظیم می‌کند تا حدس‌های مدل، با الگوهای زبانی که در ترابایت‌ها متن گرفته شده از اینترنت یافت می‌شوند، مطابقت داشته باشد.برای حدس زدن یک کلمه، مدل به سادگی اعداد خود را اجرا می‌کند.

    امتیازی برای هر کلمه در واژگان خود محاسبه می‌کند که نشان می‌دهد چقدر احتمال دارد آن کلمه بعدی در توالی جاری باشد. کلمه‌ای که بهترین امتیاز را داشته باشد، برنده می‌شود. به طور خلاصه، مدل‌های زبانی بزرگ ماشین‌های آلات آماری هستند. دسته را بچرخانید و یک کلمه بیرون می‌آید.

    LLMs Method

    همه چیز  LLM توهم است

    نکته اصلی چیست؟ به طور کلی همه چیز توهم است، اما ما فقط وقتی آن را توهم می‌نامیم که متوجه می‌شویم اشتباه است. آیا می‌توانیم آنچه مدل‌های زبانی بزرگ تولید می‌کنند را کنترل کنیم تا متنی تولید کنند که به طور قطعی صحیح باشد؟ این مدل‌ها آنقدر پیچیده هستند که اعداد آن‌ها را نمی‌توان به صورت دستی دستکاری کرد. اما برخی محققان معتقدند که آموزش آن‌ها بر روی متن‌های بیشتر به کاهش نرخ خطای آن‌ها کمک خواهد کرد. این روندی است که منجر به بزرگتر و بهتر شدن مدل‌های زبانی می شود.

    درخواست از مدل‌ها برای بررسی کار خود به صورت مرحله به مرحله، رویکرد دیگری است که به عنوان زنجیره‌ای از تفکر شناخته می‌شود. تحقیقات نشان داده که این روش دقت خروجی یک چت‌بات را افزایش می‌دهد. در آینده ممکن است مدل‌های زبانی بزرگ بتوانند متن‌هایی که تولید می‌کنند را بررسی کرده و وقتی شروع به منحرف شدن می‌کنند، به عقب برگردند.

    اما هیچ ‌یک از این تکنیک‌ها به طور کامل توهمات را متوقف نخواهد کرد. تا زمانی که مدل‌های زبانی بزرگ احتمالاتی باشند، در تولید آن‌ها عنصری از شانس وجود دارد. اگر ۱۰۰ تاس را بیندازید هر باریک الگوی متفاوت خواهید داشت.

     حتی اگر تاس‌ها، مانند مدل‌های زبانی بزرگ، طوری وزن شده باشند که برخی الگوها بسیار بیشتر از دیگران تولید شوند، نتایج همچنان هر بار یکسان نخواهند بود. وقتی در نظر بگیرید که این فناوری چند بار در روز استفاده می‌شود، حتی یک خطا در ۱,۰۰۰ یا ۱۰۰,۰۰۰، به تعداد زیادی خطا می‌انجامد.

    هرچه این مدل‌ها دقیق‌تر شوند، بیشتر اعتماد ما را جلب خواهند کرد. مطالعات نشان می‌دهند هرچه چت‌بات‌ها بهتر شوند، زمانی که یک خطا اتفاق می‌افتد، بیشتر احتمال دارد افراد آن را نادیده بگیرند.

    نمونه هایی از توهم مدل های زبانی  بزرگ

    چت‌بات جدید سازمان بهداشت جهانی برای ارائه بهترین خدمات در تاریخ ۲ آوریل راه‌اندازی شد.

    آواتار مجازی جدید با پشتیبانی از GPT-3.5 به نام SARA  (Smart AI Resource Assistant for Health) به صورت ۲۴ ساعته و در هشت زبان مختلف نکات بهداشتی درباره نحوه تغذیه مناسب، ترک سیگار، کاهش استرس و موارد دیگر را به میلیون‌ها نفر در سراسر جهان ارائه می‌دهد.

    اما مانند همه چت‌بات‌ها، SARA نیز می‌تواند در پاسخ‌های خود اشتباه کند. به زودی مشخص شد که اطلاعات نادرستی ارائه می‌دهد. در یک مورد، لیستی از نام‌ها و آدرس‌های جعلی برای کلینیک‌های غیرواقعی در سان‌فرانسیسکو ارائه کرد. سازمان بهداشت جهانی در وب‌سایت خود هشدار می‌دهد که SARA همیشه دقیق نیست.

    این اتفاق دوباره تکرار شد. اشتباهات چت‌بات‌ها اکنون به یک معضل جدی تبدیل  شده است. چت‌بات علمی Meta با نام Galactica که مدت کوتاهی فعال بود، مقالات علمی جعلی ساخت و در ویکی‌ پدیا درباره “تاریخ خرس‌ها در فضا” مقاله تولید کرد. در ماه فوریه، کانادا مجبور شد سیاست بازپرداختی، که توسط چت‌بات خدمات مشتریانش اختراع شده بود را رعایت کند.

     سال گذشته، یک وکیل به دلیل ارائه اسناد جعلی به دادگاه جریمه شد. این اسناد توسط ChatGPT ساخته شده بودند و پر از نظرات قضایی و ارجاعات قانونی جعلی بود. وکیل به قاضی گفته بود: “من درباره این سایت جدید شنیده بودم و به اشتباه تصور می کردم شبیه یک موتور جستجوی فوق ‌العاده است. نمی دانستم که ChatGPT می‌تواند مواردی را ابداع کند.”

     

    برای کاهش اثرات منفی توهم مدل‌های زبانی بزرگ (Hallucination)، محققان به‌دنبال روش‌های بهبود الگوریتم‌های آموزشی، ارزیابی‌های انسانی و استفاده از منابع معتبر هستند.

    شاید بهترین راه ‌حل برای جلوگیری از توهم LLMs، مدیریت انتظارات ما درباره موارد استفاده این ابزارها، باشد.

    مدل های مولد یا Generative Models

    مدل های مولد یا Generative Models

    مدل‌ های مولد یا Generative Models  نوعی مدل هوش مصنوعی هستند که داده‌های جدیدی را از داده‌های موجود تولید می‌کنند. مدل‌ های Generative در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه‌ ها هستند. وظیفه اصلی مدل‌ های مولد درک الگوها از یک مجموعه داده است. هنگامی که این الگوها آموخته شدند، مدل مولد می‌تواند داده‌های جدیدی تولید کند که ویژگی‌های مشابهی با مجموعه داده اصلی دارد. Generative Models برای تولید محتوای خلاقانه در حوزه‌های مختلف از هنر تا علم، کاربردهای گسترده‌ای دارند. 

    مدل های مولد چگونه کار می کنند؟

    مدل های یادگیری ماشین معمولی، بر روی دسته بندی نقاط داده ای تمرکز دارند و سعی می کنند رابطه بین عوامل شناخته شده و ناشناخته را تعیین کنند. به عنوان مثال، مدل های معمولی به تصاویر نگاه می کنند – داده های شناخته شده مانند ترتیب پیکسل، خط، رنگ و شکل – را به کلمات – عامل ناشناخته – نگاشت می کنند. از لحاظ ریاضی، مدل ها با شناسایی معادلاتی که می توانند عوامل ناشناخته و شناخته شده را به عنوان متغیرهای x و y به صورت عددی نگاشت کنند، کار می کردند.

    مدل های AI

    یک رویکرد نسبتاً جدید در حوزه یادگیری عمیق (Deep Learning) ، برای مدل‌سازی فرایندهای تصادفی و پویا مورد استفاده قرار می‌گیرد. مدل‌های مولد از اصول حرکت مولکول‌ها و پخش و انتقال گرما در فیزیک مشتق گرفته‌ شده اند.

    مدل های هوش مصنوعی مولد یک قدم فراتر می روند. به جای پیش بینی یک برچسب بر اساس برخی از ویژگی ها، سعی می کنند ویژگی های داده شده با برچسب خاصی را پیش بینی کنند. از لحاظ ریاضی، مدل Generative  احتمال رخ دادن همزمان x  و y را محاسبه می کند. این مدل ها توزیع ویژگی های مختلف داده ها و روابط آنها را یاد می گیرند.

    به عنوان مثال، تصاویر حیوانات را تجزیه و تحلیل می کنند تا متغیرهایی مانند اشکال مختلف گوش، چشم، ویژگی های دم و الگوهای پوستی را ثبت کنند. مدل های مولد ویژگی ها و روابط متغیرها را یاد می گیرند تا بفهمند حیوانات مختلف به طور کلی چگونه به نظر می رسند. سپس می توانند تصاویر حیوانات جدیدی را که در مجموعه آموزشی نبوده اند، بازسازی کنند.

    در ادامه برخی از انواع مدل های مولد را  معرفی می کنیم :

    مدل های انتشار (Diffusion models)

    مدل‌ های انتشار یک نوع مدل مولد است که رویکرد نسبتاً جدیدی در حوزه یادگیری عمیق (Deep Learning) است و برای مدل‌سازی فرایندهای تصادفی و پویا مورد استفاده قرار می‌گیرد. مدل‌های Diffusion براساس اعمال گام‌های کوچک و تصادفی روی داده‌ها، اطلاعات را از یک حالت شروع به یک حالت پایانی انتشار می‌دهند. این فرآیند پخش اطلاعات به طور تدریجی از یک سطح به سطح دیگر و از یک نقطه به نقطه دیگر انجام می‌شود از این رو آن را مدل‌سازی پخش اطلاعاتی نیز می‌توان نامید.

    مدل‌های انتشار، با تغییرات تصادفی کنترل شده در نمونه‌ی اولیه، داده‌های جدیدی ایجاد می‌کنند. آن‌ها با داده‌ی اصلی شروع می‌کنند و تغییراتی (نویز) را به آن اضافه می‌کنند که به تدریج باعث می‌شود داده‌ی جدید کمتر شبیه داده‌ی اصلی شود. این نویز با دقت کنترل می‌شود تا داده‌های تولید شده همچنان مرتبط و واقع‌گرا باشند.

     پس از اضافه کردن نویز در چندین مرحله، مدل انتشار فرآیند را معکوس می‌کند. با حذف تدریجی نویز، داده‌ی جدیدی تولید می‌شود که شبیه داده‌ی اولیه است. این مدل‌ها به کمک فرآیند پخش اطلاعات و تحول تصویر، تصاویر جدید و شبیه به تصاویر ورودی را تولید می‌کنند.

    مدل های انتشار (Diffusion models)

    شبکه های مولد متخاصم (Generative Adversarial networks)

    شبکه‌ های مولد متخاصم (GAN)، یکی از مدل‌ های مولد هوش مصنوعی است که بر پایه‌ی مفهوم مدل انتشار ساخته شده است. GAN‌ها از دو شبکه عصبی مختلف، شبکه مولد(generator) و شبکه تمیز دهنده (discriminator) ، تشکیل شده‌اند که به صورت رقابتی کار می‌ کنند. شبکه‌ی مولد با اضافه کردن نویز تصادفی، نمونه‌های داده‌ی جعلی تولید می‌کند که تا جای ممکن شبیه به داده‌های واقعی باشند. شبکه‌ی تمیز دهنده سعی می‌کند داده‌ های واقعی و داده‌ های جعلی تولید شده توسط مولد را تشخیص دهد. در طول آموزش، مولد به طور مداوم توانایی خود را در ایجاد داده‌ های واقعی بهبود می‌ بخشد در حالی که تمیز دهنده در تشخیص دادن داده‌ های واقعی از داده‌های جعلی بهتر می‌ شود. این فرآیند مقابله‌ای تا زمانی ادامه دارد که مولد داده‌ای تولید کند که تمیز دهنده نتواند آن را از داده‌ های واقعی تشخیص دهد . این رقابت میان دو شبکه توانایی بهبود تولید داده‌های مولد را افزایش می‌دهد و باعث تولید داده‌هایی با کیفیت بالاتر می‌شود. GANs در زمینه‌های مختلف مانند تولید تصاویر واقع گرایانه مانند ایجاد چهره‌های واقعی انسانی یا آثار هنری، تولید موسیقی، ترجمه ماشینی و سایر وظایف خلاقانه مورد استفاده قرار می‌گیرند.

    شبکه های مولد متخاصم

    اتوانکودرهای متغیر (Variational Autoencoders (VAEs) )

    اتوانکودرهای متغیر  یک مدل مولد هوش مصنوعی هستند که یک نمایش فشرده از داده به نام ” فضای لاتنت” را یاد می‌گیرند. فضای لاتنت(نهفته) یک نمایش ریاضی از داده است. می‌توانید آن را به عنوان یک کد منحصر به فرد که داده را بر اساس تمام ویژگی‌های آن نشان می دهد، در نظر بگیرید. به عنوان مثال، اگر چهره‌ها را مورد مطالعه قرار دهیم، فضای لاتنت شامل اعدادی است که شکل چشم، شکل بینی، خطوط لب و گوش را نشان می‌ دهد.

    اتوانکودرهای متغیر از دو شبکه عصبی استفاده می‌کنند – رمزگذار(encoder ) و رمزگشا(decoder). شبکه عصبی رمزگذار داده ورودی را به یک میانگین و واریانس برای هر بعد از فضای لاتنت نگاشت می‌کند. سپس یک نمونه تصادفی از یک توزیع گاوسی (نرمال) تولید می‌کند. این نمونه یک نقطه در فضای لاتنت است و نسخه فشرده و ساده شده داده ورودی را نشان می‌دهد.

     شبکه عصبی رمزگشا این نقطه نمونه‌برداری شده را از فضای لاتنت برمی‌دارد و آن را به داده‌ای که شبیه داده ورودی اصلی است بازسازی می‌کند. توابع ریاضی برای اندازه‌گیری اینکه چقدر داده بازسازی شده با داده اصلی مطابقت دارد، استفاده می‌شوند.

    VAEها به خوبی برای تولید داده‌های جدید و ایجاد تنوع در داده‌ها استفاده می‌شوند، و همچنین برای فضای لاتنت یا فضای نهانی که بهبود انتشار ویژگی‌های مهم داده‌ها را توصیف می‌کند، بسیار مفید هستند. برای درک بهتر، این مدل‌ها معمولاً در وظایف ایجاد محتوای جدید مورد استفاده قرار می‌گیرند. به عنوان مثال:

    • ساخت تصاویر واقع‌گرایانه از چهره‌های انسان.
    • ساخت موسیقی.
    • تولید محتوای متنی.
    • افزایش داده‌های موجود با نمونه
    اتوانکودر های مختلف

    مدل های مبتنی بر ترانسفورمر(Transformer-based models)

    مدل‌های مولد مبتنی بر ترانسفورمر، بر پایه‌ی مفاهیم رمزگذار و رمزگشا در اتوانکودرهای متغیر ساخته شده‌اند. مدل‌های مبتنی بر ترانسفورمر، لایه‌های بیشتری به رمزگذار اضافه می‌کنند تا عملکرد آن‌ها در وظایف مبتنی بر متن مانند درک، ترجمه و نوشتن خلاقانه بهبود یابد.

    Transformer یک ساختار شبکه عصبی عمیق است که بر اساس مکانیزم توجه (attention mechanism) کار می‌کند.  در واقع، به جای استفاده از لایه‌های بازگردنده مانند GRU یا LSTM ، ترانسفورمر از لایه‌های توجه استفاده می‌کند که به مدل امکان مدل‌سازی موازی و نیز برقراری ارتباطات بین تمام توکن‌های ورودی را می‌دهند. Transformer اهمیت بخش‌های مختلف یک دنباله ورودی را در هنگام پردازش هر عنصر در دنباله محاسبه می‌کند.

    Transformer-based models همچنین دارای اندازه قابل توجهی از پارامترها هستند که آن‌ها را قادر به یادگیری و تولید داده‌های با کیفیت و لغوی و تسلط بر زبان بیشتر می‌کند. مدل‌هایی مانند BERT برای تبدیل متن به نمایش برداری، و GPT برای تولید متن زبان طبیعی قابل استفاده هستند.

    برای درک اینکه مدل‌های مبتنی بر ترانسفورمر چگونه کار می‌کنند، یک جمله را به عنوان یک دنباله از کلمات تصور کنید. خودتوجهی(Self-attention) به مدل کمک می‌کند تا هنگام پردازش هر کلمه، بر روی کلمات مرتبط تمرکز کند. برای به دست آوردن انواع روابط مختلف بین کلمات، مدل مولد مبتنی بر ترانسفورمر از چندین لایه رمزگذار به نام‌ “attention heads” استفاده می‌کند. هر head یاد می گیرد که به بخش‌های مختلف دنباله ورودی توجه ‌کند. در نتیجه مدل می تواند به طور همزمان به جنبه‌های مختلف داده فکر کند.

    همچنین هر لایه تعبیه‌های متنی را بهبود می‌بخشد. لایه‌ها تعبیه‌ها را اطلاعاتی‌تر می‌کنند و همه چیز  از دستور گرامر تا معنایی پیچیده را در بر می‌گیرند.

     استفاده از Transformer-based models، به ویژه در مسائل مرتبط با پردازش زبان طبیعی، از جمله ترجمه ماشینی، استخراج اطلاعات و پرسش و پاسخ، بهبود قابل توجهی در نتایج و کارایی مدل‌ها داشته است.

     

    مدل های مبتنی بر ترانسفورمر

    شبکه های بیزی (Bayesian networks)

    مدل مولد Bayesian networks، مدل‌ گرافیکی است که روابط احتمالی را میان مجموعه‌ای از متغیرها نشان می‌دهد .  در این مدل‌ها، توزیع احتمالاتی متغیرهای مختلف و وابستگی بین آن‌ها، با استفاده از شبکه‌های بیزی مدلسازی می‌شود.

    مدل‌های Bayesian networks بر اساس اصل علت ‌گرایی ساخته شده‌اند و توانایی بسیار بالایی در تحلیل و پیش‌بینی وابستگی‌ها دارند. در مواقعی که باید فهمید که چگونه یک پدیده یا مسئله به ‌دیگر پدیده‌ ها و عوامل وابسته به آن مرتبط است، از مدل مولد Bayesian network استفاده می شود. 

    به عنوان مثال در حوزه پزشکی، تشخیص صحیح یک بیماری ممکن است به دلیل وابستگی بین علائم و بیماری‌های مختلف، یک چالش باشد. با استفاده از شبکه Bayesian ، این وابستگی‌ها نشان داده می شود و  روابط میان علائم و بیماری‌ها ،  مدل‌سازی می‌شود. بنابراین امکان پیش‌بینی احتمال بروز یک بیماری بر اساس مجموعه از علائم مختلف افزایش می‌یابد. به طور خلاصه، با استفاده از مدل‌های Bayesian networks، می‌توان به صورت دقیق تر و موثرتر به تحلیل و پیش‌بینی روابط علّی و وابستگی‌های پیچیده در داده‌ها پرداخت.

    مدل مولد Bayesian networks در بسیاری از زمینه ها از جمله تولید تصویر ، موسیقی، ترجمه ماشینی و سایر وظایف مربوط به هوش مصنوعی و یادگیری ماشینی کاربرد دارد. 

    شبکه های بیزی

    ماشین‌های محدود بولتزمن (RBMs)

    مدل مولد ماشین‌های محدود بولتزمن یک نوع شبکه عصبی مصنوعی است که برای مدل‌سازی داده‌ها و استخراج ویژگی‌های مهم از داده‌ها استفاده می‌شود. این مدل‌ها برای تشخیص الگوها در داده‌ها و تولید داده‌های جدید استفاده می‌شوند.

    مدل‌ مولد RBM  از دو نوع لایه تشکیل شده‌ است : لایه قابل مشاهده (visible layer) که مشاهدات را دریافت می‌کند و لایه پنهان (hidden layer) که ویژگی‌های نهانی از داده‌ها را نمایش می‌دهد.

     هدف اصلی از استفاده از مدل RBM، یادگیری توزیع احتمالاتی پنهان در داده‌ها و استخراج ویژگی‌های مهم از آن‌ها است. با آموزش RBM ، می‌توان ویژگی‌های مهم و ارتباطات میان داده‌ها را درک کرد. سپس این ویژگی‌ها می‌توانند برای مسائلی مانند تشخیص الگو، تقسیم بندی یا بازسازی داده‌ها استفاده شوند.

     مدل مولد RBM یک ابزار قدرتمند برای یادگیری و استخراج ویژگی از داده‌ها است و در زمینه‌های یادگیری ماشین، تشخیص الگو و پردازش تصویر مانند پیشنهاد فیلم در پلتفرم‌ های مختلف براساس علائق کاربر، استفاده می‌ شود.

    هوش مصنوعی

    هوش مصنوعی

    مفهوم هوش مصنوعی در سال ۱۹۵۶ ابداع شد و به سیستم‌ های جامعی اشاره دارد که محیط اطراف را تجزیه و تحلیل می ‌کنند، از هوش برای انجام اقدامات مورد نیاز استفاده می ‌کنند و با استفاده از اختیارات داده شده، به اهداف تعریف شده  دست می‌ یابند. این سیستم‌ ها می‌ توانند مبتنی بر نرم‌ افزار (مانند دستیارهای صوتی) یا مبتنی بر سخت‌ افزار (مانند خودروهای خودکار) باشند. هوش فعالیت به دست آوردن دانش از محیط اطراف و استفاده از آن دانش و تجربه برای انجام وظایف است. هوش مصنوعی سیستم‌ هایی است که می‌ توانند مثل انسان‌ ها فکر کنند و از طریق گفت‌ و گوها و دستورات صوتی با انسان‌ ها تعامل کند. سپس داده‌ ها را در دستگاه‌ های ذخیره‌ سازی ذخیره کند و از این داده‌ ها به عنوان حافظه یا دانش مانند انسان‌ ها استفاده کند. هوش مصنوعی همچنین قادر به واکنش و نظارت بر اقدامات خود به شکلی مشابه با موجودات زنده است.

    در زندگی روزمره ‌ی ما، مثال‌ های متعددی از این فناوری وجود دارد. به عنوان مثال، دستیارهای آنلاین مانند Google Assistant، Amazon Alexa، Apple Siri، خودروهای متصل به شبکه و چت بات ‌ها.

    در ادامه به تاریخچه هوش مصنوعی ، انواع و کاربردهای هوش مصنوعی خواهیم پرداخت.

     

    مهارت های هوش مصنوعی

    تاریخچه هوش مصنوعی

    در سال ۱۹۴۰، یک ریاضیدان برجسته، ایده‌ ای را مطرح کرد که در آن  داده‌ ها و فرآیندها می‌ توانند به عنوان حافظه در کامپیوتر ذخیره شوند. در سال ۱۹۴۹ مدلی ارائه شد که در آن تجربه ها شبکه ای از مسیرهای عصبی را ایجاد می کنند و این مسیرهای شبکه بسته به فراوانی و دفعات این تجربه ها قدرتمند می‌شوند. در سال ۱۹۵۰،  آزمونی به نام آزمون Turing  معرفی شد که تشخیص می داد که آیا ماشین یا سیستم مورد آزمایش، هوشمند است یا خیر. دانشجویان دانشگاه هاروارد، یک ماشین محاسباتی با ۴۰ نورون مصنوعی ساختند که از شبکه‌ های عصبی و الگوریتم‌ های تقویتی برای انجام محاسبات و تصمیم ‌گیری‌ های احتمالی استفاده می ‌کرد. در سال ۱۹۵۲، برنامه ی  کامپیوتری  برای بازی شطرنج طراحی شد که یک کامپیوتر را قادر می ساخت تا شطرنج را به تنهایی بازی کند همچنین ماشینی را توسعه دادند که خطوط محدودی از زبان روسی را به انگلیسی ترجمه می کرد.

    در سال ۱۹۵۶، مفهوم هوش مصنوعی در ورکشاپ Dartmouth  به وجود آمد.  توافق شد که هوش محدود به موجودات زنده محدود نیست و می ‌تواند به ماشین ‌های مصنوعی نیز نسبت داده شود. سپس منطق ‌گرایی پیشنهاد شد . این ماشین های منطق گرا می ‌توانستند مثل انسان‌ها فکر کنند و مطابق با آن عمل کنند. در سال ۱۹۵۸، McCarthy زبان برنامه‌نویسی کامپیوتری LISP  را ایجاد کرد و به همراه Marvin Minsky  یک پروژه هوش مصنوعی را آغاز کردند. در سال ۱۹۶۰، McCarthy مقاله‌ای منتشر کرد که در آن از یادگیری ماشین ‌ها با استفاده از تجربیات، به همان روشی که انسان‌ها انجام می‌دهند، صحبت شده است. سپس در سال ۱۹۵۹  یک سرور عمومی ارائه شد که مشکلات عمومی را حل می کرد همچنین برنامه‌ای ارائه شد که می‌توانست مسایل هندسی را حل کند. Arthur Samuel  در حین همکاری با IBM، عبارت یادگیری ماشین را معرفی کرد. در سال ۱۹۶۳، McCarthy ، معروف به پدر هوش مصنوعی، یک آزمایشگاه هوش مصنوعی در دانشگاه استنفورد را تاسیس کرد. در سال ۱۹۶۹، یک سیستم متخصص به نام MYCIN، مبتنی بر هوش مصنوعی، معرفی شد که می‌توانست نوع باکتری‌ های را که بیماران از آن ها آلوده شده بودند، شناسایی کند و نوع آنتی‌بیوتیک‌هایی که برای درمان موثر هستند ، معرفی کند.

    در سال ۱۹۸۱، شرکت Digital Equipment Corporation،  eXpert CONfigurer را معرفی کرد که نقش مهمی در تغییرات و پیشرفت‌ هایی که هوش مصنوعی در جهان به وجود آورده ایفا کرد و بدین ترتیب دوره اول زمستان هوش مصنوعی پایان یافت . در سال ۱۹۸۲، پروژه سیستم کامپیوتری نسل پنجم توسط ژاپن آغاز شد که می‌ توانست پلتفرمی بزرگ برای پروژه‌های آینده مرتبط با هوش مصنوعی فراهم کند. این پروژه در نهایت در سال ۱۹۹۲ به دلیل عدم توانایی در برآورده کردن انتظارات پایان یافت. در دوره‌ی بین سال‌های ۱۹۸۷ تا ۱۹۹۳، به دلیل فعالیت‌های تحقیقاتی گران ‌قیمت که نتایج مطلوبی نداشتند، دور دوم زمستان هوش مصنوعی شروع شد.

    پس از سال ۲۰۰۰، فعالیت‌های تحقیقاتی مرتبط با هوش مصنوعی شتاب زیادی گرفت. DARPA یک مسابقه برگزار کرد که هدف آن ترویج نوآوری در وسایل نقلیه بود. در سال ۲۰۰۵ این مسابقه توسط یک ماشین رباتیک به نامStanley  که یک ماشین رباتیک ساخته شده توسط دانشگاه استنفورد بود، برنده شد. نیروی نظامی ایالات متحده راه را برای سرمایه‌گذاری در ربات‌ها مانند Big Dog  توسعه ‌یافته توسط Boston Dynamics  و PackBot  توسط iRobots  هموار کرد. گوگل در سال ۲۰۰۸  قابلیت تشخیص گفتار را در برنامه آیفون معرفی کرد و پس از آن یک خودروی خودران در سال ۲۰۱۴، AlphaGo  در سال ۲۰۱۶ و زبان BERT  در سال ۲۰۱۸ را معرفی کرد. پیشرفت های دیگری مانند Apple’s Siri  در سال ۲۰۱۱، Amazon’s Alexa  در سال ۲۰۱۴، ربات Sophia توسط Hanson Robotics در سال ۲۰۱۶ و Waymo One Service توسط Waymo در سال ۲۰۱۸ ارائه شد.  در طول پاندمی COVID-19، در سال ۲۰۲۰، Baidu، یک شرکت چند ملیتی چینی، الگوریتمی را ارائه داد که تنها در چند ثانیه با استفاده از تکنیک های هوش مصنوعی به درک توالی ویروس کمک کرد.

    ChatGPT برای اولین بار در تاریخ ۳۰ نوامبر ۲۰۲۲ توسط OpenAI معرفی شد.  این چت‌بات بر اساس مدل‌های زبانی بزرگ (LLMs) ساخته شده است  . از آن زمان به بعد، ChatGPT  به عنوان یکی از ابزارهای هوش مصنوعی محبوب برای مکالمات تعاملی و پاسخ به سوالات کاربران مورد استفاده قرار گرفته است.چند نمونه از چت بات های هوش مصنوعی عبارتند از :

    • جمینای (Gemini) از گوگل
    • چت‌بات‌های متداول مایکروسافت (LLaMA) و بینگ
    • چت بات Q از آمازون

    به طور کلی، در دهه‌ی گذشته، هوش مصنوعی در زمینه‌های مختلف پیشرفت‌های چشمگیری کرده است.  چند تکنولوژی مهم در این فناوری عبارتند از:

    1. یادگیری ماشینی (Machine Learning)
    2. بازاریابی خودکار (Marketing Automation)
    3. یادگیری عمیق (Deep Learning)
    4. پردازش زبان طبیعی (NLP)
    5. اتومبیل‌های خودران

    به نظر می‌رسد هوش مصنوعی در سال‌های آینده نقش مهمی در تحولات فناوری خواهد داشت و تکنولوژی‌های جدیدی همچون ChatGPT-4 با توانایی‌های بهتر در درک زبان ، به توسعه‌ ی این حوزه کمک می ‌کنند.

     

    انواع هوش مصنوعی

    چهار نوع هوش مصنوعی وجود دارد که به شرح زیر می باشند:

    1. سیستم‌ های واکنشی (Reactive Systems): همانطور که از نامش پیداست، این نوع هوش مصنوعی بر اساس عوامل محیطی، واکنش نشان می‌ دهد، قادر به ذخیره اطلاعات نیست و از تجربه یا دانش تاریخی استفاده نمی کند. فقط عوامل موجود را درک می کند و بهترین عکس‌ العمل را انجام می‌ دهد. یک مثال از ماشین واکنشی، Deep Blue  شرکت IBM است. این نام کامپیوتری است که در یک بازی شطرنج بهترین قهرمان جهان را شکست داد. این کامپیوتر بر اساس وضعیت موجود پس از هر حرکت عمل می‌کرد و نمی‌توانست حرکات آینده را ارزیابی کند .  مثال دیگری از ماشین ‌های واکنشی، AlphaGo  شرکت Google است که در بازی Go  به مقام قهرمان جهانی رسید .
    2. سیستم‌های حافظه محدود (Limited Memory Systems): همانطور که از نامش پیداست، نه تنها بر اساس عوامل موجود عکس‌العمل نشان می‌ دهد، بلکه قابلیت محدودی در ذخیره داده‌ های گذشته و تجزیه و تحلیل آنچه ممکن است در آینده اتفاق بیفتد را دارد. فرآیند حافظه محدود در شکل زیر خلاصه شده است. در این فرآیند ابتدا داده‌ های پایه جمع ‌آوری می‌ شود سپس داده‌ ها با استفاده از مدل‌ ها برای سیستم یادگیری، تجزیه و تحلیل می‌شوند. با استفاده از تجزیه و تحلیل، پیش ‌بینی ‌ها انجام می‌ شود و برای بررسی و بازخورد ارسال می‌شوند. خروجی کلی این فرآیند برای مراجعه آینده ذخیره می‌ شود و بر اساس نیازها قابل بازیابی است. حافظه محدود سه مدل را دنبال می کند:

     

    • یادگیری از طریق تقویت‌ها (Reinforcements): این نوع سیستم ها از تکنیک‌های آزمایش و خطا برای رسیدن به تصمیمات نهایی استفاده می کنند. هر جا که نتایج مطلوب باشند، آن نتیجه انتخاب می‌ شود. این نوع یادگیری بدون هیچ ناظری عمل می کند؛ بنابراین نیاز به مجموعه‌ای از الگوریتم‌ های قوی دارد.
    • سیستم‌های حافظه‌ی بلند و کوتاه ‌مدت (LSTM) : هوش مصنوعی مبتنی بر LSTM از حافظه‌های طولانی ‌مدت و کوتاه ‌مدت و تجربیات استفاده می کند. سپس مدل‌ها را برای پیش‌ بینی‌های آینده ایجاد می کند و توسعه می‌ دهد. این سیستم‌ها هنگام تصمیم‌ گیری نهایی به حافظه‌ی کوتاه‌ مدت نسبت به حافظه‌ی طولانی‌ مدت وزن بیشتری می ‌دهند زیرا بر اساس فرضیه ‌ی پایه آن ها، رویدادهای گذشته‌ ی نزدیک بیشتر از رویدادهای گذشته دور بر روی نتایج آینده تأثیر دارند.
    • سیستم‌های شبکه‌ های مولد مبارزه‌ای تکاملی (Evolutionary GAN): در این نوع یادگیری، سیستم‌های شبکه‌ های مولد مبارزه‌ای بر اساس رویدادها پیوسته تکامل می‌ یابند و در طول زمان مراحل تکاملی مختلفی را طی می کنند. در این نوع یادگیری، سیستم‌ها همیشه مسیر یکسانی را دنبال نمی ‌کنند، بلکه شبکه‌ ها هر بار به دنبال مسیر جدید و بهتری می ‌گردند تا راه ‌حل‌ های بهتری ارائه دهند و اینگونه تکامل می‌یابند.
    1. نظریه ذهن (Theory of Mind): این نوع هوش مصنوعی رفتاری را که موجودات زنده بر اساس آن تصمیم گیری می کنند مورد مطالعه قرار می‌ دهد. این سیستم‌ها تحلیل می ‌کنند که موجودات زنده در زمان تصمیم گیری چه احساسی را تجربه می کنند تا به سطح معینی از استقلال و خودمختاری برسند. برای دستیابی به این هدف، سیستم‌ها باید بفهمند که ذهن موجودات زنده چگونه کار می کند و این دانش را مفهوم سازی کنند تا مطابق با آن عمل کنند. نظریه ذهن تا به امروز اجرایی نشده است.
    2. خودآگاهی (Self-awareness): این مرحله فقط پس از دستیابی به نظریه ذهن قابل دستیابی است. در این سطح، هوش مصنوعی سطح آگاهی موجودات زنده را تجزیه و تحلیل می کند و فقط بر روی چرایی تمرکز نمی کنند بلکه برای دستیابی به سطح مشابهی از آگاهی بر روی “چگونگی” نیز تمرکز می کند.

     

    کاربردهای هوش مصنوعی

    هوش مصنوعی موضوعی است که در تقریباً همه ‌ی زمینه‌ ها مورد بحث قرار می‌ گیرد و بدون شک، پتانسیل زیادی برای تغییر حوزه‌ های گوناگون زندگی را دارد . کاربردهای هوش مصنوعی در حوزه های مختلف به شرح زیر است:

    کاربردهای هوش مصنوعی
    1. بهداشت و درمان: کاربردهای هوش مصنوعی در حوزه بهداشت و درمان شامل فعالیت هایی مانند نگهداری سوابق پزشکی بیمار در گذشته و حال، زمان ‌بندی نوبت ‌دهی به صورت زمان ‌واقعی، فعالیت‌ های مرتبط با صورتحساب و پرداخت و سایر فعالیت‌ های اداری می‌ شوند. ابزارها و برنامه‌ های پیشرفته شامل تشخیص خودکار بیماران و به اشتراک گذاری نتایج می شود که به پزشکان در درمان بیماران بسیار کمک می کند. در شرایط ویژه مانند اپیدمی ویروس کووید-۱۹، هوش مصنوعی به شدت در درک توالی ویروس در عرض چند ثانیه مفید بود.  تحقیقات زیادی در حال انجام است تا هوش مصنوعی را در حوزه پزشکی به سطحی برساند که بیمارستان‌ ها به طور کامل خودکار شوند و با دخالت بسیار کم انسانی عمل کنند.
    2. کسب و کار: تحقیقات زیادی برای توسعه محصولات جدید یا معرفی ویژگی‌های جدید برای تحقق نیازهای مصرف‌کنندگان انجام می‌ شود. برای دستیابی به این هدف، درک بازار هدف بسیار مهم است. از ابزارهای تحلیلی زیادی برای درک رفتار مصرف‌ کنندگان استفاده می‌ شود. هوش مصنوعی الگوریتم‌ های پیچیده‌ای را فراهم می کند که به تجزیه و تحلیل داده ها کمک می کند و نتایج تاثیر گذاری را ارائه می‌ دهد.
    3. آموزش: هوش مصنوعی می ‌تواند بیشتر فعالیت‌های اداری را که بر عهده معلمان است، خودکار کند. اتوماسیون زمان بیشتری به معلمان می‌ دهد تا بر روی بهبود دانش‌آموزان تمرکز کنند. با تحقیقات بیشتر، ممکن است زمانی بیاید که این فناوری بتواند جایگزین برخی از مربیان شود.
    4. مالی: هوش مصنوعی در زمینه‌ های زیادی مانند تجزیه و تحلیل داده‌ های مالی، مدلسازی ریسک و معامله‌ گری مفید است. این فناوری می ‌تواند به سرمایه ‌گذاران مشاوره‌ های مالی مفیدی ارائه دهد. نرم‌ افزارهای پیچیده برای معامله در سهام، با استفاده از هوش مصنوعی بهبود یافته اند.
    5. قانون: در حوزه حقوق، برای بررسی صحت اسناد و درک متون، وقت و تلاش زیادی صرف می شود. انجام این کارها با استفاده از هوش مصنوعی بسیار ساده می شود، به این صورت که دستگاه می تواند به سرعت منبع اسناد را تأیید کند، بازخورد خود را در مورد صحت سند به اشتراک بگذارد، و درک اسناد را با کلمات ساده از متن نوشته شده با کلمات پیچیده، به اشتراک بگذارد.
    6. ساخت و ساز: در بسیاری از واحدهای تولیدی، بیشتر کار توسط ماشین هایی انجام می شود که از طریق هوش مصنوعی با حداقل تعامل انسانی انجام می شود. در گذشته ماشین‌ ها فقط در یک جهت فعالیت می کردند و ماشین ‌ها با کارگران انسانی همزیستی نداشتند. اکنون، با کمک این فناوری، ماشین ‌ها مسئولیت‌ های کاملی را از اول تا آخر به عهده می گیرند و با نیروی انسانی همزیستی می کنند.
    7. بانکداری: چت بات ها نمونه بارز هوش مصنوعی در مورد عملیات بانکی هستند. هنگامی که از وب سایت یک بانک بازدید می کنید، یک ربات چت به سوالات شما جواب می دهد. سوالات زیادی در ذهن مشتریان وجود دارد که نیازمند زمان و هزینه زیادی توسط نیروی انسانی است. شرکت های بانکی منابع مالی هنگفتی را برای مدیریت تعاملات مشتریان صرف می کنند که با استفاده از این فناوری، این هزینه ها به طور قابل ملاحظه ای کاهش می یابد .
    8. حمل و نقل: هوش مصنوعی می تواند در بخش حمل و نقل به طرق مختلف از جمله مدیریت ترافیک در جاده، تجزیه و تحلیل حرکت پروازها، و پیش بینی تاخیر در پرواز و وسایل نقلیه مرتبط، بسیار مفید باشد.
    9. امنیت: حملات سایبری مختلفی وجود دارد که از برقراری ارتباط امن در شبکه های ارتباطی جلوگیری می کند. هوش مصنوعی در تشخیص زودهنگام هرگونه تلاش غیرمجاز در شبکه، بسیار مفید است و در صورت ادغام با فناوری های دیگر مانند بلاکچین، می تواند شبکه را از حملات مختلف محافظت کند.

     

    چالش های هوش مصنوعی

    اجرای موفق هوش مصنوعی نیاز به مدیریت چالش‌های مختلف دارد. در زیر به برخی از این چالش‌ها و راه ‌حل‌ های ممکن برای غلبه بر آن‌ها می‌پردازیم:

    1. دانش فنی پیچیده: هوش مصنوعی یک فناوری بسیار پیچیده و در حال تکامل است. محققان سال‌ هاست که بر روی درک و پیاده‌سازی آن کار می کنند، اما هنوز بسیاری از اهداف آن‌ها دور از دسترس است. بنابراین رسیدن به تخصص فنی مورد نیاز، برای هر نهادی بسیار دشوار است.
    2. هزینه‌های زیاد: فقط سازمان‌های بزرگ مانند گوگل، اپل و آمازون می‌ توانند منابع مالی زیادی را برای تحقیقات در زمینه هوش مصنوعی اختصاص دهند. سازمان‌ های کوچک، ممکن است نتوانند هزینه‌های مورد نیاز برای پروژه‌های تحقیقاتی مرتبط با این فناوری را تامین کنند.
    3. ظرفیت ذخیره‌ سازی بالا: موفقیت هوش مصنوعی تا حد زیادی در دسترسی به داده‌ ها بستگی دارد. الگوریتم‌ ها و ابزارهای برنامه‌ نویسی مقدار زیادی داده را تجزیه و تحلیل می ‌کنند، که موجب چالش ذخیره ‌سازی این حجم عظیم از داده‌ ها می‌ شود.
    4. نیروی کار تخصصی: همانطور که قبلاً گفته شد، کار با هوش مصنوعی نیاز به دانش فنی پیچیده دارد. در دسترس بودن کارکنان با این دانش فنی محدود است، که منجر به هزینه‌های بالای استخدام نیروی کار ماهر می‌ شود.
    5. سرعت بالای محاسباتی: الگوریتم‌ های پردازش شده در مدل‌های هوش مصنوعی بسیار پیچیده هستند، و نیاز به فناوری‌ها و ابزارهای پیشرفته ‌ای دارند تا سرعت محاسباتی بالا را فراهم کنند.
    6. چالش‌های حقوقی: مدل‌های ساخته شده از طریق هوش مصنوعی ممکن است به دلیل عدم شفافیت و دیدگاه واضح، با چالش های قانونی روبرو شوند زیرا ممکن است افراد نتوانند تصمیم ‌گیری‌های مدل را درک کنند یا توضیح دهند.
    7. امنیت فنی: به دلیل عدم توانایی هوش مصنوعی در مدیریت موقعیت‌های خاص، ممکن است در مواقع غیر عادی ایمنی افراد به خطر بیافتد. این مسئله می ‌تواند به تدابیر امنیتی و حقوقی منجر شود.
    8. مسائل متفرقه دیگر: استفاده از هوش مصنوعی می ‌تواند به مشکلات متعدد دیگر نیز منجر شود. این مشکلات شامل بیکاری گسترده، افزایش نابرابری اقتصادی و تأثیر مخرب بر محیط زیست می‌ شود.

    به طور کلی، هوش مصنوعی همزمان با فرصت‌ها، چالش‌های حقوقی و اجتماعی را نیز به همراه دارد. برای مدیریت این چالش‌ها، نیاز به توسعه قوانین و تدابیر مناسب است همچنین، توجه به مسائل امنیتی و تأثیرات زیست ‌محیطی نیز از اهمیت بالایی برخوردار است.