استارتاپ ها به دنبال راهی برای تائید صحت اطلاعات در دنیای هوش مصنوعی

استارتاپ ها به دنبال راهی برای تائید صحت اطلاعات در دنیای هوش مصنوعی

صحت اطلاعات در استفاده از هوش مصنوعی بسیار حیاتی است زیرا اطلاعات نادرست یا ناقص می تواند منجر به تصمیمات نادرست و خطرناک شود. در حوزه هوش مصنوعی، داده های صحیح و دقیق از اهمیت بسیاری برخوردار هستند زیرا الگوریتم ها و مدل های هوش مصنوعی بر اساس این داده ها عمل می کنند.

 استفاده از داده های نادرست می تواند منجر به تبعیض، ناعدالتی و حتی خطر جانی شود. به عنوان مثال، اگر یک سیستم هوش مصنوعی بر اساس داده های نادرست آموزش دیده باشد، ممکن است تصمیمات نادرستی در مورد تشخیص بیماری ها، پیش بینی جرم و جنایت و یا حتی تصمیمات مهم دیگر بگیرد.

 بنابراین، اطمینان از صحت و دقت داده ها و اطلاعات استفاده شده در مدل های هوش مصنوعی بسیار حیاتی است. برای این منظور، لازم است که داده ها از منابع معتبر و قابل اعتماد جمع آوری شوند و همچنین الگوریتم ها و مدل های هوش مصنوعی به صورت  دقیق آموزش داده شوند. از این رو، توجه به صحت اطلاعات یکی از اصول اساسی در طراحی و استفاده از سیستم های هوش مصنوعی است.

با افزایش استفاده از هوش مصنوعی و امکان تغییر دادن محتوا در اینترنت، نیاز به اطمینان از صحت داده‌ها و برندها از همیشه بیشتر شده است.  Scott Dykstra مشاور فناوری و ‌بنیان ‌گذار استارتاپ Space and Time، در پادکست TechCrunch’s  Chain Reaction podcast  تاکید می کند که باید از اطلاعات و برندها اطمینان حاصل شود .

برای مثال، در زمان فروپاشی صرافی رمزارز  FTX، این سازمان داده‌های داخلی خود را تغییر داده و سرمایه‌گذاران را گمراه کرده بود.  این کار مشابه درخواستی به پایگاه داده برای دریافت سوابق مالی است در صورتی که  اطلاعات در داخل پایگاه داده تغییر داده شده است.در واقع FTX یک سازمان بود که مردم  به عنوان یک برند به آن‌ اعتماد داشتند. این مشکل به فروپاشی FTX محدود نمی شود و در موسسات مالی، انگیزه‌ای برای تغییر سوابق وجود دارد. بنابراین این مشکل به طور مداوم مشاهده می شود .

اما چه راه‌ حلی برای این مشکل وجود دارد؟

از نظرDykstra  راه حل در تأیید داده‌ ها و استفاده از روش zero-knowledge proofs(zk proofs  ) است. در این روش از عملیات‌ های رمزنگاری برای اثبات اعتبار اطلاعات استفاده می شود، بدون اینکه داده‌ ی اصلی افشا شود.

به عبارت دیگر، این الگوریتم به اثبات ‌کننده اجازه می دهد که بدون انتقال هر گونه اطلاعات اضافی، صحت ادعای خود را ثابت کند.

 هر زمان که انگیزه‌ای برای تغییر داده‌ها، قیمت‌ها، دفاتر و مالیات وجود داشته باشد، الگوریتم ZK proofs می تواند برای تأیید و بازیابی داده‌ها مورد استفاده قرار گیرد.

در سطح بالا، الگوریتم ZK proofs  برای تأیید درستی یک موضوع بدون افشای هیچ اطلاعاتی به جز اینکه آیا درست است یا نه، کار می کنند. به عنوان مثال، اگر بخواهم بفهمم امتیاز اعتباری کسی بیش از ۷۰۰ است، اگر چنین چیزی وجود داشته باشد، یک اثبات‌ کننده ZK می تواند به تأیید کننده اطلاع دهد که این موضوع درست است، بدون افشای دقیق عدد مورد نظر.

هدف استارتاپ Space and Time  این است که به عنوان لایه محاسبات قابل تأیید برای web3  با ایندکس‌ گذاری داده‌ ها به صورت off-chain و on-chain عمل کند.

در حال حاضر، این استارتاپ بلاکچین های بزرگی مانند  Ethereum، Bitcoin، Polygon، Sui، Avalanche، Sei  و Aptos  را ایندکس‌ گذاری کرده است و در حال افزودن پشتیبانی برای بلاکچین های دیگر به منظور توانمندی در آینده هوش مصنوعی و فناوری بلاکچین است.

در حال حاضر تیم‌ هایی بر روی ساخت  الگوریتم های  ZK proofs برای یادگیری ماشین یا مدل‌های زبان بزرگ کار می کنند، اما ایجاد این الگوریتم ها ممکن است سال‌ها طول بکشد. این به این معناست که اپراتور مدل می تواند سیستم یا LLM  را دستکاری کند و تائید صحت اطلاعات را با مشکل مواجه کند.

داده‌های هوش مصنوعی به راحتی قابل تأیید نیستند و این نگرانی وجود دارد که به طور موثر قادر به تأیید اجرای صحیح یک مدل زبان بزرگ (LLM) نباشیم.

 از نظر کارشناسان Space and Time نیاز به یک “پایگاه داده‌ غیر متمرکز و در سطح جهانی و همیشه در دسترس” وجود دارد که از طریق زنجیره‌ های بلاکچین ایجاد شود. همه باید به آن دسترسی داشته باشند و نباید انحصاری باشد و راهی برای اجتناب از این موضوع وجود ندارد.

به عنوان مثال، در یک سناریوی فرضی که توسطDykstra   ارائه شده است، یک OpenAI  نمی تواند مالک پایگاه داده‌ای از یک مجله باشد که خبرنگاران برای آن محتوا تولید می ‌کنند. به جای آن، پایگاه داده باید توسط جامعه مالکیت داشته باشد و توسط جامعه به نحوی که به راحتی در دسترس و غیرقابل سانسور باشد، اداره شود.

چت‌ بات هوش مصنوعی ابزاری برای سلامت روان

چت‌ بات هوش مصنوعی ابزاری برای سلامت روان

چت‌ بات هوش مصنوعی یک نوع نرم‌ افزار یا ربات است که با استفاده از الگوریتم‌ های هوش مصنوعی و یادگیری ماشینی طراحی شده است. این چت بات ها قادرند به صورت خودکار و هوشمندانه با کاربران ارتباط برقرار کنند و به آنها کمک می‌ کنند تا در مواجهه با مشکلات روانی و احساسی خود، احساس حمایت و توجه کنند. همچنین می‌ توانند راهنمایی‌ هایی در زمینه مدیریت استرس، اضطراب، افسردگی و سایر مشکلات روانی ارائه دهند.

در حالی که بحران سلامت روان در میان نسل Z به اوج خود رسیده است، چت‌ بات هوش مصنوعی مانند Earkick  به عنوان کمک‌ های بالقوه در حوزه سلامت روان برای نوجوانان و جوانان ظاهر شده‌ است و بحث در مورد اثر بخشی و استفاده اخلاقی از آن‌ ها بالا گرفته است. این چت بات ها با استفاده از جملات آرامش ‌بخش و راهنمایی های مدیریت استرس، پشتیبانی ۲۴ ساعته را ارائه می دهند . با این حال، بحث میان کارشناسان در مورد این است که آیا عملکرد این ابزارها به عنوان خدمات سلامت روان، واقعی است یا فقط مکانیسم‌ های خود یاری در عصر جدید هستند.

مقابله با بحران سلامت روان

 بحران سلامت روان در میان نسل Z منجر به توسعه مجموعه ‌ای از برنامه‌ های چت ‌بات هوش مصنوعی شده است.به عنوان مثال  Earkick با رابط کاربری دوستانه و راهنمایی های همدلانه، نمایانگر رویکرد صنعت به ارائه کمک‌های فوری و بدون تبعیض است.  به دلیل ماهیت غیرتشخیصی و غیردرمانی این چت‌ باتها، کارایی و ایمنی‌ آن ها تحت بررسی است.

ملاحظات قانونی و اخلاقی

پیشرفت‌ های سریع در فناوری هوش مصنوعی مولد، بحث‌ در مورد مقررات و استفاده اخلاقی از هوش مصنوعی در حمایت از سلامت روان را تشدید کرده است. عدم تأیید توسط FDA  و عدم وجود اطلاعات جامع در مورد کارایی چت بات ها، سوالاتی در مورد قابلیت اعتماد آنها ایجاد می‌ کند. کارشناسان حقوقی و روان‌ شناسی بر نیاز به سلب مسئولیت  و راهنمایی‌ های اخلاقی تأکید دارند تا انتظارات و ایمنی کاربرانی که به دنبال حمایت از این پلتفرم‌ های دیجیتال هستند، مدیریت شود.

بررسی آینده هوش مصنوعی در سلامت روان

 پتانسیل این چت بات ها به عنوان راه‌ حل‌ های موقت برای موارد درمانی با شدت کم یا به عنوان پشتیبانی تکمیلی برای درمان‌ های مداوم در حال بررسی است. ادغام هوش مصنوعی در مراقبت از سلامت روان، با چالش‌ها و همچنین مزایایی همراه است و لحظه‌ای مهم در تلاقی فناوری و مراقبت‌های بهداشتی است. اگرچه چت‌ بات ‌های هوش منوعی رویکرد نوآورانه‌ای برای مقابله با بحران سلامت روان ارائه می‌دهند، اما مسیر پذیرش و ادغام آن‌ها در مراقبت‌های اصلی سلامت روان  پیچیده و در حال انجام است. بدون شک نظرات کارشناسان و عموم مردم شکل آینده حمایت از سلامت روان را تعیین خواهد کرد، با تأکید بر نیاز به یک رویکرد متعادل که اثربخشی، ایمنی و ملاحظات اخلاقی را در اولویت قرار می‌ دهد.

معرفی چت‌ بات هوش مصنوعی در زمینه ی سلامت روان

علاوه بر Earkick، چت‌ بات ‌های دیگری نیز برای حمایت از سلامت روان وجود دارند. در زیر به برخی از آن‌ها اشاره می‌کنیم:

  1. Woebot:

Woebot  با رابط کاربری مناسب و راهنمای همدلانه، به عنوان یک راه ‌حل جذاب برای ارائه کمک‌ های فوری و بدون تبعیض در حوزه سلامت روان شناخته می ‌شود.

این چت ‌بات از روش‌ های درمانی مبتنی بر شناختی-رفتاری (CBT) استفاده می ‌کند.

  1. Wysa:

Wysa  یک چت‌ بات هوش مصنوعی است که به کاربران کمک می ‌کند تا با استفاده از مهارت‌ های مدیریت استرس، افکار منفی و احساسات خود را مدیریت کنند.

این چت‌ بات مبتنی بر مبانی روان ‌شناسی و روش ‌های مثبت‌ نگری است.

  1. Youper:

Youper  یک چت‌ بات هوش مصنوعی است که با استفاده از الگوریتم ‌های مبتنی بر CBT و DBT، به کاربران کمک می ‌کند تا با احساسات و افکار خود بهتر آشنا شوند و راه‌ حل‌ های مثبت برای مدیریت آن ‌ها پیدا کنند.

این چت‌ باتها، با ارائه حمایت همدلانه، تشخیص و مدیریت استرس، می‌توانند به کمک مشکلات سلامت روانی نسل ‌های جوان بیایند.

رکورد عدد Pi به ۱۰۵ تریلیون رقم رسید

رکورد عدد Pi به ۱۰۵ تریلیون رقم رسید

مهندسین StorageReview تصمیم گرفتند در روز عدد Pi امسال (۱۴ مارس) کاری بسیار عجیب و هوشمندانه انجام دهند و رکورد عدد Pi را شکسته و به ۱۰۵ تریلیون رقم برسانند. با توجه به اینکه رکورد قبلی که در سال گذشته به دست آمده بود ۱۰۰ تریلیون رقم بود، انجام این کار چالش آسانی نبود و ۷۵ روز طول کشید.

این کار با استفاده از یک سیستم Bergamo AMD EPYC 9754  با دو پردازنده ۱۲۸ هسته‌ای، مجهز به ۱.۵ ترابایت حافظه DRAM و نزدیک به یک پتابایت از حافظه‌ های Solidigm QLC SSDs  انجام شد.

تیم محاسبات خود را در تاریخ ۱۴ دسامبر ۲۰۲۳ شروع کرد و در تاریخ ۲۷ فوریه ۲۰۲۴ پایان داد، که مجموعاً ۷۵ روز طول کشید. آنها از الگوریتم Chudnovsky  برای محاسبه عدد Pi استفاده کردند و محاسبات نیازمند یک حافظه کلی ۱.۳۶ ترابایتی بود.

چالش‌ های جدید

این دستاورد نشان دهنده قابلیت‌ های فوق‌ العاده سخت‌ افزارهای مدرن است، از جمله سیستم AMD EPYC Bergamo قدرتمند و SSDهای Solidigm QLC. رساندن رکورد عدد Pi به ۱۰۵ تریلیون رقم همراه با  چالش‌ های جدید بود. تیم با مسائل مربوط به عملکرد مواجه بودند از جمله محدودیت‌ های ذخیره‌ سازی و مشکلات عملکردی مرتبط با قانون Amdahl. برای رفع این مشکلات به بررسی جزئیات محاسبات موازی و تعاملات سخت ‌افزاری پرداختند و نتیجه آن بهینه ‌سازی تعاملات نرم ‌افزاری و سخت‌ افزاری شد.

Jordan Ranous از تیم  StorageReview گفت: ” ما محاسباتی را انجام دادیم که تاکنون انجام نشده بود بنابراین انتظار داشتیم که با مسائل جدید روبرو شویم ولی بدست آوردن ۱۰۵ تریلیون رقم از عدد Pi بسیار پیچیده‌ تر از آنچه که انتظار داشتیم بود.”

آیا این کار ارزش داشت؟

 Ranous می‌ گوید: “هر چند که در رسیدن به این رکورد خوشحالیم، اما باید بدانیم، این رقم به چه معناست؟ افزودن پنج تریلیون رقم دیگر به دنیای عدد Pi  احتمالاً تغییرات چشمگیری در ریاضیات ایجاد نخواهد کرد. با این حال، می ‌توانیم بین بارهای محاسباتی و نیاز به سخت ‌افزارهای زیرساختی مدرن برای پشتیبانی از آن‌ ها، ارتباط‌ برقرار کنیم.

 برای محاسبه  Pi، تیم با محدودیت هایی در مورد فضای ذخیره ‌سازی مواجه شده بود. پردازنده‌ های سریع ‌تر به تسریع محاسبات ریاضی کمک خواهند کرد، اما عامل محدود‌ کننده برای بسیاری از رکوردهای جدید جهانی میزان حافظه محلی است.

اساساً، این تمرین نشان می ‌دهد که سخت‌ افزار مناسب تاثیر زیادی در عملکرد سیستم دارد، چه این سیستم یک کلاستر مرکز داده های شرکتی باشد یا یک  نصب کننده HPC  باشد. این محاسبه نوآورانه نشان می‌ دهد که حمایت مناسب سخت ‌افزار برای وظایف پیچیده چقدر اهمیت دارد.

ذخیره اطلاعات در DNA

ذخیره اطلاعات در DNA

ذخیره اطلاعات در DNA به عنوان یک رویکرد نوآورانه برای ذخیره سازی داده‌ها از سوی برخی محققان و شرکت‌ها مطرح شده است. DNA به عنوان یک مولکول بسیار پایدار و با ظرفیت ذخیره سازی بالا شناخته می‌شود و این خصوصیت‌ها آن را به یک گزینه جذاب برای ذخیره سازی داده‌ها تبدیل کرده است.

با استفاده از تکنولوژی‌های مولکولی و بیوتکنولوژی، اطلاعات مختلف می‌توانند به صورت دیجیتال به داده‌های DNA تبدیل شوند و بر روی مولکول DNA ذخیره شوند.  ذخیره اطلاعات در DNA می‌تواند به عنوان یک رویکرد برای ذخیره سازی داده‌های بزرگ و برای مدت زمان طولانی مورد استفاده قرار گیرد. 

از آنجایی که نرخ ایجاد داده‌ ها در سراسر جهان از میزان فضای ذخیره‌ سازی موجود پیشی خواهد گرفت، پژوهشگران به ایده ذخیره‌ سازی اطلاعات در رشته‌ های DNA علاقه ‌مند شده‌اند. ذخیره‌  اطلاعات در دی ان ای یک پروژه بسیار هیجان ‌انگیز است که پتانسیل بزرگی برای حفظ داده‌ ها به صورت فشرده و بلند مدت دارد.

DNA، مولکولی که مسئول کد گذاری اطلاعات ژنتیکی در ارگانیسم ‌های زنده است، در حال حاضر به عنوان یک محیط ذخیره‌ سازی برای داده‌ های دیجیتال مورد بررسی قرار می ‌گیرد. ذخیره سازی اطلاعات در DNA از رشته‌های مصنوعی DNA تشکیل شده است که بدون چیدمان فیزیکی خاصی قرار دارند و برخلاف  HDD  و SSD  ، ساختار فیزیکی ثابتی ندارد. این ماده مولکولی انعطاف ‌پذیر به دلیل چگالی ذخیره‌ سازی بالای خود پتانسیل زیادی به عنوان یک محیط ذخیره ‌سازی دارد ، اما استفاده عملی از آن به دلیل هزینه‌های بالا و زمان‌های خواندن و نوشتن بسیار کند، محدود شده است.

دستگاه ذخیره‌ سازی به اندازه کارت اعتباری

استارتاپ فرانسوی   Biomemory ، دستگاه ذخیره‌ سازی به اندازه کارت اعتباری را معرفی کرده است که از DNA  برای کد گذاری یک کیلوبایت اطلاعات متنی استفاده می ‌کند. DNA  فوق العاده متراکم است، در طول زمان پایدار است و به حداقل انرژی نیاز دارد. Biomemory حداقل طول عمر ۱۵۰ سال را تخمین می زند که به مراتب بیشتر از روش‌های ذخیره‌ سازی دیجیتال کنونی است. هر کارت به قیمت ۱۰۰۰ دلار به فروش می ‌رسد و معادل یک ایمیل کوتاه را ذخیره می ‌کند.

چالش‌ها و نوآوری‌های ذخیره اطلاعات در DNA

 در حالی که DNA چگالی ذخیره‌ سازی بالایی دارد، استفاده عملی از آن به دلیل هزینه‌های بالا و زمان خواندن/نوشتن کند محدود شده است.

پژوهشگران توانسته اند متن، آهنگ، ویدئوها و حتی بدافزار را در رشته‌ های مصنوعی DNA کدگذاری کنند.

 مشکل اصلی با DNA به عنوان یک محیط ذخیره‌ سازی این است که برای ذخیره ‌سازی داده ‌های انسان ‌ساخته شده است نه عکس‌ ها و ویدئو ها. برای حل این مشکل، یک روش جدید برای راه ‌اندازی DNA  برای اهداف ذخیره‌ سازی توسعه داده اند.

این روش به دو بخش تقسیم می ‌شوند:

  1. بخش صفر (Sector Zero): شامل اطلاعات ضروری برای شناسایی فروشنده ‌ای است که DNA را ساخته و CODEC روش تبدیل داده‌های DNA به داده‌های دیجیتال و برعکس.
  2. بخش یک (Sector One): شامل متادیتا است و برای خواندن داده‌های واقعی ذخیره ‌شده در DNA طراحی شده است.

موسسه Wyss تخمین می ‌زند که یک گرم DNA می ‌تواند حدود ۳۶ میلیون نسخه از فیلم “Avengers: Endgame”  را نگه دارد.

 چشم انداز آینده

تکنولوژی ذخیره سازی اطلاعات در DNA هنوز در مراحل ابتدایی خود قرار دارد و انجمن ذخیره‌ سازی داده‌ های  DNA، شامل شرکت‌ هایی مانند  Western Digital، نخستین استاندارد قابل قبول در صنعت را ارائه می ‌دهند. یک فرمت استاندارد برای خواندن و نوشتن داده‌ های DNA می ‌تواند باعث پذیرش ذخیره‌ سازی DNA شود.

 تکنولوژی ذخیره اطلاعات در DNA در حال حاضر وجود دارد و به نظر می ‌رسد می ‌توانید حتی ۱ کیلو بایت از ذخیره‌ سازی DNA را با هزینه ۱۱۰۰ دلار خریداری کنید.

DNA می تواند ذخیره سازی و پردازش داده ها را متحول کند و به طور بالقوه به عنوان یک پردازنده شبیه CPU عمل کند.

به طور خلاصه، ذخیره اطلاعات در DNA تکنولوژی آینده است و راه را برای عصر جدیدی از ذخیره  بی حد و حصر و مقرون به صرفه داده ها هموار می کند.

SSD ۲۵۶ ترابایتی تا سال ۲۰۲۶ عرضه خواهند شد

SSD ۲۵۶ ترابایتی تا سال ۲۰۲۶ عرضه خواهند شد

دستیابی به فضای ذخیره سازی ۲۵۶ ترابایت برای سازندگان SSD یک هدف بزرگ است و چالش‌ هایی دارد که باید پشت سر گذاشته شود. در ابتدا، فضای فیزیکی که با توجه به اندازه و شکل  SSD تعیین می‌شود، تعداد اجزای  NAND که می‌تواند در آن جا قرار گیرد را تعیین می کند. چگونگی تراکم این کامپوننت ها نیز نقش مهمی دارد، تراکم‌ های بالاتر، ظرفیت ذخیره‌سازی بیشتری را فراهم می‌ کند.

ظرفیت کلی SSD ممکن است با توجه به توانایی کنترل‌ کننده در مدیریت تعدادی از تراشه‌ های NAND و مدیریت مؤثر آن‌ها محدود شود. علاوه بر این، SSD‌ها یک «نقشه منطقی به فیزیکی» را برای ردیابی هر بایت داده ذخیره شده حفظ می‌ کنند، که معمولاً در DRAM برای عملکرد پایدار در SSD‌های شرکتی استفاده می‌ شود. مقدار DRAM که می‌ تواند در درایو قرار گیرد، می‌ تواند ظرفیت حداکثری درایو را  محدودتر کند.

ScaleFlux  کنترل‌ کننده‌ی SSD جدید به نام SFX 5016  را معرفی کرده است که می‌ تواند یک قدم مهم برای این شرکت باشد.

SFX 5016، جانشین SFX 3016، شامل پیشرفت هایی در طراحی است، از جمله ارتقاء از PCIe 4.0  به PCIe 5.0  که سرعت رابط کاربری و پهنای باند هاست را دو برابر می‌ کند. 

 

کنترلر SFX 5016  با ادغام موتورهای شتاب‌ دهنده‌ ی سخت‌ افزاری به طور کارآمد و شفاف داده‌ ها را در زمان نوشتن فشرده‌ سازی کرده و در زمان خواندن آن‌ ها را از حالت فشرده خارج کرده، که منجر به عملکرد بهتر و اقتصادی‌ تر بودن SSD نسبت به NVMe SSD‌های شرکتی عادی تا ۱۰ برابر می‌ شود.

SFX 5016 تا ۲۵۶ ترابایت ظرفیت ذخیره‌ سازی را به خوبی مدیریت می‌ کند و طراحی‌ هایی با عملکرد و ظرفیت بالا را به خوبی پشتیبانی می‌کند. تیم ScaleFlux ، SFX 5016  را برای سادگی و آسانی استفاده با درایورهای NVMe استاندارد و دستورات NVMe  استاندارد طراحی کرده‌اند.

Baker  معاون محصولات در ScaleFlux می‌ گوید که «یک درایو SSD با ظرفیت مؤثر ۲۵۶ ترابایت از طریق فشرده‌سازی می‌تواند تا سال ۲۰۲۵ عرضه شود و قیمتی کمتر از قیمت معمول داشته باشد.» اگرچه ارائه یک SSD ۲۵۶ ترابایتی زودتر از رقبا و با قیمتی کمتر، عالی به نظر می‌رسد، اما روش دستیابی به این موضوع بحث یرانگیز است.

 Baker ، معتقد است با بهره گیری از تکنولوژی نوار (tape technology) می‌ توان این حجم از ذخیره سازی را زودتر از انتظار به دست آورد .

فشرده‌ سازی شفاف، یک ویژگی موجود در SFX  ۵۰۱۶  ، یک ترفند محبوب از تکنولوژی نوار است که به SSD اجازه می‌ دهد با فشرده‌ سازی داده‌ ها بتواند بیش از ظرفیت فیزیکی خود ذخیره کند. با توجه به توضیحاتBaker ، یک SSD ۳.۸۴ ترابایتی می‌ تواند ۷.۶۸ ترابایت داده‌ های قابل فشرده‌ سازی را ذخیره کند.

اگرچه زمان مشخصی برای ارائه این تکنولوژی  وجود ندارد، ولی احتمالاً در اواخر سال آینده‌ اولین درایوهایSSD  ۲۵۶ ترابایتی را خواهیم دید.

 

فشرده سازی LLM با نرم افزار کوانتومی

فشرده سازی LLM با نرم افزار کوانتومی

فشرده سازی LLM به معنی کاهش حجم و حافظه مورد نیاز برای ذخیره و استفاده از مدل‌های زبانی پیچیده و حجیم است. این مدل‌ها اغلب شامل پارامترهای بسیار زیادی هستند که لازم است در حافظه ذخیره شوند و برای پردازش اطلاعات استفاده شوند. فشرده سازی مدل‌های زبانی بزرگ می‌تواند بهبود عملکرد و سرعت پردازش آنها را تا حدودی افزایش دهد و همچنین استفاده بهتری از حافظه و منابع محاسباتی را فراهم کند. فشرده سازی LLM ممکن است با استفاده از روش‌های مختلفی صورت گیرد.

در حالی که هنوز فاصله زیادی  تا عرضه کامپیوترهای کوانتومی فیزیکی به بازار داریم، به نظر می ‌رسد علوم کامپیوتر کوانتومی ، که اصول کوانتومی را برای مدیریت محاسبات پیچیده در حوزه‌ هایی مانند مالی و هوش مصنوعی به کار می ‌برد، به سرعت در حال پیشرفت است.

در آخرین توسعه کامپیوترهای کوانتومی، یک استارت ‌آپ به نام Multiverse Computing ، تلاش‌ های جدیدی را برای همکاری نزدیک ‌تر با شرکت ‌های هوش مصنوعی که در حال ساخت و بهره‌ برداری از مدل ‌های زبانی بزرگ (LLM) هستند، آغاز کرده است. مدیرعامل  Enrique Lizaso Olmos ، بهینه ‌سازی را به عنوان محور فعالیت‌های خود در نظر گرفته است.

به عبارت دیگر، همانطور که محاسبات پیشرفته‌ تر می‌ شوند، هزینه ‌های محاسباتی نیز گران‌ تر می شود و اجرای مداوم آن‌ ها بسیار پیچیده است. Multiverse  ادعا می کند که پلتفرم نرم ‌افزاری خود به نام Singularity ، قادر است مدل ‌های پیچیده و پیش ‌بینی‌ های متعدد را به صورت کارآمد اجرا و بهینه ‌سازی کند.

در حوزه هوش مصنوعی، تمرکز بر روی استفاده از پلتفرمی برای فشرده ‌سازی LLM است. محصول جدیدی به نام CompactifAI  به محاسباتی که به طور مداوم هنگام ساخت و پرس و جو مدل‌ های زبانی بزرگ انجام می ‌شود، می‌ پردازد تا نویز بیشتری را حذف کرده و سرعت کار را در تولید نتایج افزایش دهد و در نتیجه باعث افزایش قابلیت اعتماد در  LLM شود.

این شرکت ادعا می ‌کند سرویس هایی که به مشتریان از طریق رابط‌ های برنامه‌ نویسی کاربردی (API)  ارائه می شود، می‌ تواند مدل‌ های زبانی بزرگ را با استفاده از شبکه‌ های تانسوری(tensor networks) ‌الهام گرفته از کواتنوم، به بیش از ۸۰٪ فشرده کند و همچنان نتایج دقیقی تولید ‌کند .

اگر این ادعا درست باشد، می‌ تواند تأثیرات بزرگی بر روی نحوه خرید و استفاده از پردازنده‌ ها توسط شرکت ‌ها داشته باشد و یکی از چالش های بزرگ در این صنعت را حل کند.

در حالی که به نظر می رسد Multiverse با مشتریان ارتباط برقرار کرده است، اما آنچه که باید دیده شود، این است که توانمندی Multiverse برای بالا بردن سطح شرکت، به هدف دستیابی به تکنولوژی و هوش مصنوعی عمیق ، چگونه خواهد بود. 

با مطالعه مقاله زیر می توانید اطلاات بیشتری درباره ی مدل های زبانی بزرگ LLMs بدست آورید:

استفاده از هوش مصنوعی مولد (Gen AI) در SRE:حل چالش های SRE با مدل های زبانی بزرگ (LLM)