ژنوم ما شبیه به یک مدل هوش مصنوعی مولد است 

ژنوم ما شبیه به یک مدل هوش مصنوعی مولد است 

ایده‌ جدیدی مطرح شده است که از حوزه هوش مصنوعی برای درک ژنوم استفاده می‌کند و آن این است : “شباهت ژنوم به هوش مصنوعی مولد”. دو محقق استدلال می‌کنند که ژنوم بیشتر شبیه به یک مدل مولد عمل می کند. نوعی از هوش مصنوعی که می‌تواند چیزهای جدیدی ایجاد کند.

شما ممکن است با این نوع ابزارهای هوش مصنوعی آشنا باشید. همان‌هایی که می‌توانند متن، تصاویر یا حتی فیلم‌ها را از ورودی‌های مختلف تولید کنند. آیا ژنوم ما واقعاً به همین شکل عمل می‌کند؟ این ایده‌ای جذاب است. بیایید آن را بررسی کنیم.

ژنوم چیست و چگونه عمل می‌کند؟

ژنوم چه کاری انجام می‌دهد؟ شاید شنیده باشید که ژنوم نقشه‌ای برای یک موجود زنده است، یا مانند یک دستور پخت عمل می‌کند. اما ساخت یک موجود زنده بسیار پیچیده‌تر از ساختن یک خانه یا پختن یک کیک است. در مدارس معمولاً به ما آموزش داده می‌شود که ژنوم چیزی شبیه به یک برنامه کامپیوتری است که دستورالعمل‌های لازم برای ساخت سلول‌ها و بافت‌های بدن را در خود دارد.

اما Kevin Mitchell ، عصب‌ژنتیک‌شناس از کالج ترینیتی دوبلین، معتقد است که این استعاره وقتی با دقت بیشتری بررسی شود، دچار مشکل می‌شود. او می‌گوید که ژنوم خیلی پیچیده‌تر از یک نقشه یا برنامه ساده است.

بر خلاف نقشه‌ها یا برنامه‌های کامپیوتری، ژنوم یک مجموعه‌ای از دستورالعمل‌ها نیست که به صورت خطی اجرا شوند. مثلا مجموعه‌ای از دستورالعمل‌ها که ابتدا مغز، سپس سر و بعد گردن و غیره را می سازد. اما میدانیم که اینگونه نیست.

استعاره رایج دیگری، ژنوم را به نقشه‌ای برای بدن تشبیه می‌کند به طوری که هر بخش از نقشه نمایانگر بخشی از محصول نهایی است. اینطور نیست که مثلاً شما یک ژن برای آرنج و یک ژن برای ابرو داشته باشید و هر ژن به طور دقیق برای یک قسمت خاص از بدن تعیین شده باشد.

بلکه ژن‌های مختلف می‌توانند به طور همزمان در ساخت قسمت‌های مختلف بدن نقش داشته باشند و بسته به شرایط مختلف، عملکردهای متفاوتی داشته باشند. این بسیار پیچیده‌تر از یک نقشه است.

سپس استعاره دستور پخت مطرح می‌شود. به نوعی، این استعاره دقیق‌تر از نقشه یا برنامه است. در این استعاره ژن‌هایمان را به عنوان مجموعه‌ای از مواد اولیه و دستورالعمل‌ها تصور می کنیم و محصول نهایی تحت تأثیر عواملی مانند دمای فر یا نوع ظرف پخت قرار می‌گیرد. به هر حال، دوقلوهای همسان با DNA یکسان متولد می‌شوند، اما اغلب تا زمان بلوغ تفاوت‌های زیادی دارند.

اما استعاره دستور پخت نیز به نظر Mitchell خیلی کلی است.

ایده‌ جدیدی مطرح شده است که از حوزه هوش مصنوعی برای درک ژنوم استفاده می‌کند و آن این است : “شباهت ژنوم به هوش مصنوعی مولد”. دو محقق استدلال می‌کنند که ژنوم بیشتر شبیه به یک مدل مولد عمل می کند. نوعی از هوش مصنوعی که می‌تواند چیزهای جدیدی ایجاد کند.

شما ممکن است با این نوع ابزارهای هوش مصنوعی آشنا باشید. همان‌هایی که می‌توانند متن، تصاویر یا حتی فیلم‌ها را از ورودی‌های مختلف تولید کنند. آیا ژنوم ما واقعاً به همین شکل عمل می‌کند؟ این ایده‌ای جذاب است. بیایید آن را بررسی کنیم.

ژنوم چیست و چگونه عمل می‌کند؟

ژنوم چه کاری انجام می‌دهد؟ شاید شنیده باشید که ژنوم نقشه‌ای برای یک موجود زنده است، یا مانند یک دستور پخت عمل می‌کند. اما ساخت یک موجود زنده بسیار پیچیده‌تر از ساختن یک خانه یا پختن یک کیک است. در مدارس معمولاً به ما آموزش داده می‌شود که ژنوم چیزی شبیه به یک برنامه کامپیوتری است که دستورالعمل‌های لازم برای ساخت سلول‌ها و بافت‌های بدن را در خود دارد.

اما Kevin Mitchell ، عصب‌ژنتیک‌شناس از کالج ترینیتی دوبلین، معتقد است که این استعاره وقتی با دقت بیشتری بررسی شود، دچار مشکل می‌شود. او می‌گوید که ژنوم خیلی پیچیده‌تر از یک نقشه یا برنامه ساده است.

بر خلاف نقشه‌ها یا برنامه‌های کامپیوتری، ژنوم یک مجموعه‌ای از دستورالعمل‌ها نیست که به صورت خطی اجرا شوند. مثلا مجموعه‌ای از دستورالعمل‌ها که ابتدا مغز، سپس سر و بعد گردن و غیره را می سازد. اما میدانیم که اینگونه نیست.

استعاره رایج دیگری، ژنوم را به نقشه‌ای برای بدن تشبیه می‌کند به طوری که هر بخش از نقشه نمایانگر بخشی از محصول نهایی است. اینطور نیست که مثلاً شما یک ژن برای آرنج و یک ژن برای ابرو داشته باشید و هر ژن به طور دقیق برای یک قسمت خاص از بدن تعیین شده باشد.

بلکه ژن‌های مختلف می‌توانند به طور همزمان در ساخت قسمت‌های مختلف بدن نقش داشته باشند و بسته به شرایط مختلف، عملکردهای متفاوتی داشته باشند. این بسیار پیچیده‌تر از یک نقشه است.

سپس استعاره دستور پخت مطرح می‌شود. به نوعی، این استعاره دقیق‌تر از نقشه یا برنامه است. در این استعاره ژن‌هایمان را به عنوان مجموعه‌ای از مواد اولیه و دستورالعمل‌ها تصور می کنیم و محصول نهایی تحت تأثیر عواملی مانند دمای فر یا نوع ظرف پخت قرار می‌گیرد. به هر حال، دوقلوهای همسان با DNA یکسان متولد می‌شوند، اما اغلب تا زمان بلوغ تفاوت‌های زیادی دارند.

اما استعاره دستور پخت نیز به نظر Mitchell خیلی کلی است.

شباهت ژنوم به هوش مصنوعی مولد

Mitchell و همکارش Nick Cheney در دانشگاه Vermont ، از مفاهیم هوش مصنوعی استفاده کردند تا آنچه ژنوم انجام می‌دهد را بهتر توصیف کنند. میچل به مدل‌های هوش مصنوعی مولد مانند Midjourney و DALL-E اشاره می‌کند که می‌توانند تصاویر را از ورودی‌های متنی تولید کنند. این مدل‌ها با فشرده‌سازی عناصر تصاویر موجود، توانایی ایجاد تصاویر جدید را دارند.

فرض کنید شما متنی را برای ایجاد تصویری از یک اسب می‌نویسید. این مدل‌ها بر اساس تعداد زیادی از تصاویر اسب آموزش دیده‌اند و این تصاویر به نحوی فشرده شده‌اند که مدل‌ها بتوانند عناصری را که می‌توان آن‌ها را “اسب‌گونه” نامید، به دست آورند. هوش مصنوعی سپس می‌تواند تصویری جدید ایجاد کند که این عناصر را در بر دارد.

کد ژنتیکی ما تا حدودی شبیه به DALL-E عمل می‌کند. به طور مشابه، ژنوم انسانی نیز با استفاده از اطلاعات فشرده شده‌ای که طی فرآیند تکامل جمع‌آوری شده‌اند، قادر به ایجاد موجودات جدید است. این اطلاعات امکان تغییر و تطبیق زیادی دارند و به همین دلیل موجودات زنده با وجود شباهت‌های ژنتیکی، تفاوت‌های زیادی با یکدیگر دارند.

نیاز به استعاره‌های جدید برای درک بهتر ژنوم

Mitchell معتقد است که برای درک بهتر ژنوم و نقش‌های پیچیده آن، نیاز به استعاره‌های دقیق‌تری داریم. فناوری‌های جدید به دانشمندان این امکان را می‌دهد که عمیق‌تر از همیشه به مطالعه ژن‌ها بپردازند و نقش آن‌ها را در توسعه موجودات زنده بررسی کنند.

او امیدوار است که این مفاهیم جدید به توسعه مدل‌های ریاضی کمک کند و به ما درک بهتری از پیچیدگی‌های روابط بین ژن‌ها و موجوداتی که از آن‌ها به وجود می‌آیند بدهد. به عبارتی دقیقاً چگونه اجزای ژنوم ما به توسعه ما کمک می‌کنند.

پیش‌ بینی آب و هوا با هوش مصنوعی و فیزیک

پیش‌ بینی آب و هوا با هوش مصنوعی و فیزیک

کارشناسان آب و هوا بر سر این موضوع که کدامیک از دو روش هوش مصنوعی یا روش‌های سنتی، موثرتر هستند، اختلاف نظر دارند. در مدل جدیدی که که توسط شرکت Google توسعه یافته، پیش بینی آب و هوا با هوش مصنوعی و فیزیک انجام می شود. در واقع محققان به هر دو روش متکی هستند.

محققان گوگل یک مدل جدید پیش‌ بینی وضعیت آب و هوا ساخته‌اند که یادگیری ماشین را با تکنیک‌های معمولی ترکیب می‌کند. این احتمال وجود دارد که پیش‌ بینی‌های دقیقی را با هزینه کمتری ارائه دهد.

این مدل که NeuralGCM نام دارد و در مقاله‌ای در Nature شرح داده شده است، شکافی که در سالهای اخیر میان کارشناسان پیش‌ بینی وضعیت آب و هوا ایجاد شده است را پر می‌کند.

سرعت و دقت پیش‌ بینی با NeuralGCM

تکنیک‌های جدید یادگیری ماشین که وضعیت آب و هوا را با یادگیری از داده‌های سال‌های گذشته پیش‌ بینی می‌کنند، بسیار سریع و کارآمد هستند. اما ممکن است در پیش‌ بینی‌های بلندمدت مشکل داشته باشند.

از طرف دیگر مدل‌های گردش عمومی، که در ۵۰ سال گذشته برای پیش‌ بینی وضعیت آب و هوا استفاده می شدند، از معادلات پیچیده‌ای برای مدل ‌سازی تغییرات جوی استفاده می‌کنند. این مدل ها پیش‌ بینی‌های دقیقی ارائه می‌دهند، اما بسیار کند و پرهزینه هستند.

کارشناسان در مورد اینکه کدام ابزار در آینده قابل اعتمادتر خواهد بود، اختلاف نظر دارند. اما مدل جدید google تلاش می‌کند هر دو را ترکیب کند.

Stephan Hoyer ، پژوهشگر هوش مصنوعی در Google Research می‌گوید: “این موضوع فیزیک در مقابل هوش مصنوعی نیست. در واقع ترکیب فیزیک و هوش مصنوعی است.”

سیستم جدید همچنان از یک مدل سنتی برای کار کردن برخی از تغییرات بزرگ جوی که برای پیش‌ بینی لازم است، استفاده می‌کند. سپس در جایی که مدل‌های بزرگتر معمولاً ناکام می‌مانند، هوش مصنوعی را وارد می‌کند.

این سیستم معمولاً برای پیش‌ بینی در مقیاس‌های کوچکتر از حدود ۲۵ کیلومتر، مانند پیش‌ بینی تشکیل ابرها یا اقلیم‌های منطقه‌ای (مثلاً مه در سان‌فرانسیسکو) عملکرد خوبی دارد.Hoyer  می گوید:”در این جا ما هوش مصنوعی را به طور انتخابی برای اصلاح خطاهایی که در مقیاس‌های کوچک به وجود می آیند، وارد می‌کنیم.”

مزایای مدل ترکیبی NeuralGCM

به گفته محققان، نتیجه مدلی است که می‌تواند پیش‌ بینی‌های با کیفیت را سریع‌تر و با توان محاسباتی کمتر تولید کند. آنها می‌گویند NeuralGCM به اندازه پیش‌ بینی‌های یک تا ۱۵ روزه مرکز پیش‌ بینی میان‌مدت جوی اروپا (ECMWF) که یک سازمان شریک در این پژوهش است، دقیق است.

اما وعده واقعی فناوری‌هایی مانند این، بهبود پیش‌ بینی‌های آب و هوا در منطقه محلی شما نیست. بلکه برای بهبود پیش‌ بینی‌ها در رویدادهای اقلیمی بزرگتری است که مدل ‌سازی آنها با تکنیک‌های معمولی بسیار پرهزینه است.

این امکانات می‌تواند از پیش‌ بینی طوفان‌های گرمسیری تا مدل ‌سازی تغییرات اقلیمی پیچیده‌تر که سال‌ها با آن فاصله دارند، متغیر باشد.

آینده پیش‌ بینی آب و هوا با هوش مصنوعی

به نظر Aaron Hill استادیار دانشکده هواشناسی دانشگاه اوکلاهما، شبیه ‌سازی مکرر کره زمین یا برای مدت های طولانی، بسیار پرهزینه است.  این بدان معناست که بهترین مدل‌های آب و هوایی به دلیل هزینه‌های بالای توان محاسباتی محدود می‌شوند.

مدل‌های مبتنی بر هوش مصنوعی واقعاً فشرده‌تر هستند. آموزش معمولاً با استفاده از داده‌های ۴۰ ساله آب و هوا از ECMWF انجام می‌شود. پس از آن یک مدل یادگیری ماشین مانند Google GraphCast می‌تواند با کمتر از ۵۵۰۰ خط کد اجرا شود. در حالی که مدل اداره ملی اقیانوسی و جوی، نزدیک به ۳۷۷۰۰۰ خط کد نیاز دارد.

به گفته Hill ، NeuralGCM به خوبی نشان می‌دهد که هوش مصنوعی می‌تواند برای بخش‌های خاصی از مدل ‌سازی آب و هوا وارد شود و در حالی که همچنان مزایای سیستم‌های سنتی حفظ می‌شود، فرآیندها را سریع‌تر کند. او می‌گوید: “ما نیازی نداریم تمام دانشی که در ۱۰۰ سال گذشته درباره نحوه کار جو به دست آورده‌ایم را دور بیندازیم. ما می‌توانیم در واقع آن را با قدرت هوش مصنوعی و یادگیری ماشین ترکیب کنیم.”

Hoyer می‌گوید استفاده از این مدل برای پیش ‌بینی وضعیت آب و هوای کوتاه‌ مدت مفید بوده تا دقت پیش ‌بینی‌ها را تایید کند. اما هدف اصلی این است که بتوان از آن برای مدل ‌سازی بلند مدت، به‌ ویژه برای خطرات شدید آب و هوایی استفاده کرد.

مدل NeuralGCM منبع باز خواهد بود. Hoyer می‌گوید منتظر است تا دانشمندان هواشناسی از این مدل در تحقیقات خود استفاده کنند. اما ممکن است این مدل فقط برای دانشگاهیان جذاب نباشد. بلکه تاجران کالا و برنامه ‌ریزان کشاورزی بنیز به دنبال پیش‌ بینی‌هایی با وضوح بالا هستند.

همچنین مدل‌های مورد استفاده شرکت‌های بیمه، در تلاش هستند که تاثیر تغییرات آب و هوایی را برای مواردی مانند بیمه سیل یا بیمه آب و هوای شدید، در نظر بگیرند.

Hill می‌گوید با پیشرفت های اخیر در پیش‌ بینی وضعیت آب و هوا ، بسیاری از کارشناسان به هوش مصنوعی روی آورده اند. اما به علت سرعت بالای توسعه، همگام شدن با پیشرفت برای جامعه پژوهشی سخت است.

او می‌گوید: “به نظر می‌رسد هر دو ماه یک مدل جدید توسط Google, Nvidia,  یا Huawei منتشر می‌شود. برای محققان دشوار است که بفهمند کدام ابزارهای جدید مفیدتر خواهند بود و بر اساس آن برای دریافت بودجه تحقیقاتی اقدام کنند.”

چرا سرمایه گذاری در هوش مصنوعی open-source برای شرکت های چینی مهم است؟

چرا سرمایه گذاری در هوش مصنوعی open-source برای شرکت های چینی مهم است؟

سرمایه‌ گذاری در هوش مصنوعی open-source با فراهم کردن فرصت‌های نوآورانه و کاهش هزینه‌ها، به شرکت‌ها کمک کند تا در این حوزه پیشرو باشند.

هوش مصنوعی open-source  برای Alibaba  و استارتاپ های هوش مصنوعی چینی، فرصتی برای تجاری‌ سازی سریع‌ تر و کسب شناخت جهانی فراهم می‌کند. بسیاری از مردم، به ‌ویژه کسانی که با چین یا زبان چینی آشنایی ندارند، احتمالاً نمی‌دانند چگونه این مدل‌ها را امتحان کنند.

 خبر خوب این است که واقعاً این کار سخت نیست! بسیاری از مدل‌های هوش مصنوعی چینی در خارج از کشور بیشتر از آنچه انتظار دارید قابل دسترسی هستند. شما می‌توانید به راحتی با ثبت ‌نام در وب ‌سایت‌های یا استفاده از پلتفرم‌هایی مانند Hugging Face به اکثر آن‌ها دسترسی پیدا کنید.

روند open-source  کردن مدل‌های هوش مصنوعی در حال افزایش است و دسترسی به آن‌ها را برای مخاطبان خارج از کشور آسان‌تر می‌کند.

نمونه های سرمایه‌ گذاری در هوش مصنوعی open-source

 به عنوان مثال، Qwen (یا به چینی ، Tongyi Qianwen) مدل اصلی هوش مصنوعی Alibaba  است. برخلاف رقبای داخلی مانند Baidu ، ByteDance ،Tencent ، شرکت Alibaba  تصمیم گرفته این مدل را به صورت open-source  ارائه دهد و به توسعه ‌دهندگان و مشتریان تجاری اجازه دهد آن را به صورت رایگان استفاده کنند.

این مدل که در ماه ژوئن به ‌روزرسانی ۲.۰ را دریافت کرد، در سطح بین‌المللی توجه زیادی را به خود جلب کرده است. در رتبه‌ بندی اخیر Hugging Face که عملکرد همه مدل‌های زبانی open-source  بزرگ را مقایسه می‌کند، Qwen2 در صدر قرار گرفت و از مدل‌های Meta’s Llama 3 و Microsoft’s Phi-3 پیشی گرفت.

 به همین ترتیب، چندین استارتاپ چینی مانند DeepSeek و ۰۱.AI نیز تصمیم گرفته‌اند مدل‌های خود را open-source  کنند و عملکرد محصولات آن‌ها نیز جایگاه بالایی در لیست رتبه ‌بندی کسب کرده است. این شرکت‌ها مدل‌های خود را به صورت رایگان به افراد داخل و خارج از چین ارائه می‌دهند. 

آیا open-source کردن مدلهای هوش مصنوعی، تصمیم تجاری خوبی است؟

برای Alibaba ، این یک استراتژی برای رشد تجارت ابری آنها است. Kevin Xu ، بنیان ‌گذار Interconnected Capital، می‌گوید: «از نظر اقتصادی ، اگر مدل open-source  آن‌ها محبوب شود، افراد بیشتری از Alibaba Cloud  برای ساخت برنامه‌های هوش مصنوعی استفاده خواهند کرد و این به نفع کسب‌ و کار Alibaba Cloud است.»

Alibaba  در زمینه هوش مصنوعی open-source  فعالیت های گوناگونی انجام داده است. از انتشار مدل‌های خود به عموم تا ساخت یک پلتفرم open-source  که شبیه Hugging Face است. این فعالیت ها با هدف جذب جامعه هوش مصنوعی در چین است تا بیشتر افراد برای استفاده از سرورهای Alibaba Cloud ثبت‌ نام کنند و هزینه بپردازند.

 حتی برای استارتاپ‌های هوش مصنوعی چینی که در تجارت ابری نیستند، هوش مصنوعی open-source  همچنان یک راهکار برای تجاری ‌سازی سریع‌تر ارائه می‌دهد. از نظر توسعه، هوش مصنوعی open-source به استارتاپ‌ها اجازه می‌دهد مدل‌های open-source  شناخته شده مانند Llama از Meta را به کار گیرند تا فرآیند توسعه محصولات خود را تسریع کنند. از نظر بازار، استارتاپ ها را وادار می‌کند به مدل‌های معماری جایگزین فکر کنند که می‌تواند به آن‌ها کمک کند از جریان اصلی متمایز شوند.

برای شرکت های کوچکتر در صنعت LLM، توسعه مدلی که بتواند با GPT-4 یا Gemini رقابت کند، بسیار سخت است، زیرا OpenAI و Google منابع محاسباتی غنی دارند. این مشکل برای شرکت‌های چینی حتی بیشتر است. زیرا کنترل‌های صادراتی آمریکا اجازه دسترسی به چیپ‌های پیشرفته را نمی دهد. بنابراین شرکت های چینی با کمبود GPU مواجه هستند.

Eugene Cheah ، بنیان‌گذار پلتفرم هوش مصنوعی متن باز Recursal AI، می‌گوید :”گروه‌های چینی تمایل دارند روی ایده‌های جسورانه برای بهبود مدل‌ها آزمایش کنند. برخی از این ایده‌ها نتایجی به همراه داشته‌اند که منجر به مدل‌های کارآمدتر و  ارزان‌تر شده است. در نتیجه می‌تواند برای مشتریان با بودجه محدود جذاب باشد و به شرکت‌های چینی کمک کند در کنار غول‌های هوش مصنوعی، یک بازار تخصصی پیدا کنند”.

 چرا سرمایه گذاری در هوش مصنوعی open-source مهم است؟

مدل‌های هوش مصنوعی open-source  آینده‌ای را نشان می‌دهند که در آن صنعت هوش مصنوعی فقط تحت سلطه شرکت‌های بزرگی مانند OpenAI، Microsoft و Google نیست. همچنین دانشمندان و شرکت‌های چینی قادر به ایجاد مدل‌های زبانی open-source  پیشرفته‌ای هستند که حتی می‌توانند از محصولات رقبای غربی خود پیشی بگیرند.

سرمایه‌ گذاری در هوش مصنوعی open-source می‌تواند فرصت‌های بزرگی را فراهم کند. به شرط آنکه به درستی و با توجه به چالش‌های موجود انجام شود. با بهره‌گیری از مزایای این فناوری و سرمایه‌گذاری در بخش‌های مناسب، شرکت‌ها می‌توانند به رشد و توسعه پایدار دست یابند.

 

بزرگترین مرکز محاسبات کوانتومی توسط شرکت PsiQuantum ساخته می شود

بزرگترین مرکز محاسبات کوانتومی توسط شرکت PsiQuantum ساخته می شود

شرکت PsiQuantum  قصد دارد بزرگترین مرکز محاسبات کوانتومی مستقر در ایالات متحده را احداث کند. این شرکت امروز اعلام کرد که هدفش این است که در طی ۱۰ سال آینده یک کامپیوتر کوانتومی با ظرفیت ۱ میلیون بیت کوانتومی یا کیوبیت داشته باشد. در حال حاضر، بزرگترین کامپیوترهای کوانتومی حدود ۱۰۰۰ کیوبیت ظرفیت دارند.

کامپیوترهای کوانتومی می توانند طیف گسترده‌ای از وظایف را با سرعت‌های بی‌سابقه انجام دهند. شرکت‌ها از روش‌های مختلفی برای ساخت این سیستم‌ها استفاده می‌کنند و به شدت در تلاش هستند تا آن‌ها را به مقیاس بزرگتری برسانند. به عنوان مثال، گوگل و IBM کیوبیت‌ها را از مواد ابررسانا می‌سازند.

IonQ با به دام انداختن یون‌ها با استفاده از میدان‌های الکترومغناطیسی، کیوبیت‌ها را می‌سازد. PsiQuantum  در حال ساخت کیوبیت‌ها از فوتون‌ها است.

یک مزیت بزرگ محاسبات کوانتومی فوتونی نسبت به سیستم‌های ابررسانا، توانایی عمل کردن در دماهای بالاتر است. Pete Shadbolt ، یکی از بنیانگذاران و مدیر علمی PsiQuantum  می‌گوید: “فوتون‌ها حرارت را حس نمی‌کنند و تحت تاثیر تداخل الکترومغناطیسی قرار نمی‌گیرند.” این عدم تداخل، آزمایش این فناوری در آزمایشگاه را آسان‌تر و ارزان‌تر می‌کند.

این ویژگی همچنین نیازهای سرمایشی را کاهش می‌دهد. در نتیجه این فناوری از نظر انرژی کارآمدتر می شود و آسان‌تر گسترش می یابد. کامپیوتر PsiQuantum نمی‌تواند در دمای اتاق عمل کند، زیرا نیاز به آشکارسازهای ابررسانا برای مکان‌ یابی فوتون‌ها و انجام تصحیح خطا دارد. این حسگرها نیاز به خنک شدن تا کمی کمتر از ۴۵۰- درجه فارنهایت دارند. در حالی که این یک دمای بسیار سرد است، اما هنوز هم دستیابی به آن آسان‌تر از سیستم‌های ابررسانا است که نیاز به سرمایش برودتی (cryogenic) دارند.

چالش های ساخت بزرگترین مرکز محاسبات کوانتومی

این شرکت تصمیم گرفته است که کامپیوترهای کوانتومی با مقیاس کوچک‌ (مانند Condor IBM که کمی بیش از ۱۱۰۰ کیوبیت استفاده می‌کند) نسازد. در عوض، هدف آن ساخت و آزمایش سیستمی است که آن را “سیستم‌های میانی” می‌نامد. این شامل تراشه‌ها و آشکارسازهای فوتونی ابررسانا است. شرکت PsiQuantum  می‌گوید هدف از ساخت این سیستم‌های بزرگتر این است که دستگاه‌های کوچکتر قادر به تصحیح کافی خطاها نیستند و با قیمتی واقع ‌بینانه عمل نمی‌کنند.

دستیابی به سیستم‌های کوچکتر برای انجام کارهای مفید، یک حوزه پژوهشی فعال بوده است. اما Shadbolt می‌گوید: ” در چند سال گذشته دیده‌ایم که مردم متوجه این موضوع شده‌اند که سیستم‌های کوچک مفید نخواهند بود.” او می‌گوید: ” برای تصحیح کافی خطاهای اجتناب ‌ناپذیر، باید یک سیستم بزرگ با حدود یک میلیون کیوبیت بسازید.”

این روش منابع را حفظ می‌کند زیرا شرکت زمان خود را برای جمع‌آوری سیستم‌های کوچکتر تلف نمی‌کند. اما نادیده گرفتن سیستم های کوچک باعث می‌شود فناوری PsiQuantum ، به سختی با سیستم های کوچک موجود در بازار قابل رقابت باشد.

این شرکت می  خواهد سال آینده ساخت یک مرکز مشابه در استرالیا را آغاز کند و امیدوار است تا سال ۲۰۲۷ به طور کامل عملیاتی شود. این مرکز، قرار است یک کامپیوتر کوانتومی بزرگ را در خود جای دهد.

موانع قابل توجهی برای ساخت بزرگترین مرکز محاسبات کوانتومی در پیش است. ساخت زیرساخت‌های این مرکز، به ویژه سیستم خنک‌ کننده، کندترین و پرهزینه‌ ترین قسمت ساخت خواهد بود. هنگامی که مرکز نهایتاً ساخته شود، باید الگوریتم‌های کوانتومی که بر روی کامپیوترها اجرا می‌شوند، بهبود یابند. Shadbolt می‌گوید الگوریتم‌های فعلی بسیار گران و پرمصرف هستند.

پیچیدگی پروژه ساخت ممکن است ترسناک به نظر برسد. Shadbolt می گوید:”این می‌تواند پیچیده‌ ترین سیستم الکترونیکی نوری کوانتومی باشد که انسان‌ها تا به حال ساخته‌اند، و این سخت است. اما این حقیقت که مرکز جدید شبیه یک ابر کامپیوتر یا یک مرکز داده است و ما آن را با استفاده از همان کارخانجات، همان تولیدکنندگان قرارداد و همان مهندسان می‌سازیم، به ما کمک می کند.”

فناوری جدید فشرده‌ سازی شفاف در SSD

فناوری جدید فشرده‌ سازی شفاف در SSD

فشرده‌ سازی شفاف در SSD یا (Transparent Compression in SSD)، نوآوری جدیدی است که به محدودیت‌های قدیمی SSDها پاسخ می‌دهد و در عین حال ظرفیت و عملکرد  SSD ها را بهبود می‌دهد.

این فناوری بدون نیاز به مداخله کاربر یا نرم ‌افزارهای خاص، به صورت خودکار داده‌ها را فشرده‌ سازی میکند. به این ترتیب فضای بیشتری برای ذخیره ‌سازی اطلاعات فراهم کرده و فضای دیسک را بهینه می کند.

با پیشرفت تکنولوژی و افزایش روز افزون استفاده از حافظه‌های SSD، نگرانی‌های مشترکی در میان کاربران و متخصصان IT وجود دارد. یک مورد از این نگرانی ها، ترس از پدیده ” write cliff” یا ” توقف ناگهانی” است. کاهش ناگهانی و قابل توجه در عملکرد درایو معمولاً زمانی رخ می‌دهد که SSD به ظرفیت کامل خود نزدیک می‌شود و فضای خالی برای عملیات نوشتن کاهش می‌یابد.

دلایل اصلی بروز پدیده ” write cliff” یا ” توقف ناگهانی”

 

  1. کمبود فضای خالی: SSDها برای حفظ عملکرد بالا به فضای خالی نیاز دارند. وقتی درایو به ظرفیت کامل خود نزدیک می‌شود، عملیات نوشتن کندتر و پیچیده‌تر می‌شود.
  2. کاهش عملکرد کش‌ (Cache): بسیاری از SSDها از حافظه کش برای بهبود عملکرد استفاده می‌کنند. زمانی که فضای خالی کم می‌شود، عملکرد این حافظه کش نیز کاهش می‌یابد.
  3. فرسایش سلول‌های حافظه: سلول‌های حافظه در SSDها به مرور زمان فرسوده می‌شوند و این فرسودگی می‌تواند به کاهش عملکرد منجر شود.

برای جلوگیری از بروز این پدیده، توصیه می‌شود که همیشه مقداری فضای خالی در SSD خود نگه دارید و از پر شدن کامل آن جلوگیری کنید. همچنین، استفاده از تکنیک‌های مدیریت حافظه مانند TRIM و Garbage Collection می‌تواند به حفظ عملکرد بهتر SSD کمک کند.

اما راهی وجود دارد که می‌تواند این مشکل را به تأخیر بیندازد و در عین حال ظرفیت ذخیره ‌سازی را افزایش دهد: فشرده‌ سازی شفاف در SSD.

فشرده‌ سازی شفاف

در شکل بالا عملکرد دو SSD در هنگام پر شدن نشان داده شده است. درایوهایی با فشرده سازی شفاف در SSD ، حتی پس از  پر شدن به کار خود ادامه می دهند. اما با پر شدن حافظه درایوهای SSD معمولی، پدیده ” write cliff” یا ” توقف ناگهانی” برایشان اتفاق می افتد.

 مفهوم فشرده‌ سازی شفاف (Transparent Compression)

فشرده‌ سازی شفاف داده‌ها ویژگی‌ای است که به طور خودکار و بدون نیاز به اقدام کاربر، داده‌ها را پیش از نوشتن بر روی درایو فشرده می‌کند. همچنین هنگام خواندن دادها، آن ها را  از حالت فشرده خارج می‌کند.  این فرایند به صورت پنهانی و بدون دخالت کاربر انجام می‌شود.

مزایای فشرده‌ سازی شفاف در SSD

مزایای اصلی Transparent Compression  در SSD عبارتند از:

  • افزایش ظرفیت ذخیره ‌سازی

یکی از مزایای اصلی فشرده‌ سازی شفاف SSD ، افزایش ظرفیت ذخیره ‌سازی است. بسیاری از داده‌ها قابلیت فشرده‌ سازی دارند و با این کار، حجم بیشتری از داده‌ها می‌تواند در همان فضای فیزیکی ذخیره شود. به عنوان مثال، یک SSD با ظرفیت ۱ ترابایت می‌تواند به لطف فشرده‌ سازی، داده‌هایی را ذخیره کند که معمولاً به درایوی با ظرفیت ۱.۵ یا حتی ۲ ترابایت نیاز دارند.

  • تأخیر در رسیدن به وضعیت “ write cliff” یا ” توقف ناگهانی”

وضعیت ” write cliff” یا ” توقف ناگهانی” در SSDها به دلیل محدودیت‌های حافظه NAND فلش به وجود می‌آید که تنها تعداد معینی از چرخه‌های نوشتن و پاک کردن را تحمل می‌کند. با استفاده از فشرده‌ سازی شفاف در SSD، تعداد چرخه‌های نوشتن و پاک کردن کاهش می‌یابد. این موضوع به معنی افزایش طول عمر SSD و حفظ عملکرد بهینه آن برای مدت طولانی‌تر است.

  • بهبود عملکرد کلی

فشرده‌ سازی شفاف داده‌ها نه تنها به طول عمر و ظرفیت ذخیره ‌سازی کمک می‌کند، بلکه می‌تواند عملکرد کلی را نیز بهبود بخشد. با فشرده‌ سازی شفاف داده‌ها، فرآیندهای خواندن و نوشتن سریع ‌تر می‌شود، زیرا حجم داده‌ها کمتر است.

  • کاهش پهنای باند

در سیستم‌های شبکه‌ای، فشرده‌ سازی شفاف داده‌ها می‌تواند به کاهش حجم داده‌های انتقالی و در نتیجه کاهش پهنای باند مصرفی منجر شود.

نتیجه گیری

به ‌طور کلی، فشرده سازی شفاف در SSD، به کاربران و مدیران سیستم این امکان را می‌دهد که بدون نگرانی از جزئیات فنی فشرده‌ سازی داده‌ها، از مزایای آن بهره‌مند شوند.

با پیشرفت فناوری، راه برای راه‌حل‌های ذخیره ‌سازی کارآمدتر و پایدارتر هموار می شود. بنابراین، هنگام خرید SSD جدید، در نظر گرفتن مدل‌هایی با فشرده‌ سازی شفاف می‌تواند گزینه‌ای هوشمندانه باشد.

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI، به ایجاد زیرساخت‌های پایدارتر و سازگارتر با محیط زیست منجر می‌شود. در حالی که هوش مصنوعی (AI) به مصرف‌ کننده بزرگ انرژی تبدیل شده است، توان محاسباتی مورد نیاز برای AI/ML هر شش ماه دو برابر می‌شود.

شرکت‌های بزرگی مانند AWS، Microsoft و Google به دنبال کاهش ردپای کربنی، افزایش کارایی و کاهش هزینه‌های انرژی هستند.

به همین منظور، زیرساخت‌های IT به سمت معماری محاسباتی توزیع ‌شده و استفاده از پردازنده‌های متنوع (مانند CPUهای مبتنی بر ARM و پردازنده‌های SoC) حرکت می‌کنند.

بارهای کاری بزرگ AI، به شدت به حافظه و شبکه وابسته‌اند. برای حجم بالای داده‌ها در مقیاس پتابایت و اگزابایت، بهینه ‌سازی مصرف انرژی و کارایی زیرساخت ذخیره‌ سازی ضروری است.

بهبود ارتباط بین ذخیره‌ سازی، حافظه و GPUها با استفاده از SSDهایی که قابلیت‌های محاسباتی دارند، برای دستیابی به اهداف کارایی و پایداری انرژی شرکت‌ها حیاتی است.

در ادامه ، تاثیر SSD در کاهش انرژی زیرساخت‌های  AI را شرح می دهیم.

تاثیر مراکز داده در مصرف انرژی

مراکز داده به دلیل مصرف انرژی بالا و اثرات زیست‌ محیطی، مورد توجه قرار گرفته‌اند. بر اساس گزارش وزارت انرژی ایالات متحده، مراکز داده تا ۵۰ برابر بیشتر از ساختمان‌های اداری تجاری معمولی انرژی مصرف می‌کنند.

در سال ۲۰۲۲، مصرف انرژی این بخش‌ها تقریباً ۲ درصد از تقاضای جهانی انرژی را تشکیل می‌داد و پیش ‌بینی می‌شود تا سال ۲۰۲۶ این تقاضا دو برابر شود.

راهکارهای SSD در بهبود کارایی انرژی

SSDها با ذخیره‌ سازی داده‌ها بر روی مدارهای مجتمع و استفاده از حافظه فلش، سرعت دسترسی به داده‌ها را افزایش داده و مصرف انرژی را کاهش می‌دهند. این دستگاه‌ها در مقایسه با HDDهای سنتی، دارای سرعت دسترسی بالاتر، مصرف انرژی کمتر، دوام بیشتر و عملیات بی ‌صداتر هستند.

در راهکارهای محاسباتی ذخیره‌ سازی مانند SSDها، بخشی از پردازش داده‌ها به صورت محلی روی درایو انجام می‌شود، که منجر به کاهش تأخیر و مصرف انرژی می شود و استفاده از پهنای باند را کاهش می دهد. این رویکرد باعث افزایش حریم خصوصی و امنیت داده‌ها می‌شود.

استفاده از پردازنده‌های مبتنی بر ARM

پردازنده‌های مبتنی بر ARM با طراحی معماری RISC پیشرفته، مصرف انرژی کمتر و کارایی بهتری نسبت به معماری‌های سنتی x86 CISC دارند. این پردازنده‌ها با مصرف انرژی کمتر و کارایی بالاتر، گزینه محبوبی برای الگوریتم‌های AI و ML در مراکز داده هستند.

نتیجه‌گیری

فناوری‌های نوین SSD با فشرده ‌سازی و تسریع ذخیره سازی داده‌ها، عملکرد و کارایی را دو برابر می‌کنند و به مشتریان در دستیابی به پایداری سیستم کمک می‌کنند.

فناوری‌های نوآورانه SSD ،  سرعت AI در زیرساخت‌های داده‌ای موجود را افزایش می دهند و توازن بین پیشرفت های تکنولوژیکی و مسئولیت زیست‌ محیطی را حفظ می‌کند.  SSD به عنوان یک راهکار محاسباتی ذخیره ‌سازی، به کسب ‌و کارها کمک می‌کند تا از زیرساخت‌های داده‌ای خود بهره‌وری بیشتری ببرند.