ژنوم ما شبیه به یک مدل هوش مصنوعی مولد است 

ژنوم ما شبیه به یک مدل هوش مصنوعی مولد است 

ایده‌ جدیدی مطرح شده است که از حوزه هوش مصنوعی برای درک ژنوم استفاده می‌کند و آن این است : “شباهت ژنوم به هوش مصنوعی مولد”. دو محقق استدلال می‌کنند که ژنوم بیشتر شبیه به یک مدل مولد عمل می کند. نوعی از هوش مصنوعی که می‌تواند چیزهای جدیدی ایجاد کند.

شما ممکن است با این نوع ابزارهای هوش مصنوعی آشنا باشید. همان‌هایی که می‌توانند متن، تصاویر یا حتی فیلم‌ها را از ورودی‌های مختلف تولید کنند. آیا ژنوم ما واقعاً به همین شکل عمل می‌کند؟ این ایده‌ای جذاب است. بیایید آن را بررسی کنیم.

ژنوم چیست و چگونه عمل می‌کند؟

ژنوم چه کاری انجام می‌دهد؟ شاید شنیده باشید که ژنوم نقشه‌ای برای یک موجود زنده است، یا مانند یک دستور پخت عمل می‌کند. اما ساخت یک موجود زنده بسیار پیچیده‌تر از ساختن یک خانه یا پختن یک کیک است. در مدارس معمولاً به ما آموزش داده می‌شود که ژنوم چیزی شبیه به یک برنامه کامپیوتری است که دستورالعمل‌های لازم برای ساخت سلول‌ها و بافت‌های بدن را در خود دارد.

اما Kevin Mitchell ، عصب‌ژنتیک‌شناس از کالج ترینیتی دوبلین، معتقد است که این استعاره وقتی با دقت بیشتری بررسی شود، دچار مشکل می‌شود. او می‌گوید که ژنوم خیلی پیچیده‌تر از یک نقشه یا برنامه ساده است.

بر خلاف نقشه‌ها یا برنامه‌های کامپیوتری، ژنوم یک مجموعه‌ای از دستورالعمل‌ها نیست که به صورت خطی اجرا شوند. مثلا مجموعه‌ای از دستورالعمل‌ها که ابتدا مغز، سپس سر و بعد گردن و غیره را می سازد. اما میدانیم که اینگونه نیست.

استعاره رایج دیگری، ژنوم را به نقشه‌ای برای بدن تشبیه می‌کند به طوری که هر بخش از نقشه نمایانگر بخشی از محصول نهایی است. اینطور نیست که مثلاً شما یک ژن برای آرنج و یک ژن برای ابرو داشته باشید و هر ژن به طور دقیق برای یک قسمت خاص از بدن تعیین شده باشد.

بلکه ژن‌های مختلف می‌توانند به طور همزمان در ساخت قسمت‌های مختلف بدن نقش داشته باشند و بسته به شرایط مختلف، عملکردهای متفاوتی داشته باشند. این بسیار پیچیده‌تر از یک نقشه است.

سپس استعاره دستور پخت مطرح می‌شود. به نوعی، این استعاره دقیق‌تر از نقشه یا برنامه است. در این استعاره ژن‌هایمان را به عنوان مجموعه‌ای از مواد اولیه و دستورالعمل‌ها تصور می کنیم و محصول نهایی تحت تأثیر عواملی مانند دمای فر یا نوع ظرف پخت قرار می‌گیرد. به هر حال، دوقلوهای همسان با DNA یکسان متولد می‌شوند، اما اغلب تا زمان بلوغ تفاوت‌های زیادی دارند.

اما استعاره دستور پخت نیز به نظر Mitchell خیلی کلی است.

ایده‌ جدیدی مطرح شده است که از حوزه هوش مصنوعی برای درک ژنوم استفاده می‌کند و آن این است : “شباهت ژنوم به هوش مصنوعی مولد”. دو محقق استدلال می‌کنند که ژنوم بیشتر شبیه به یک مدل مولد عمل می کند. نوعی از هوش مصنوعی که می‌تواند چیزهای جدیدی ایجاد کند.

شما ممکن است با این نوع ابزارهای هوش مصنوعی آشنا باشید. همان‌هایی که می‌توانند متن، تصاویر یا حتی فیلم‌ها را از ورودی‌های مختلف تولید کنند. آیا ژنوم ما واقعاً به همین شکل عمل می‌کند؟ این ایده‌ای جذاب است. بیایید آن را بررسی کنیم.

ژنوم چیست و چگونه عمل می‌کند؟

ژنوم چه کاری انجام می‌دهد؟ شاید شنیده باشید که ژنوم نقشه‌ای برای یک موجود زنده است، یا مانند یک دستور پخت عمل می‌کند. اما ساخت یک موجود زنده بسیار پیچیده‌تر از ساختن یک خانه یا پختن یک کیک است. در مدارس معمولاً به ما آموزش داده می‌شود که ژنوم چیزی شبیه به یک برنامه کامپیوتری است که دستورالعمل‌های لازم برای ساخت سلول‌ها و بافت‌های بدن را در خود دارد.

اما Kevin Mitchell ، عصب‌ژنتیک‌شناس از کالج ترینیتی دوبلین، معتقد است که این استعاره وقتی با دقت بیشتری بررسی شود، دچار مشکل می‌شود. او می‌گوید که ژنوم خیلی پیچیده‌تر از یک نقشه یا برنامه ساده است.

بر خلاف نقشه‌ها یا برنامه‌های کامپیوتری، ژنوم یک مجموعه‌ای از دستورالعمل‌ها نیست که به صورت خطی اجرا شوند. مثلا مجموعه‌ای از دستورالعمل‌ها که ابتدا مغز، سپس سر و بعد گردن و غیره را می سازد. اما میدانیم که اینگونه نیست.

استعاره رایج دیگری، ژنوم را به نقشه‌ای برای بدن تشبیه می‌کند به طوری که هر بخش از نقشه نمایانگر بخشی از محصول نهایی است. اینطور نیست که مثلاً شما یک ژن برای آرنج و یک ژن برای ابرو داشته باشید و هر ژن به طور دقیق برای یک قسمت خاص از بدن تعیین شده باشد.

بلکه ژن‌های مختلف می‌توانند به طور همزمان در ساخت قسمت‌های مختلف بدن نقش داشته باشند و بسته به شرایط مختلف، عملکردهای متفاوتی داشته باشند. این بسیار پیچیده‌تر از یک نقشه است.

سپس استعاره دستور پخت مطرح می‌شود. به نوعی، این استعاره دقیق‌تر از نقشه یا برنامه است. در این استعاره ژن‌هایمان را به عنوان مجموعه‌ای از مواد اولیه و دستورالعمل‌ها تصور می کنیم و محصول نهایی تحت تأثیر عواملی مانند دمای فر یا نوع ظرف پخت قرار می‌گیرد. به هر حال، دوقلوهای همسان با DNA یکسان متولد می‌شوند، اما اغلب تا زمان بلوغ تفاوت‌های زیادی دارند.

اما استعاره دستور پخت نیز به نظر Mitchell خیلی کلی است.

شباهت ژنوم به هوش مصنوعی مولد

Mitchell و همکارش Nick Cheney در دانشگاه Vermont ، از مفاهیم هوش مصنوعی استفاده کردند تا آنچه ژنوم انجام می‌دهد را بهتر توصیف کنند. میچل به مدل‌های هوش مصنوعی مولد مانند Midjourney و DALL-E اشاره می‌کند که می‌توانند تصاویر را از ورودی‌های متنی تولید کنند. این مدل‌ها با فشرده‌سازی عناصر تصاویر موجود، توانایی ایجاد تصاویر جدید را دارند.

فرض کنید شما متنی را برای ایجاد تصویری از یک اسب می‌نویسید. این مدل‌ها بر اساس تعداد زیادی از تصاویر اسب آموزش دیده‌اند و این تصاویر به نحوی فشرده شده‌اند که مدل‌ها بتوانند عناصری را که می‌توان آن‌ها را “اسب‌گونه” نامید، به دست آورند. هوش مصنوعی سپس می‌تواند تصویری جدید ایجاد کند که این عناصر را در بر دارد.

کد ژنتیکی ما تا حدودی شبیه به DALL-E عمل می‌کند. به طور مشابه، ژنوم انسانی نیز با استفاده از اطلاعات فشرده شده‌ای که طی فرآیند تکامل جمع‌آوری شده‌اند، قادر به ایجاد موجودات جدید است. این اطلاعات امکان تغییر و تطبیق زیادی دارند و به همین دلیل موجودات زنده با وجود شباهت‌های ژنتیکی، تفاوت‌های زیادی با یکدیگر دارند.

نیاز به استعاره‌های جدید برای درک بهتر ژنوم

Mitchell معتقد است که برای درک بهتر ژنوم و نقش‌های پیچیده آن، نیاز به استعاره‌های دقیق‌تری داریم. فناوری‌های جدید به دانشمندان این امکان را می‌دهد که عمیق‌تر از همیشه به مطالعه ژن‌ها بپردازند و نقش آن‌ها را در توسعه موجودات زنده بررسی کنند.

او امیدوار است که این مفاهیم جدید به توسعه مدل‌های ریاضی کمک کند و به ما درک بهتری از پیچیدگی‌های روابط بین ژن‌ها و موجوداتی که از آن‌ها به وجود می‌آیند بدهد. به عبارتی دقیقاً چگونه اجزای ژنوم ما به توسعه ما کمک می‌کنند.

پیش‌ بینی آب و هوا با هوش مصنوعی و فیزیک

پیش‌ بینی آب و هوا با هوش مصنوعی و فیزیک

کارشناسان آب و هوا بر سر این موضوع که کدامیک از دو روش هوش مصنوعی یا روش‌های سنتی، موثرتر هستند، اختلاف نظر دارند. در مدل جدیدی که که توسط شرکت Google توسعه یافته، پیش بینی آب و هوا با هوش مصنوعی و فیزیک انجام می شود. در واقع محققان به هر دو روش متکی هستند.

محققان گوگل یک مدل جدید پیش‌ بینی وضعیت آب و هوا ساخته‌اند که یادگیری ماشین را با تکنیک‌های معمولی ترکیب می‌کند. این احتمال وجود دارد که پیش‌ بینی‌های دقیقی را با هزینه کمتری ارائه دهد.

این مدل که NeuralGCM نام دارد و در مقاله‌ای در Nature شرح داده شده است، شکافی که در سالهای اخیر میان کارشناسان پیش‌ بینی وضعیت آب و هوا ایجاد شده است را پر می‌کند.

سرعت و دقت پیش‌ بینی با NeuralGCM

تکنیک‌های جدید یادگیری ماشین که وضعیت آب و هوا را با یادگیری از داده‌های سال‌های گذشته پیش‌ بینی می‌کنند، بسیار سریع و کارآمد هستند. اما ممکن است در پیش‌ بینی‌های بلندمدت مشکل داشته باشند.

از طرف دیگر مدل‌های گردش عمومی، که در ۵۰ سال گذشته برای پیش‌ بینی وضعیت آب و هوا استفاده می شدند، از معادلات پیچیده‌ای برای مدل ‌سازی تغییرات جوی استفاده می‌کنند. این مدل ها پیش‌ بینی‌های دقیقی ارائه می‌دهند، اما بسیار کند و پرهزینه هستند.

کارشناسان در مورد اینکه کدام ابزار در آینده قابل اعتمادتر خواهد بود، اختلاف نظر دارند. اما مدل جدید google تلاش می‌کند هر دو را ترکیب کند.

Stephan Hoyer ، پژوهشگر هوش مصنوعی در Google Research می‌گوید: “این موضوع فیزیک در مقابل هوش مصنوعی نیست. در واقع ترکیب فیزیک و هوش مصنوعی است.”

سیستم جدید همچنان از یک مدل سنتی برای کار کردن برخی از تغییرات بزرگ جوی که برای پیش‌ بینی لازم است، استفاده می‌کند. سپس در جایی که مدل‌های بزرگتر معمولاً ناکام می‌مانند، هوش مصنوعی را وارد می‌کند.

این سیستم معمولاً برای پیش‌ بینی در مقیاس‌های کوچکتر از حدود ۲۵ کیلومتر، مانند پیش‌ بینی تشکیل ابرها یا اقلیم‌های منطقه‌ای (مثلاً مه در سان‌فرانسیسکو) عملکرد خوبی دارد.Hoyer  می گوید:”در این جا ما هوش مصنوعی را به طور انتخابی برای اصلاح خطاهایی که در مقیاس‌های کوچک به وجود می آیند، وارد می‌کنیم.”

مزایای مدل ترکیبی NeuralGCM

به گفته محققان، نتیجه مدلی است که می‌تواند پیش‌ بینی‌های با کیفیت را سریع‌تر و با توان محاسباتی کمتر تولید کند. آنها می‌گویند NeuralGCM به اندازه پیش‌ بینی‌های یک تا ۱۵ روزه مرکز پیش‌ بینی میان‌مدت جوی اروپا (ECMWF) که یک سازمان شریک در این پژوهش است، دقیق است.

اما وعده واقعی فناوری‌هایی مانند این، بهبود پیش‌ بینی‌های آب و هوا در منطقه محلی شما نیست. بلکه برای بهبود پیش‌ بینی‌ها در رویدادهای اقلیمی بزرگتری است که مدل ‌سازی آنها با تکنیک‌های معمولی بسیار پرهزینه است.

این امکانات می‌تواند از پیش‌ بینی طوفان‌های گرمسیری تا مدل ‌سازی تغییرات اقلیمی پیچیده‌تر که سال‌ها با آن فاصله دارند، متغیر باشد.

آینده پیش‌ بینی آب و هوا با هوش مصنوعی

به نظر Aaron Hill استادیار دانشکده هواشناسی دانشگاه اوکلاهما، شبیه ‌سازی مکرر کره زمین یا برای مدت های طولانی، بسیار پرهزینه است.  این بدان معناست که بهترین مدل‌های آب و هوایی به دلیل هزینه‌های بالای توان محاسباتی محدود می‌شوند.

مدل‌های مبتنی بر هوش مصنوعی واقعاً فشرده‌تر هستند. آموزش معمولاً با استفاده از داده‌های ۴۰ ساله آب و هوا از ECMWF انجام می‌شود. پس از آن یک مدل یادگیری ماشین مانند Google GraphCast می‌تواند با کمتر از ۵۵۰۰ خط کد اجرا شود. در حالی که مدل اداره ملی اقیانوسی و جوی، نزدیک به ۳۷۷۰۰۰ خط کد نیاز دارد.

به گفته Hill ، NeuralGCM به خوبی نشان می‌دهد که هوش مصنوعی می‌تواند برای بخش‌های خاصی از مدل ‌سازی آب و هوا وارد شود و در حالی که همچنان مزایای سیستم‌های سنتی حفظ می‌شود، فرآیندها را سریع‌تر کند. او می‌گوید: “ما نیازی نداریم تمام دانشی که در ۱۰۰ سال گذشته درباره نحوه کار جو به دست آورده‌ایم را دور بیندازیم. ما می‌توانیم در واقع آن را با قدرت هوش مصنوعی و یادگیری ماشین ترکیب کنیم.”

Hoyer می‌گوید استفاده از این مدل برای پیش ‌بینی وضعیت آب و هوای کوتاه‌ مدت مفید بوده تا دقت پیش ‌بینی‌ها را تایید کند. اما هدف اصلی این است که بتوان از آن برای مدل ‌سازی بلند مدت، به‌ ویژه برای خطرات شدید آب و هوایی استفاده کرد.

مدل NeuralGCM منبع باز خواهد بود. Hoyer می‌گوید منتظر است تا دانشمندان هواشناسی از این مدل در تحقیقات خود استفاده کنند. اما ممکن است این مدل فقط برای دانشگاهیان جذاب نباشد. بلکه تاجران کالا و برنامه ‌ریزان کشاورزی بنیز به دنبال پیش‌ بینی‌هایی با وضوح بالا هستند.

همچنین مدل‌های مورد استفاده شرکت‌های بیمه، در تلاش هستند که تاثیر تغییرات آب و هوایی را برای مواردی مانند بیمه سیل یا بیمه آب و هوای شدید، در نظر بگیرند.

Hill می‌گوید با پیشرفت های اخیر در پیش‌ بینی وضعیت آب و هوا ، بسیاری از کارشناسان به هوش مصنوعی روی آورده اند. اما به علت سرعت بالای توسعه، همگام شدن با پیشرفت برای جامعه پژوهشی سخت است.

او می‌گوید: “به نظر می‌رسد هر دو ماه یک مدل جدید توسط Google, Nvidia,  یا Huawei منتشر می‌شود. برای محققان دشوار است که بفهمند کدام ابزارهای جدید مفیدتر خواهند بود و بر اساس آن برای دریافت بودجه تحقیقاتی اقدام کنند.”

چرا سرمایه گذاری در هوش مصنوعی open-source برای شرکت های چینی مهم است؟

چرا سرمایه گذاری در هوش مصنوعی open-source برای شرکت های چینی مهم است؟

سرمایه‌ گذاری در هوش مصنوعی open-source با فراهم کردن فرصت‌های نوآورانه و کاهش هزینه‌ها، به شرکت‌ها کمک کند تا در این حوزه پیشرو باشند.

هوش مصنوعی open-source  برای Alibaba  و استارتاپ های هوش مصنوعی چینی، فرصتی برای تجاری‌ سازی سریع‌ تر و کسب شناخت جهانی فراهم می‌کند. بسیاری از مردم، به ‌ویژه کسانی که با چین یا زبان چینی آشنایی ندارند، احتمالاً نمی‌دانند چگونه این مدل‌ها را امتحان کنند.

 خبر خوب این است که واقعاً این کار سخت نیست! بسیاری از مدل‌های هوش مصنوعی چینی در خارج از کشور بیشتر از آنچه انتظار دارید قابل دسترسی هستند. شما می‌توانید به راحتی با ثبت ‌نام در وب ‌سایت‌های یا استفاده از پلتفرم‌هایی مانند Hugging Face به اکثر آن‌ها دسترسی پیدا کنید.

روند open-source  کردن مدل‌های هوش مصنوعی در حال افزایش است و دسترسی به آن‌ها را برای مخاطبان خارج از کشور آسان‌تر می‌کند.

نمونه های سرمایه‌ گذاری در هوش مصنوعی open-source

 به عنوان مثال، Qwen (یا به چینی ، Tongyi Qianwen) مدل اصلی هوش مصنوعی Alibaba  است. برخلاف رقبای داخلی مانند Baidu ، ByteDance ،Tencent ، شرکت Alibaba  تصمیم گرفته این مدل را به صورت open-source  ارائه دهد و به توسعه ‌دهندگان و مشتریان تجاری اجازه دهد آن را به صورت رایگان استفاده کنند.

این مدل که در ماه ژوئن به ‌روزرسانی ۲.۰ را دریافت کرد، در سطح بین‌المللی توجه زیادی را به خود جلب کرده است. در رتبه‌ بندی اخیر Hugging Face که عملکرد همه مدل‌های زبانی open-source  بزرگ را مقایسه می‌کند، Qwen2 در صدر قرار گرفت و از مدل‌های Meta’s Llama 3 و Microsoft’s Phi-3 پیشی گرفت.

 به همین ترتیب، چندین استارتاپ چینی مانند DeepSeek و ۰۱.AI نیز تصمیم گرفته‌اند مدل‌های خود را open-source  کنند و عملکرد محصولات آن‌ها نیز جایگاه بالایی در لیست رتبه ‌بندی کسب کرده است. این شرکت‌ها مدل‌های خود را به صورت رایگان به افراد داخل و خارج از چین ارائه می‌دهند. 

آیا open-source کردن مدلهای هوش مصنوعی، تصمیم تجاری خوبی است؟

برای Alibaba ، این یک استراتژی برای رشد تجارت ابری آنها است. Kevin Xu ، بنیان ‌گذار Interconnected Capital، می‌گوید: «از نظر اقتصادی ، اگر مدل open-source  آن‌ها محبوب شود، افراد بیشتری از Alibaba Cloud  برای ساخت برنامه‌های هوش مصنوعی استفاده خواهند کرد و این به نفع کسب‌ و کار Alibaba Cloud است.»

Alibaba  در زمینه هوش مصنوعی open-source  فعالیت های گوناگونی انجام داده است. از انتشار مدل‌های خود به عموم تا ساخت یک پلتفرم open-source  که شبیه Hugging Face است. این فعالیت ها با هدف جذب جامعه هوش مصنوعی در چین است تا بیشتر افراد برای استفاده از سرورهای Alibaba Cloud ثبت‌ نام کنند و هزینه بپردازند.

 حتی برای استارتاپ‌های هوش مصنوعی چینی که در تجارت ابری نیستند، هوش مصنوعی open-source  همچنان یک راهکار برای تجاری ‌سازی سریع‌تر ارائه می‌دهد. از نظر توسعه، هوش مصنوعی open-source به استارتاپ‌ها اجازه می‌دهد مدل‌های open-source  شناخته شده مانند Llama از Meta را به کار گیرند تا فرآیند توسعه محصولات خود را تسریع کنند. از نظر بازار، استارتاپ ها را وادار می‌کند به مدل‌های معماری جایگزین فکر کنند که می‌تواند به آن‌ها کمک کند از جریان اصلی متمایز شوند.

برای شرکت های کوچکتر در صنعت LLM، توسعه مدلی که بتواند با GPT-4 یا Gemini رقابت کند، بسیار سخت است، زیرا OpenAI و Google منابع محاسباتی غنی دارند. این مشکل برای شرکت‌های چینی حتی بیشتر است. زیرا کنترل‌های صادراتی آمریکا اجازه دسترسی به چیپ‌های پیشرفته را نمی دهد. بنابراین شرکت های چینی با کمبود GPU مواجه هستند.

Eugene Cheah ، بنیان‌گذار پلتفرم هوش مصنوعی متن باز Recursal AI، می‌گوید :”گروه‌های چینی تمایل دارند روی ایده‌های جسورانه برای بهبود مدل‌ها آزمایش کنند. برخی از این ایده‌ها نتایجی به همراه داشته‌اند که منجر به مدل‌های کارآمدتر و  ارزان‌تر شده است. در نتیجه می‌تواند برای مشتریان با بودجه محدود جذاب باشد و به شرکت‌های چینی کمک کند در کنار غول‌های هوش مصنوعی، یک بازار تخصصی پیدا کنند”.

 چرا سرمایه گذاری در هوش مصنوعی open-source مهم است؟

مدل‌های هوش مصنوعی open-source  آینده‌ای را نشان می‌دهند که در آن صنعت هوش مصنوعی فقط تحت سلطه شرکت‌های بزرگی مانند OpenAI، Microsoft و Google نیست. همچنین دانشمندان و شرکت‌های چینی قادر به ایجاد مدل‌های زبانی open-source  پیشرفته‌ای هستند که حتی می‌توانند از محصولات رقبای غربی خود پیشی بگیرند.

سرمایه‌ گذاری در هوش مصنوعی open-source می‌تواند فرصت‌های بزرگی را فراهم کند. به شرط آنکه به درستی و با توجه به چالش‌های موجود انجام شود. با بهره‌گیری از مزایای این فناوری و سرمایه‌گذاری در بخش‌های مناسب، شرکت‌ها می‌توانند به رشد و توسعه پایدار دست یابند.

 

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI

تاثیر SSD در کاهش انرژی زیرساخت‌های  AI، به ایجاد زیرساخت‌های پایدارتر و سازگارتر با محیط زیست منجر می‌شود. در حالی که هوش مصنوعی (AI) به مصرف‌ کننده بزرگ انرژی تبدیل شده است، توان محاسباتی مورد نیاز برای AI/ML هر شش ماه دو برابر می‌شود.

شرکت‌های بزرگی مانند AWS، Microsoft و Google به دنبال کاهش ردپای کربنی، افزایش کارایی و کاهش هزینه‌های انرژی هستند.

به همین منظور، زیرساخت‌های IT به سمت معماری محاسباتی توزیع ‌شده و استفاده از پردازنده‌های متنوع (مانند CPUهای مبتنی بر ARM و پردازنده‌های SoC) حرکت می‌کنند.

بارهای کاری بزرگ AI، به شدت به حافظه و شبکه وابسته‌اند. برای حجم بالای داده‌ها در مقیاس پتابایت و اگزابایت، بهینه ‌سازی مصرف انرژی و کارایی زیرساخت ذخیره‌ سازی ضروری است.

بهبود ارتباط بین ذخیره‌ سازی، حافظه و GPUها با استفاده از SSDهایی که قابلیت‌های محاسباتی دارند، برای دستیابی به اهداف کارایی و پایداری انرژی شرکت‌ها حیاتی است.

در ادامه ، تاثیر SSD در کاهش انرژی زیرساخت‌های  AI را شرح می دهیم.

تاثیر مراکز داده در مصرف انرژی

مراکز داده به دلیل مصرف انرژی بالا و اثرات زیست‌ محیطی، مورد توجه قرار گرفته‌اند. بر اساس گزارش وزارت انرژی ایالات متحده، مراکز داده تا ۵۰ برابر بیشتر از ساختمان‌های اداری تجاری معمولی انرژی مصرف می‌کنند.

در سال ۲۰۲۲، مصرف انرژی این بخش‌ها تقریباً ۲ درصد از تقاضای جهانی انرژی را تشکیل می‌داد و پیش ‌بینی می‌شود تا سال ۲۰۲۶ این تقاضا دو برابر شود.

راهکارهای SSD در بهبود کارایی انرژی

SSDها با ذخیره‌ سازی داده‌ها بر روی مدارهای مجتمع و استفاده از حافظه فلش، سرعت دسترسی به داده‌ها را افزایش داده و مصرف انرژی را کاهش می‌دهند. این دستگاه‌ها در مقایسه با HDDهای سنتی، دارای سرعت دسترسی بالاتر، مصرف انرژی کمتر، دوام بیشتر و عملیات بی ‌صداتر هستند.

در راهکارهای محاسباتی ذخیره‌ سازی مانند SSDها، بخشی از پردازش داده‌ها به صورت محلی روی درایو انجام می‌شود، که منجر به کاهش تأخیر و مصرف انرژی می شود و استفاده از پهنای باند را کاهش می دهد. این رویکرد باعث افزایش حریم خصوصی و امنیت داده‌ها می‌شود.

استفاده از پردازنده‌های مبتنی بر ARM

پردازنده‌های مبتنی بر ARM با طراحی معماری RISC پیشرفته، مصرف انرژی کمتر و کارایی بهتری نسبت به معماری‌های سنتی x86 CISC دارند. این پردازنده‌ها با مصرف انرژی کمتر و کارایی بالاتر، گزینه محبوبی برای الگوریتم‌های AI و ML در مراکز داده هستند.

نتیجه‌گیری

فناوری‌های نوین SSD با فشرده ‌سازی و تسریع ذخیره سازی داده‌ها، عملکرد و کارایی را دو برابر می‌کنند و به مشتریان در دستیابی به پایداری سیستم کمک می‌کنند.

فناوری‌های نوآورانه SSD ،  سرعت AI در زیرساخت‌های داده‌ای موجود را افزایش می دهند و توازن بین پیشرفت های تکنولوژیکی و مسئولیت زیست‌ محیطی را حفظ می‌کند.  SSD به عنوان یک راهکار محاسباتی ذخیره ‌سازی، به کسب ‌و کارها کمک می‌کند تا از زیرساخت‌های داده‌ای خود بهره‌وری بیشتری ببرند.

قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده‌های آموزشی هوش مصنوعی بسیار بالا است و فقط شرکت های فناوری بزرگ از پس پرداخت هزینه ها برمی آیند. داده‌ها در قلب سیستم‌های پیشرفته هوش مصنوعی امروز قرار دارند. اما هزینه آن‌ها روز به روز بیشتر می‌شود و دسترسی به آنها را برای تمامی شرکت‌ها، غیر ممکن می سازد.

شرکت های کوچکتر قادر به پرداخت هزینه ی این داده ها نیستند و بنابراین قادر به توسعه یا مطالعه مدل های هوش مصنوعی نخواهند بود. این محدودیت منجر به عدم بررسی مستقل شیوه های توسعه AI می شود.

اهمیت داده‌های آموزشی

سال گذشته، James Betker ، محقق OpenAI ، در وبلاگ شخصی خود درباره ماهیت مدل‌های مولد هوش مصنوعی و دیتاست‌هایی که روی آن‌ها آموزش داده می‌شوند، نوشت. Betker ادعا کرد که داده‌های آموزشی کلید سیستم‌های هوش مصنوعی پیشرفته و قدرتمند هستند. او نوشت: “با آموزش روی یک دیتاست به مدت کافی، تقریباً هر مدلی به همان نقطه همگرا می‌شود.”

سیستم‌های هوش مصنوعی مولد اساساً مدل‌های احتمالی هستند، یک مجموعه بزرگ از آمار. آن‌ها بر اساس حجم زیادی از مثال‌ها، حدس می‌زنند که کدام داده بیشتر به “مفهوم مورد نظر” می‌خورد. از این رو، منطقی به نظر می‌رسد که هرچه مدل‌ها مثال‌های بیشتری داشته باشند، عملکرد بهتری خواهند داشت.

Kyle دانشمند ارشد تحقیقات کاربردی در موسسه هوش مصنوعی Allen ، توضیح داد که داده ها باعث بهبود عملکرد می‌شود. او تأکید کرد که کیفیت داده‌ها مهم‌تر از کمیت است. Kyle افزود: “ممکن است یک مدل کوچک با داده‌های به دقت طراحی‌ شده از یک مدل بزرگتر بهتر عمل کند.”

بسیاری از مدل‌های هوش مصنوعی با داشتن برچسب‌هایی که توسط انسان‌ها بر داده‌ها زده شده، آموزش می‌بینند. اما افزایش تأکید بر دیتاست‌های بزرگ و با کیفیت، توسعه هوش مصنوعی را به دست چند شرکت محدود با بودجه‌های میلیارد دلاری می‌سپارد. همچنین رقابت برای به دست آوردن داده‌های آموزشی، در مواردی منجر به رفتارهای غیر اخلاقی و حتی غیر قانونی می‌شود.

چالش‌ قیمت داده‌های آموزشی

توسعه دهندگان مدل‌های هوش مصنوعی، اغلب داده‌های گسترده‌ای را از وب عمومی جمع‌آوری می‌کنند که برخی از آن‌ها تحت حق کپی‌ رایت قرار دارند. این روند باعث شده تا بسیاری از شرکت‌های بزرگ فناوری بدون رضایت صاحبان محتوا، داده‌ها را جمع‌آوری کنند. این موضوع منجر به نگرانی‌های قانونی و اخلاقی شده است.

OpenAI صدها میلیون دلار برای لایسنس کردن محتوا از ناشران خبری، کتابخانه‌های رسانه‌ای و غیره هزینه کرده است. با توجه به رشد بازار داده‌های آموزشی، پلتفرم‌ها نیز به دنبال فروش داده‌ها با قیمت‌های بالا هستند. این امر تحقیقات مستقل و توسعه هوش مصنوعی را به خطر می‌اندازد.

نتیجه‌گیری

تلاش‌های مستقل و غیرانتفاعی برای ایجاد دیتاست‌های بزرگی که هر کسی بتواند از آن‌ها برای آموزش مدل‌های هوش مصنوعی استفاده کند، وجود دارد. اما این تلاش‌ها با چالش‌های حقوقی و اخلاقی روبرو هستند. نوآوری عمده در داده های مصنوعی یا معماری اساسی می تواند وضعیت موجود را عوض کند. اما به نظر نمی رسد که به زودی محقق شود.

سوال اصلی این است که آیا این تلاش‌های مستقل می‌توانند با شرکت‌های بزرگ فناوری همگام شوند. تا زمانی که جمع‌آوری و گزینش داده‌ها به منابع وابسته باشد، پاسخ احتمالاً منفی است. مگر اینکه یک پیشرفت تحقیقاتی، میدان بازی را متعادل کند.

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI، یکی از پیشروان صنعت هوش مصنوعی، هشداری جدی برای امنیت داده‌های حساس در این شرکت‌هاست.  به نظر می‌رسد این نفوذ سطحی بوده و هکرها تنها به یک انجمن بحث کارمندان دسترسی پیدا کرده اند.

با این حال، این حادثه نشان می‌دهد که شرکت‌های هوش مصنوعی به سرعت به اهداف جذابی برای هکرها تبدیل شده‌اند. با توجه به حجم عظیم داده‌های آموزشی با کیفیت بالا، تعاملات گسترده کاربران و داده‌های مشتریان، اهمیت حفظ امنیت و حریم خصوصی در این صنعت بیش از پیش احساس می‌شود.

 

بررسی نفوذ به OpenAI

کارمند سابق OpenAI، Leopold Aschenbrenner، اخیراً در یک پادکست آن را یک “حادثه امنیتی عمده” نامید. اما منابع ناشناس در شرکت به روزنامه نیویورک تایمز گفتند که هکر فقط به یک انجمن بحث کارمندان دسترسی پیدا کرده است.

هیچ نفوذ امنیتی نباید واقعاً بی‌اهمیت تلقی شود و استراق سمع در بحث‌های داخلی توسعه OpenAI قطعاً ارزش خود را دارد. اما این با دسترسی یک هکر به سیستم‌های داخلی، مدل‌های در حال پیشرفت، نقشه‌های راه محرمانه و غیره فاصله زیادی دارد.

 

اهمیت داده‌های آموزشی

بیایید درباره سه نوع داده‌ای صحبت کنیم که OpenAI و به میزان کمتری سایر شرکت‌های هوش مصنوعی ایجاد کرده یا به آنها دسترسی دارند: داده‌های آموزشی با کیفیت بالا، تعاملات حجیم کاربران، و داده‌های مشتریان.

مشخص نیست که دقیقاً چه داده‌های آموزشی دارند، زیرا شرکت‌ها درباره انبارهای خود به شدت محرمانه هستند. اما اشتباه است که فکر کنیم آنها فقط توده‌های بزرگی از داده‌های وب هستند.

بله، آنها از داده‌های وب یا مجموعه‌هایی مانند Pile استفاده می‌کنند، اما شکل دادن به آن داده‌های خام به چیزی که بتوان برای آموزش مدلی مانند GPT-4 استفاده کرد، یک کار بزرگ است. ساعت‌ها کار انسانی برای انجام این کار لازم است زیرا این کار فقط به صورت جزئی قابل اتوماسیون است.

ارزش داده‌های کاربران

گنجینه عظیم داده‌های کاربران OpenAI  شاید حتی ارزشمندتر باشد. احتمالاً میلیاردها مکالمه با ChatGPT در صدها هزار موضوع وجود دارد. همان‌طور که داده‌های جستجو زمانی کلید درک روان‌شناسی جمعی وب بود، ChatGPT  نبض جمعیتی را دارد که شاید به وسعت کاربران گوگل نباشد، اما عمق بیشتری فراهم می‌کند. (مکالمات شما به عنوان داده آموزشی استفاده می‌شوند، مگر اینکه خودتان انصراف دهید.)

در مورد گوگل، افزایش جستجوها برای “تهویه مطبوع” به شما می‌گوید که بازار کمی گرم شده است. اما آن کاربران یک مکالمه کامل درباره آنچه می‌خواهند، چقدر پول می‌خواهند خرج کنند، خانه‌شان چگونه است، تولیدکنندگانی که می‌خواهند انتخاب کنند و غیره، ندارند. گوگل در تلاش است کاربران خود را به ارائه این اطلاعات، با جایگزین کردن تعاملات هوش مصنوعی به جای جستجوها، تشویق کند!

 

داده‌های مشتریان

آخرین دسته از داده‌ها شاید ارزشمندترین در بازار آزاد باشد: چگونگی استفاده مشتریان از هوش مصنوعی و داده‌هایی که خودشان به مدل‌ها تغذیه کرده‌اند. صدها شرکت بزرگ و تعداد بی‌شماری شرکت‌های کوچکتر از ابزارهایی مانند APIهای OpenAI و Anthropic برای انواع وظایف استفاده می‌کنند. و برای اینکه یک مدل زبانی برای آنها مفید باشد، معمولاً باید روی پایگاه‌های داده داخلی خودشان به صورت دقیق تنظیم شود یا به آنها دسترسی داده شود.

 

چالش‌های امنیتی و حریم خصوصی

این‌ها اسرار صنعتی هستند و شرکت‌های هوش مصنوعی در مرکز بسیاری از آنها قرار دارند. جدید بودن این بخش از صنعت همراه با خود یک ریسک ویژه دارد زیرا فرآیندهای هوش مصنوعی هنوز استاندارد نشده یا به طور کامل درک نشده‌اند.

مثل هر ارائه‌دهنده SaaS، شرکت‌های هوش مصنوعی کاملاً قادر به ارائه سطح استاندارد صنعتی از امنیت، حریم خصوصی، گزینه‌های محلی و به طور کلی ارائه خدمات خود به صورت مسئولانه هستند. مطمئنا پایگاه‌های داده خصوصی و تماس‌های API مشتریان Fortune 500 OpenAI  به شدت محافظت شده اند! این شرکت‌ها قطعاً باید به ریسک‌های ذاتی در دست‌کاری داده‌های محرمانه در زمینه هوش مصنوعی آگاه باشند.

 

نتیجه‌گیری

امنیت فقط انتخاب تنظیمات صحیح یا به‌روزرسانی نرم‌افزار نیست. این یک بازی بی‌پایان گربه و موش است که به طرز عجیبی اکنون با خود هوش مصنوعی تقویت شده است: عوامل و اتوماسیون‌های حمله در حال بررسی هر گوشه و کناری از سطوح حمله این شرکت‌ها هستند.

شرکت‌هایی که به حجم زیادی از داده‌های شخصی یا تجاری ارزشمند دسترسی دارند، سال‌ها با خطرات مشابه مواجه شده و آنها را مدیریت کرده‌اند. اما شرکت‌های هوش مصنوعی یک هدف جدیدتر و جذاب‌تر برای هکرها هستند. حتی نفوذی مانند آنچه در بالا گزارش شده است، بدون استخراج جدی که ما از آن اطلاع داشته باشیم، باید هر کسی که با شرکت‌های هوش مصنوعی کسب و کار می‌کند را نگران کند.