برندهای پیشرو هوش مصنوعی در زیرساخت‌های سازمانی در سال ۲۰۲۴

برندهای پیشرو هوش مصنوعی در زیرساخت‌های سازمانی در سال ۲۰۲۴

برندهای پیشرو هوش مصنوعی در زمینه ی زیرساخت های سازمانی توسط نظر سنجی IT Brand Pulse در سال ۲۰۲۴ اعلام شد.

هوش مصنوعی مولد به عنوان بزرگترین نقطه عطف تکنولوژی در تاریخ بشر شناخته می‌شود. صدها میلیارد دلار برای ایجاد یک جهان جدید از سخت ‌افزار، نرم‌ افزار، سیستم‌ها و خدمات طراحی شده برای هوش مصنوعی سازمانی، سرمایه ‌گذاری شده است.

این نظرسنجی ۸ دسته محصول را پوشش می‌دهد، ولی در نهایت ده‌ها دسته محصول هوش مصنوعی و صدها فروشنده هوش مصنوعی را پوشش خواهد داد.

متخصصان IT زیرساخت‌های سازمانی برای هوش مصنوعی را در هشت دسته تقسیم بندی کرده اند: سرورها، ذخیره‌سازی اولیه، ذخیره‌سازی فایل و اشیاء، سوئیچ‌های شبکه، SmartNICs، حافظه با پهنای باند بالا (HBM)، GPUها و CPUها.

همچنین شرکت های AMD، Dell Technologies، Intel، NetApp، NVIDIA، Pure Storage و Samsung به عنوان رهبران نوآوری و یا بازار در ۸ دسته محصول انتخاب شدند.

جدول زیر نتایج نظر سنجی را به اختصار نشان می دهد:

رهبر نوآوریرهبر بازاردسته بندی محصولات
DellDellServers for AI
Pure StorageDellPrimary Storage for AI
Pure StorageNetAppFile and Object Storage for AI
NVIDIANVIDIANetwork Switches for AI
NVIDIAAMDSmartNICs for AI
SamsungSamsungHigh Bandwidth Memory (HBM) for AI
NVIDIANVIDIAGPUs for AI
IntelIntelCPUs for AI

 در ادامه نتایج نظر سنجی را شرح خواهیم داد.

نتایج نظرسنجی برندهای پیشرو هوش مصنوعی

  • سرورها و ذخیره‌سازی اولیه برای هوش مصنوعی: متخصصان فناوری اطلاعات Dell را به عنوان رهبر بازار و نوآوری انتخاب کرده‌اند.

این شرکت یک برند پیشرو در بازار و نوآوری برای سرورهای سازمانی و ذخیره‌سازی اولیه است. Dell  با معرفی کارخانه هوش مصنوعی خود که راه‌حل‌های فول استک (full-stack) را ارائه می دهد، قاطعانه وارد حوزه هوش مصنوعی شده است. متخصصانIT  ، Dell  را به عنوان رهبر بازار در هر دو دسته محصول سرورها و ذخیره‌سازی انتخاب کردند.

  • ذخیره‌سازی اولیه و ذخیره‌سازی فایل و شیء برای هوش مصنوعی : Pure Storage به عنوان رهبر نوآوری انتخاب شده است.

این شرکت یک رهبر نوآور برای ذخیره‌سازی اولیه و ذخیره‌سازی فایل و اشیاء است. ماژول‌های DirectFlash ثبت اختراع شده Pure Storage اجازه می‌دهد AFAها به طور مستقیم با ذخیره‌سازی فلش خام ارتباط برقرار کنند . همچنین متخصصان IT  از توسعه پیشگامانه‌ای که این شرکت با فلش QLC کم هزینه انجام داده است، قدردانی کردند.

  • ذخیره‌سازی فایل و شیء برای هوش مصنوعی :NetApp به عنوان رهبر بازار انتخاب شده است.

این شرکت به عنوان یک برند پیشرو در ذخیره‌ سازی فایل و اشیاء شناخته می‌شود. نتایج نظرسنجی نشان می‌دهد شرکتی که پیشگام ذخیره ‌سازی فایل سازمانی با کاربری آسان ‌است، در ذخیره‌سازی فایل و اشیاء برای سازمان‌ها پیشرو خواهد بود.

  • سوئیچ‌های شبکه برای هوش مصنوعی : NVIDIAبه عنوان رهبر بازار و نوآوری انتخاب شده است.

از سال ۲۰۰۸ که IT Brand Pulse تأسیس شد، Cisco  به عنوان رهبر بازار برای سوئیچ‌های Ethernet و Mellanox به عنوان رهبر بازار برای سوئیچ‌های IB با پهنای باند بالاتر و تأخیر کمتر انتخاب شدند. به نظر می‌رسد متخصصان IT متوجه نیاز هوش مصنوعی به پهنای باند بالا و تأخیر کم شده‌اند، زیرا آن‌ها NVIDIA ( Mellanox  سابق)  را به عنوان رهبر بازار و نوآوری در سوئیچ‌های شبکه انتخاب کردند.

SmartNICs برای هوش مصنوعی :AMDبه عنوان رهبر بازار و NVIDIA به عنوان رهبر نوآوری انتخاب شده‌اند.

در نظرسنجی  رهبری برند برای SmartNICs ، AMD ( Xilinx و Pensando SmartNICs  سابق ) به عنوان رهبر بازار انتخاب شد. این انتخاب نشان‌دهنده آگاهی متخصصان  IT  از حضور طولانی مدت Xilinx در این عرصه است.

همچنین NVIDIA (Mellanox SmartNICs  سابق)  به عنوان رهبر نوآوری انتخاب شد. نتایج نظرسنجی نشان می‌دهد که متخصصان IT به ادغام دقیق  SmartNICs  با سوئیچ‌های شبکه و GPUهای NVIDIA ، توجه دارند.

  • حافظه با پهنای باند بالا (HBM) برای هوش مصنوعی :Samsung به عنوان رهبر بازار و نوآوری انتخاب شده است.

اگرچه HBM در محصولات  CPU، GPU و پردازنده‌های تخصصی هوش مصنوعی تعبیه شده است، اما متخصصان IT ، HBM را به صورت متمایز در نظر می گیرند. متخصصان IT سامسونگ را به عنوان رهبر بازار و نوآوری انتخاب کردند.

  • GPUها برای هوش مصنوعی :NVIDIA به عنوان رهبر بلامنازع بازار و نوآوری انتخاب شده است.

Jensen Huang  و NVIDIA در حال هدایت یک عصر جدید از محاسبات هوش مصنوعی مبتنی بر GPU هستند که خبری جهانی است . تنها شگفتی این است که NVIDIA  تمام آرا را برای رهبر بازار و نوآوری در GPUها دریافت نکرد.

  • CPUها برای هوش مصنوعی : Intel به عنوان رهبر بازار و نوآوری انتخاب شده است.

برای هفدهمین سال متوالی، اینتل به عنوان رهبر بازار و نوآوری برای CPUها انتخاب شد، و این بار اولین سالی بود که متخصصان IT برای CPUهای هوش مصنوعی به اینتل رأی دادند. در جایگاه دوم، AMD  به عنوان یک رقیب قابل توجه با تنها ۹ درصد اختلاف قرار گرفت.

 برندهای برتر هوش مصنوعی در زیرساخت سازمانی

نتایج بررسی نشان می‌دهد که NVIDIA در سه دسته از ۵ دسته رهبری برند، با بالاترین درصد آرا در جایگاه اول قرار دارد. در حالی که intel با CPUهای خود همچنان غالب است.

رهبر بازار

برند غالب بازار در هوش مصنوعی NVIDIA برای GPUها است. این شرکت تقریباً ۸۰ درصد از آراء متخصصان IT را دریافت کرد. اینتل و سامسونگ، برندهایی که مدت‌ها در بازار CPU و DRAM  پیشرو بوده‌اند، به ترتیب دوم و سومین برندهای قوی در زیرساخت‌های سازمانی برای هوش مصنوعی هستند.

رهبر نوآوری

سوئیچ‌های شبکه NVIDIA، بالاترین درصد آراء را برای رهبر نوآوری دریافت کردند.  GPUهای NVIDIA  دومین درصد بالای آراء را برای رهبر نوآوری دریافت کردند.

قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده‌های آموزشی هوش مصنوعی بسیار بالا است و فقط شرکت های فناوری بزرگ از پس پرداخت هزینه ها برمی آیند. داده‌ها در قلب سیستم‌های پیشرفته هوش مصنوعی امروز قرار دارند. اما هزینه آن‌ها روز به روز بیشتر می‌شود و دسترسی به آنها را برای تمامی شرکت‌ها، غیر ممکن می سازد.

شرکت های کوچکتر قادر به پرداخت هزینه ی این داده ها نیستند و بنابراین قادر به توسعه یا مطالعه مدل های هوش مصنوعی نخواهند بود. این محدودیت منجر به عدم بررسی مستقل شیوه های توسعه AI می شود.

اهمیت داده‌های آموزشی

سال گذشته، James Betker ، محقق OpenAI ، در وبلاگ شخصی خود درباره ماهیت مدل‌های مولد هوش مصنوعی و دیتاست‌هایی که روی آن‌ها آموزش داده می‌شوند، نوشت. Betker ادعا کرد که داده‌های آموزشی کلید سیستم‌های هوش مصنوعی پیشرفته و قدرتمند هستند. او نوشت: “با آموزش روی یک دیتاست به مدت کافی، تقریباً هر مدلی به همان نقطه همگرا می‌شود.”

سیستم‌های هوش مصنوعی مولد اساساً مدل‌های احتمالی هستند، یک مجموعه بزرگ از آمار. آن‌ها بر اساس حجم زیادی از مثال‌ها، حدس می‌زنند که کدام داده بیشتر به “مفهوم مورد نظر” می‌خورد. از این رو، منطقی به نظر می‌رسد که هرچه مدل‌ها مثال‌های بیشتری داشته باشند، عملکرد بهتری خواهند داشت.

Kyle دانشمند ارشد تحقیقات کاربردی در موسسه هوش مصنوعی Allen ، توضیح داد که داده ها باعث بهبود عملکرد می‌شود. او تأکید کرد که کیفیت داده‌ها مهم‌تر از کمیت است. Kyle افزود: “ممکن است یک مدل کوچک با داده‌های به دقت طراحی‌ شده از یک مدل بزرگتر بهتر عمل کند.”

بسیاری از مدل‌های هوش مصنوعی با داشتن برچسب‌هایی که توسط انسان‌ها بر داده‌ها زده شده، آموزش می‌بینند. اما افزایش تأکید بر دیتاست‌های بزرگ و با کیفیت، توسعه هوش مصنوعی را به دست چند شرکت محدود با بودجه‌های میلیارد دلاری می‌سپارد. همچنین رقابت برای به دست آوردن داده‌های آموزشی، در مواردی منجر به رفتارهای غیر اخلاقی و حتی غیر قانونی می‌شود.

چالش‌ قیمت داده‌های آموزشی

توسعه دهندگان مدل‌های هوش مصنوعی، اغلب داده‌های گسترده‌ای را از وب عمومی جمع‌آوری می‌کنند که برخی از آن‌ها تحت حق کپی‌ رایت قرار دارند. این روند باعث شده تا بسیاری از شرکت‌های بزرگ فناوری بدون رضایت صاحبان محتوا، داده‌ها را جمع‌آوری کنند. این موضوع منجر به نگرانی‌های قانونی و اخلاقی شده است.

OpenAI صدها میلیون دلار برای لایسنس کردن محتوا از ناشران خبری، کتابخانه‌های رسانه‌ای و غیره هزینه کرده است. با توجه به رشد بازار داده‌های آموزشی، پلتفرم‌ها نیز به دنبال فروش داده‌ها با قیمت‌های بالا هستند. این امر تحقیقات مستقل و توسعه هوش مصنوعی را به خطر می‌اندازد.

نتیجه‌گیری

تلاش‌های مستقل و غیرانتفاعی برای ایجاد دیتاست‌های بزرگی که هر کسی بتواند از آن‌ها برای آموزش مدل‌های هوش مصنوعی استفاده کند، وجود دارد. اما این تلاش‌ها با چالش‌های حقوقی و اخلاقی روبرو هستند. نوآوری عمده در داده های مصنوعی یا معماری اساسی می تواند وضعیت موجود را عوض کند. اما به نظر نمی رسد که به زودی محقق شود.

سوال اصلی این است که آیا این تلاش‌های مستقل می‌توانند با شرکت‌های بزرگ فناوری همگام شوند. تا زمانی که جمع‌آوری و گزینش داده‌ها به منابع وابسته باشد، پاسخ احتمالاً منفی است. مگر اینکه یک پیشرفت تحقیقاتی، میدان بازی را متعادل کند.

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI، یکی از پیشروان صنعت هوش مصنوعی، هشداری جدی برای امنیت داده‌های حساس در این شرکت‌هاست.  به نظر می‌رسد این نفوذ سطحی بوده و هکرها تنها به یک انجمن بحث کارمندان دسترسی پیدا کرده اند.

با این حال، این حادثه نشان می‌دهد که شرکت‌های هوش مصنوعی به سرعت به اهداف جذابی برای هکرها تبدیل شده‌اند. با توجه به حجم عظیم داده‌های آموزشی با کیفیت بالا، تعاملات گسترده کاربران و داده‌های مشتریان، اهمیت حفظ امنیت و حریم خصوصی در این صنعت بیش از پیش احساس می‌شود.

 

بررسی نفوذ به OpenAI

کارمند سابق OpenAI، Leopold Aschenbrenner، اخیراً در یک پادکست آن را یک “حادثه امنیتی عمده” نامید. اما منابع ناشناس در شرکت به روزنامه نیویورک تایمز گفتند که هکر فقط به یک انجمن بحث کارمندان دسترسی پیدا کرده است.

هیچ نفوذ امنیتی نباید واقعاً بی‌اهمیت تلقی شود و استراق سمع در بحث‌های داخلی توسعه OpenAI قطعاً ارزش خود را دارد. اما این با دسترسی یک هکر به سیستم‌های داخلی، مدل‌های در حال پیشرفت، نقشه‌های راه محرمانه و غیره فاصله زیادی دارد.

 

اهمیت داده‌های آموزشی

بیایید درباره سه نوع داده‌ای صحبت کنیم که OpenAI و به میزان کمتری سایر شرکت‌های هوش مصنوعی ایجاد کرده یا به آنها دسترسی دارند: داده‌های آموزشی با کیفیت بالا، تعاملات حجیم کاربران، و داده‌های مشتریان.

مشخص نیست که دقیقاً چه داده‌های آموزشی دارند، زیرا شرکت‌ها درباره انبارهای خود به شدت محرمانه هستند. اما اشتباه است که فکر کنیم آنها فقط توده‌های بزرگی از داده‌های وب هستند.

بله، آنها از داده‌های وب یا مجموعه‌هایی مانند Pile استفاده می‌کنند، اما شکل دادن به آن داده‌های خام به چیزی که بتوان برای آموزش مدلی مانند GPT-4 استفاده کرد، یک کار بزرگ است. ساعت‌ها کار انسانی برای انجام این کار لازم است زیرا این کار فقط به صورت جزئی قابل اتوماسیون است.

ارزش داده‌های کاربران

گنجینه عظیم داده‌های کاربران OpenAI  شاید حتی ارزشمندتر باشد. احتمالاً میلیاردها مکالمه با ChatGPT در صدها هزار موضوع وجود دارد. همان‌طور که داده‌های جستجو زمانی کلید درک روان‌شناسی جمعی وب بود، ChatGPT  نبض جمعیتی را دارد که شاید به وسعت کاربران گوگل نباشد، اما عمق بیشتری فراهم می‌کند. (مکالمات شما به عنوان داده آموزشی استفاده می‌شوند، مگر اینکه خودتان انصراف دهید.)

در مورد گوگل، افزایش جستجوها برای “تهویه مطبوع” به شما می‌گوید که بازار کمی گرم شده است. اما آن کاربران یک مکالمه کامل درباره آنچه می‌خواهند، چقدر پول می‌خواهند خرج کنند، خانه‌شان چگونه است، تولیدکنندگانی که می‌خواهند انتخاب کنند و غیره، ندارند. گوگل در تلاش است کاربران خود را به ارائه این اطلاعات، با جایگزین کردن تعاملات هوش مصنوعی به جای جستجوها، تشویق کند!

 

داده‌های مشتریان

آخرین دسته از داده‌ها شاید ارزشمندترین در بازار آزاد باشد: چگونگی استفاده مشتریان از هوش مصنوعی و داده‌هایی که خودشان به مدل‌ها تغذیه کرده‌اند. صدها شرکت بزرگ و تعداد بی‌شماری شرکت‌های کوچکتر از ابزارهایی مانند APIهای OpenAI و Anthropic برای انواع وظایف استفاده می‌کنند. و برای اینکه یک مدل زبانی برای آنها مفید باشد، معمولاً باید روی پایگاه‌های داده داخلی خودشان به صورت دقیق تنظیم شود یا به آنها دسترسی داده شود.

 

چالش‌های امنیتی و حریم خصوصی

این‌ها اسرار صنعتی هستند و شرکت‌های هوش مصنوعی در مرکز بسیاری از آنها قرار دارند. جدید بودن این بخش از صنعت همراه با خود یک ریسک ویژه دارد زیرا فرآیندهای هوش مصنوعی هنوز استاندارد نشده یا به طور کامل درک نشده‌اند.

مثل هر ارائه‌دهنده SaaS، شرکت‌های هوش مصنوعی کاملاً قادر به ارائه سطح استاندارد صنعتی از امنیت، حریم خصوصی، گزینه‌های محلی و به طور کلی ارائه خدمات خود به صورت مسئولانه هستند. مطمئنا پایگاه‌های داده خصوصی و تماس‌های API مشتریان Fortune 500 OpenAI  به شدت محافظت شده اند! این شرکت‌ها قطعاً باید به ریسک‌های ذاتی در دست‌کاری داده‌های محرمانه در زمینه هوش مصنوعی آگاه باشند.

 

نتیجه‌گیری

امنیت فقط انتخاب تنظیمات صحیح یا به‌روزرسانی نرم‌افزار نیست. این یک بازی بی‌پایان گربه و موش است که به طرز عجیبی اکنون با خود هوش مصنوعی تقویت شده است: عوامل و اتوماسیون‌های حمله در حال بررسی هر گوشه و کناری از سطوح حمله این شرکت‌ها هستند.

شرکت‌هایی که به حجم زیادی از داده‌های شخصی یا تجاری ارزشمند دسترسی دارند، سال‌ها با خطرات مشابه مواجه شده و آنها را مدیریت کرده‌اند. اما شرکت‌های هوش مصنوعی یک هدف جدیدتر و جذاب‌تر برای هکرها هستند. حتی نفوذی مانند آنچه در بالا گزارش شده است، بدون استخراج جدی که ما از آن اطلاع داشته باشیم، باید هر کسی که با شرکت‌های هوش مصنوعی کسب و کار می‌کند را نگران کند.

 

الگوریتم DenseAV ، فقط با تماشای فیلم ها قادر به تشخیص زبان است

الگوریتم DenseAV ، فقط با تماشای فیلم ها قادر به تشخیص زبان است

الگوریتم DenseAV که در دانشگاه MIT توسعه یافته است، با تماشای ویدیوهای افراد صحبت کننده، توانایی تجزیه و تحلیل زبان را به دست می‌آورد. این الگوریتم با ترکیب سیگنال‌های صوتی و تصویری، می‌تواند معنای کلمات را پیش‌بینی کند.

الگوریتم DenseAV به منظور یادگیری زبان، از پیش ‌بینی محتوای تصویری بر اساس محتوای صوتی و برعکس استفاده می‌ کند. به عنوان مثال، اگر صدایی را بشنوید که می ‌گوید :”کیک را در دمای ۳۵۰ درجه فارنهایت پخته‌اند”، پیکسل‌های مرتبط با کیک یا فر در تصویر را تشخیص می ‌دهد.

هنگامی که محققان DenseAV را در این بازی تطبیقی اموزش دادند، بررسی کردند که مدل هنگام شنیدن صدا به دنبال کدام پیکسل است. به عنوان مثال، هنگامی که کسی می گوید  “سگ”، الگوریتم بلافاصله شروع به جستجوی سگ ها در جریان ویدئو می کند.  با دیدن پیکسل هایی که توسط الگوریتم انتخاب می شوند، می توان کشف کرد که الگوریتم فکر می کند یک کلمه به چه معنی است.

محققان می‌خواستند بدانند آیا الگوریتم تفاوت بین کلمه “سگ” و “صدای سگ ”  را می‌داند یا خیر.  بنابراین تیم با ایجاد یک “مغز دو طرفه” برای DenseAV این موضوع را بررسی کرد. آن‌ها متوجه شدند که یک طرف مغز DenseAV به طور طبیعی بر روی زبان تمرکز دارد، مانند کلمه “سگ”، و طرف دیگر بر روی صداها مانند “صدای سگ” متمرکز است. این نشان می‌دهد که DenseAV نه تنها معنای کلمات و مکان‌های صداها را یاد گرفته است، بلکه می تواند بین این نوع ارتباطات، بدون دخالت انسانی یا دانش زبان نوشتاری، تمایز قائل شود. 

چالش های DenseAV

یک چالش قدرتمند در پیش روی تیم، یادگیری زبان بدون هیچ متن ورودی است. هدف آن‌ها از این تلاش، کشف معنای زبان از نقطه‌ی صفر است، بدون استفاده از مدل‌های زبان پیش‌آموز. این رویکرد از نحوه‌ی یادگیری کودکان الهام گرفته شده است، که با مشاهده و گوش دادن به محیط خود، زبان را می‌آموزند. برای دستیابی به این هدف، DenseAV  از دو مولفه‌ی اصلی برای پردازش داده‌های صوتی و تصویری به صورت جداگانه استفاده می ‌کند.

این جداسازی باعث می‌شود الگوریتم نتواند تقلب کند، زیرا اجازه نمی‌دهد تا بخش تصویری به بخش صوتی نگاه کند و بالعکس. این روش باعث می‌شود الگوریتم اشیاء را تشخیص داده و ویژگی‌های دقیق و معناداری را برای هر دو سیگنال صوتی و تصویری ایجاد کند.  DenseAV  با مقایسه سیگنال‌های صوتی و تصویری، مشخص می‌کند کدام سیگنال‌ها مطابقت دارند و کدام سیگنال‌ها مطابقت ندارند. این روش، به نام یادگیری متقابل، نیازی به نمونه‌های برچسب‌گذاری شده ندارد و اجازه می‌دهد تا DenseAV الگوهای پیش‌ بینی مهم زبان را خودش کشف کند.

الگوریتم DenseAV از دو مولفه برای پردازش جداگانه داده‌های صوتی و تصویری استفاده می‌کند. این طراحی به الگوریتم امکان تشخیص اشیاء و تولید ویژگی‌های دقیق و معنادار برای سیگنال‌های صوتی و تصویری را می ‌دهد.

شناسایی و تقسیم‌بندی اشیاء در تصاویر، همچنین صداهای محیطی و کلمات گفته ‌شده در صداهای رکورد شده، هر کدام مشکلات دشواری در خود دارند. مدل DenseAV پیشرفت‌های قابل توجهی در توسعه روش‌هایی که می‌توانند به طور همزمان این وظایف را حل کنند، داشته است.

همچنین  انتقال به یک معماری ترانسفورماتور بزرگ چالش‌هایی را ایجاد کرد، زیرا این مدل‌ها ممکن است جزئیات ریز را به ‌راحتی نادیده بگیرند.  تشویق مدل به تمرکز بر این جزئیات، یک مشکل مهم بود.

 

تفاوت‌ الگوریتم DenseAV  و سایر الگوریتم های مشابه

یکی از تفاوت‌های اصلی بین الگوریتم DenseAV  و الگوریتم های مشابه این است که الگوریتم‌های قبلی تمرکز خود را بر مفهوم تشابه بین صدا و تصویر می‌ گذارند. به عبارت دیگر، یک کلیپ صوتی کامل مانند جمله “سگ روی چمن نشست” به یک تصویر کامل از یک سگ نسبت داده می‌شود. روش‌های قبلی نمی توانند جزئیات دقیق‌تری را مشاهده کنند، مانند ارتباط بین کلمه “چمن” و “چمن زیر سگ”. الگوریتم DenseAV  به دنبال تمام تطابق‌های ممکن بین کلیپ صوتی و پیکسل‌های تصویر است و این باعث بهبود عملکرد و دقیق‌تر شدن مکان‌یابی صداها می‌شود.

محققان، DenseAV را بر روی مجموعه داده AudioSet  آموزش دادند که شامل ۲ میلیون ویدیوی YouTube  است. آن‌ها همچنین مجموعه‌های داده جدیدی ایجاد کردند تا عملکرد مدل در ارتباط بین صداها و تصاویر را آزمایش کنند. در این آزمایش‌ها، DenseAV  در وظایفی مانند شناسایی اشیاء از نام‌ها و صداها، عملکرد بهتری نسبت به مدل‌های مشابه دیگر داشت.

مجموعه‌های داده قبلی، فقط قدر به ارزیابی‌های کلی و سطحی بودند. در مدل جدید، یک مجموعه با استفاده از مجموعه‌ داده های تقسیم ‌بندی معنایی ایجاد شد. این باعث می‌شود که برچسب ‌گذاری دقیق ‌تری انجام شود تا عملکرد مدل به ‌دقت ارزیابی شود. محققان می توانند الگوریتم را با صداها یا تصاویر خاص فراخوانی کنند و موقعیت‌های دقیق آن‌ها را دریافت کنند.

اهداف DenseAV

هدف تیم در آینده این است که سیستم‌هایی ایجاد کنند که می تواند از حجم زیادی از داده‌های صوتی یا تصویری یاد بگیرند. این سیستم ها  برای حوزه های جدید که در ان تعداد زیادی از هر دو حالت صدا و تصویر وجود دارد، بسیار مهم است. مثلا یادگیری از ویدیوهای منتشر شده در اینترنت به مقیاس بزرگ.

همچنین هدف محققان افزایش اندازه این سیستم‌ها در مقیاس های بزرگتر و ادغام دانش از مدل‌های زبانی برای بهبود عملکرد است.

این مدل فرضیه‌ای در مورد زبان خاصی که در حال گفتن است، ندارد و در نتیجه در اصل می‌تواند از داده‌ها در هر زبانی یاد بگیرد. جالب است که ببینیم با افزایش مقیاس به هزاران یا میلیون‌ها ساعت داده‌ی ویدیویی در طول چندین زبان مختلف، DenseAV چه چیزی یاد می‌گیرد.

مارک همیلتون، دانشجوی دکتری دانشگاه MIT، قصد دارد از طریق ماشین‌ها چگونگی ارتباط حیوانات را درک کند. برای این منظور، او ابتدا سیستمی را ایجاد کند که بتواند زبان انسان را “از ابتدا” یاد بگیرد. در واقع از صدا و تصویر برای یادگیری زبان استفاده کند. بنابراین DenseAV می تواند در دستیابی به این هدف موثر باشد.  

همچنین، یک کاربرد جذاب دیگر، درک زبان‌های جدید مانند زبان ارتباطی دلفین‌ها یا نهنگ‌ها است که شکل نوشتاری ارتباطی ندارند.

محققان امیدوارند که DenseAV بتواند به آنها کمک کند تا این زبان‌ها را، که از آغاز تاکنون انسان ها موفق به ترجمه آنها نشده اند، درک کنند. در نهایت، امیدواریم که این روش بتواند الگوها بین دیگر جفت‌های سیگنال‌ها را نیز کشف کند، مانند صداهای لرزشی که زمین تولید می‌کند و زمین شناسی آن .

در نهایت این الگوریتم دارای کاربردهای مختلفی در جستجوی چند رسانه‌ای، یادگیری زبان و رباتیک خواهد داشت.

CSD 3000 SSD  حافظه ی محاسباتی نسل بعدی

CSD 3000 SSD  حافظه ی محاسباتی نسل بعدی

CSD 3000 یک حافظه SSD  است که با ادغام موتورهای شتاب دهنده سخت افزاری به طور مستقیم در کنترلر درایو (SFX 3016) از SSD های معمولی NVMe متمایز شده است.

این موتورهای شتاب ‌دهنده به طور کارآمد و شفاف داده‌ها را فشرده ‌سازی می ‌کنند، که منجر به بهبود عملکرد، دوام و اقتصادی‌ تر شدن CSD 3000 SSD تا ۱۰ برابر بهتر از SSD های معمولی می شود.

همه این ویژگی ها بدون افزودن هیچ گونه پیچیدگی جدید است. این محصول باعث افزایش کارایی، پایداری، بهره‌ وری و کاهش هزینه‌ های کلی در سطح سرور و مراکز داده می ‌شود.

پروژه‌های هوش مصنوعی نیاز به ذخیره‌ سازی داده‌ها با عملکرد بالا، کارآمد و قابل اعتماد دارند. بنابراین نیاز به راه‌ حل ‌هایی که بتوانند مجموعه‌ داده‌های بزرگ و پیچیده را به طور کارآمد مدیریت کنند، به شدت احساس می ‌شود.

فناوری ذخیره‌ سازی محاسباتی ScaleFlux به این نیازها پاسخ می‌ دهد و راه ‌حلی پایدار ارائه می‌ دهد که نگرانی‌ های مصرف انرژی و اثر کربن مرتبط با برنامه‌ های هوش مصنوعی و یادگیری ماشین را کاهش می ‌دهد.

ScaleFlux یک شرکت پیشگام در استفاده از ذخیره ‌سازی محاسباتی است. در دنیای امروزی که هوش مصنوعی (AI) و تجزیه و تحلیل داده‌ها کاربردهای گسترده ای دارد، بخش فناوری اطلاعات با چالش‌ های قابل توجهی در زمینه پایداری محیطی و مالی روبرو است.

شرکت ScaleFlux با نوآوری‌  در SSD  به نام  CSD 3000، به این چالش‌ ها پاسخ می ‌دهد.

CSD 3000 SSD، ذخیره ‌سازی را با قابلیت‌های محاسباتی ادغام می‌ کند تا مصرف انرژی و هزینه ‌های عملیاتی به شدت کاهش یابد و در عین حال پردازش داده ‌ها با عملکرد بالا انجام می شود.

این نوآوری با تأکید بر اهداف محیطی، اجتماعی و حاکمیت (ESG)، یک راه‌ حل جذاب برای کسب‌ و کارهایی است که به بهره ‌وری و پایداری اولویت می‌ دهند.

تأثیر عمیق هوش مصنوعی بر ذخیره‌ سازی و پردازش داده‌ها، به ویژه از نظر پایداری، اهمیت نوآوری‌هایی مانند CSD 3000 را بیشتر نشان می دهد.

گزارش ESG یا گزارش پایداری، (Environmental, Social, and Governance  ) نشان دهنده پایداری و مسئولیت‌ پذیری یک شرکت یا سازمان است. این گزارش به سرمایه‌ گذاران کمک می‌کند تا شرکت‌ هایی که دارای رتبه یا امتیاز ESG بالایی هستند را شناسایی کنند.

 

 

 مزایای CSD 3000 SSD

ScaleFlux  با ارائه  CSD 3000، خود را به عنوان ارائه‌ دهنده SSD برای شرکت‌ های بزرگی که به دنبال پایداری و کارآمدی سیستم ها هستند، معرفی کرده است. شرکت‌ های IT که نیاز به پردازش داده‌ های گسترده و پیچیده دارند، با انتخاب CSD 3000  از مزایای زیر بهره‌مند می‌شوند:

  1. کاهش مصرف انرژی: با توجه به مصرف بالای انرژی در مراکز داده، فناوری ذخیره‌ سازی محاسباتی منحصر به ‌فرد  ScaleFlux، با مدیریت عملیات پیچیده پردازش مستقیم داده‌ها در درایو، باعث کاهش زمان و انرژی مورد نیاز برای پردازش و انتقال داده‌ ها بین ذخیره ‌سازی و CPU  می ‌شود . این روش راه‌ حلی پایدار است که با هدف کاهش مصرف انرژی در مراکز داده همسو است.
  2. کاهش هزینه: با بهینه ‌سازی کارآیی پردازش داده ‌ها، ScaleFlux  به طور قابل توجهی از ابعاد سخت‌ افزاری و مصرف برق کاسته و در نتیجه هزینه‌ های عملیاتی را کاهش می‌ دهد.  این کاهش مصرف انرژی  به ویژه برای شرکت ‌های بزرگ که به بهبود سود خود و همچنین پایداری محیطی متعهد هستند، جذاب است.
  3. بهبود عملکرد : CSD 3000 SSD برای تأمین عملکرد بالای برنامه‌ های مدرن، از جمله هوش مصنوعی و تجزیه و تحلیل داده ‌های بزرگ طراحی شده است، بدون این که سرعت یا قابلیت اعتماد کاهش یابد.
  4. انطباق با ESG : با اهمیت روزافزون معیارهایESG  در استراتژی ‌های سرمایه‌ گذاری شرکت ‌ها، CSD 3000  پیشنهاد جذابی را ارائه می ‌دهد. مشارکت این SSD  در کاهش اثر کربن عملیات داده‌ها، به شرکت ‌ها کمک می ‌کند تا با اهداف ESG همخوانی داشته باشند.
  5. سادگی : CSD 3000 SSD  با رعایت استانداردهای صنعتی و اجتناب از تغییر در برنامه ‌ها یا سفارشی ‌سازی ‌های نرم ‌افزاری، به سادگی به تیم‌ های IT کمک می‌ کند.

چرا باید شرکت‌های IT از CSD 3000 SSDاستفاده کنند؟

CSD 3000 SSD  از فناوری ذخیره ‌سازی محاسباتی بهره می ‌برد که نه تنها عملکرد داده‌ها را بهبود می ‌بخشد، بلکه نگرانی ‌های مصرف انرژی و اثر کربن مرتبط با برنامه‌های هوش مصنوعی و یادگیری ماشین را نیز کاهش می‌دهد.

این راه‌حل پایدار و کارآمد، به شرکت‌ها کمک می‌کند تا به مدیریت داده‌های پیچیده و حجیم خود بپردازند.

The Graph ، یک پروتکل web3  جدید که کنترل داده‌های کاربران توسط شرکت‌های فناوری بزرگ را به پایان می رساند

The Graph ، یک پروتکل web3  جدید که کنترل داده‌های کاربران توسط شرکت‌های فناوری بزرگ را به پایان می رساند

The Graph یک پروتکل متن باز برای جستجوی و دسترسی به داده‌ها از بلاکچین‌های متعدد در شبکه‌ی Web3 است. این پروتکل بدون نیاز به تغییر کد بلاکچین، امکان فراخوانی و استفاده‌ی آسان از داده‌های موجود در بلاکچین‌ها را برای توسعه‌دهندگان برنامه‌ها فراهم می‌کند.

با فراهم کردن یک روش استاندارد و دسترسی آسان به داده‌ها، The Graph به ایجاد برنامه‌های Web3 متمرکز بر کاربران کمک می‌کند و می‌تواند نقش مهمی در افزایش شفافیت و مشارکت در شبکه‌های بلاکچینی داشته باشد. همچنین به ترویج توسعه برنامه ها در بلاکچین ها کمک می کند.

The Graph یک پروتکل است که توسط توسعه دهندگان برنامه ها مورد استفاده قرار می‌گیرد. اگر چه The Graph به عنوان یک پروتکل عمل می‌کند، اما این پروتکل نیز بر روی یک شبکه متصل به شبکه بلاکچین‌ها اداره می‌شود که این باعث می‌شود ممکن باشد آن را به عنوان یک شبکه نیز توصیف کرد. با این حال، در توضیح معمولاً از آن به عنوان یک پروتکل یاد می‌شود.

 بسیاری از افرادی که در حال ساخت web3 هستند، بر این باورند که اکوسیستم وب سنتی از کاربران و داده‌های آن‌ها سوء استفاده کرده است. در حالی که استخراج داده و حتی مدل‌های هوش مصنوعی برای کسب‌ و کارها، مفید است، ولی افرادی دسترسی به داده ها را به عنوان یک دسترسی بیش از حد می‌ دانند.

بعضی از مشکلات وب که در حال حاضر وجود ، به دلیل متمرکز بودن آن است.  شرکت‌های بزرگ مالکیت و کنترل همه آنچه را که آنلاین می ‌بینیم، در دست دارند، و از آن سود می ببرند.

محققان تلاش می‌کنند تا اینترنت غیر متمرکز را از طریق web3  و ادغام با هوش مصنوعی تحقق بخشند و قدرت را به کاربران بازگردانند.

Edge & Node   شرکتی است که در زمینه ی تولید و پشتیبانی از برنامه‌ها و پروتکل‌های غیر متمرکز (decentralized applications dApps)   فعالیت می کند. این تیم  از شبکه  The Graph پشتیبانی می کند. این پلتفرم به کاربران امکان می‌دهد داده‌ها را در شبکه‌های بلاک چین جستجو کنند و توسعه DApp  را آسان‌تر می‌کند. این شبکه  با عنوان “Google of web3″  شناخته می شود و هدف آن سازماندهی داده‌های قالب باز بلاکچین و تبدیل داده‌های باز به یک کالای عمومی است.

The Graph دارای “زیرگراف‌ها” است که مانند APIs باز هستند و درخواست‌ها را پاسخ می‌دهند. بنابراین، هر زمان که کاربری از برنامه‌ای استفاده می‌کند که بر روی Graph ساخته شده است، ایندکسرها در پس ‌زمینه داده‌ها را سازماندهی کرده و اطلاعات را ارائه می‌دهند.

در حال حاضر web3 در حال ساخت است، و به ایجاد اینترنت غیرمتمرکز که  در برابر سانسور مقاوم است، کمک می کند. این صنعت در حال رشد است و تکامل بعدی اینترنت خواهد بود.

 Graph در ماه نوامبر نقشه راه “عصر جدید” خود را ارائه داد که در آن اهداف شرکت را ذکر کرده بود . اهداف شبکهGraph  عبارتند از : گسترش برنامه‌های خدمات داده‌ای برای رسیدن به بازار بزرگتر، پشتیبانی از توسعه ‌دهندگان ، افزایش عملکرد شبکه و ایجاد ابزارهایی برای داده‌ها.

Graph  در حال کار بر روی  برنامه هایی است که به فعال سازی مدل های بزرگ زبانی یا LLMs که یکی از محبوب ترین روش ها برای ساخت برنامه های چت AI است،  کمک می کند.

همچنینThe Graph در حال کار برای اجازه دادن به کاربران برای استفاده از داده‌های شبکه خود و دیگر بلاکچین‌ها برای آموزش مدل‌های هوش مصنوعی است.

 Kline، مدیرعامل و بنیان‌گذار Edge & Node گفت:” یکی از نکات مهم در مورد هوش مصنوعی این است که همه چیز در مورد داده‌ها است . یک جمله‌ی معروف وجود دارد که می‌گوید هر کسی که داده‌ها را اداره کند، دنیا را اداره می‌کند، بنابراین واقعاً مهم است که داده‌ها توسط هیچ شرکتی مالکیت و کنترل نشود، به ویژه در فضای هوش مصنوعی” .

به نظر Kline هوش مصنوعی باید به صورت کاملاً منبع باز آموزش داده شوند. اگر به هوش مصنوعی‌های منبع باز امروزی نگاه کنیم، به جهاتی منبع باز هستند، اما داده‌هایی که با آن‌ها آموزش داده شده‌اند، منبع باز نیستند.

نیازهای داده‌ای مختلفی وجود دارد و شبکه The Graph برای رسیدگی به همه این نیازها به روش غیر متمرکز آماده است.

در حال حاضر، هوش مصنوعی (AI) هنوز به طور مستقیم با فناوری بلاکچین همراه نیست. اما در فضای بلاکچین، علاقه‌مندی بیشتری به AI وجود دارد.

به مرور زمان رابطه هوش مصنوعی و بلاکچین تکامل خواهد یافت و تغییر خواهد کرد. استفاده از مدل‌های کسب‌ و کار جدید و ساختارهای انگیزه ‌بخش جدید که از طریق توکن‌ها و اقتصادهای توکن و زیرساخت‌های غیر متمرکز ظهور کرده اند، برای هوش مصنوعی جالب خواهد بود.