قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده های آموزشی هوش مصنوعی بسیار بالا است

قیمت داده‌های آموزشی هوش مصنوعی بسیار بالا است و فقط شرکت های فناوری بزرگ از پس پرداخت هزینه ها برمی آیند. داده‌ها در قلب سیستم‌های پیشرفته هوش مصنوعی امروز قرار دارند. اما هزینه آن‌ها روز به روز بیشتر می‌شود و دسترسی به آنها را برای تمامی شرکت‌ها، غیر ممکن می سازد.

شرکت های کوچکتر قادر به پرداخت هزینه ی این داده ها نیستند و بنابراین قادر به توسعه یا مطالعه مدل های هوش مصنوعی نخواهند بود. این محدودیت منجر به عدم بررسی مستقل شیوه های توسعه AI می شود.

اهمیت داده‌های آموزشی

سال گذشته، James Betker ، محقق OpenAI ، در وبلاگ شخصی خود درباره ماهیت مدل‌های مولد هوش مصنوعی و دیتاست‌هایی که روی آن‌ها آموزش داده می‌شوند، نوشت. Betker ادعا کرد که داده‌های آموزشی کلید سیستم‌های هوش مصنوعی پیشرفته و قدرتمند هستند. او نوشت: “با آموزش روی یک دیتاست به مدت کافی، تقریباً هر مدلی به همان نقطه همگرا می‌شود.”

سیستم‌های هوش مصنوعی مولد اساساً مدل‌های احتمالی هستند، یک مجموعه بزرگ از آمار. آن‌ها بر اساس حجم زیادی از مثال‌ها، حدس می‌زنند که کدام داده بیشتر به “مفهوم مورد نظر” می‌خورد. از این رو، منطقی به نظر می‌رسد که هرچه مدل‌ها مثال‌های بیشتری داشته باشند، عملکرد بهتری خواهند داشت.

Kyle دانشمند ارشد تحقیقات کاربردی در موسسه هوش مصنوعی Allen ، توضیح داد که داده ها باعث بهبود عملکرد می‌شود. او تأکید کرد که کیفیت داده‌ها مهم‌تر از کمیت است. Kyle افزود: “ممکن است یک مدل کوچک با داده‌های به دقت طراحی‌ شده از یک مدل بزرگتر بهتر عمل کند.”

بسیاری از مدل‌های هوش مصنوعی با داشتن برچسب‌هایی که توسط انسان‌ها بر داده‌ها زده شده، آموزش می‌بینند. اما افزایش تأکید بر دیتاست‌های بزرگ و با کیفیت، توسعه هوش مصنوعی را به دست چند شرکت محدود با بودجه‌های میلیارد دلاری می‌سپارد. همچنین رقابت برای به دست آوردن داده‌های آموزشی، در مواردی منجر به رفتارهای غیر اخلاقی و حتی غیر قانونی می‌شود.

چالش‌ قیمت داده‌های آموزشی

توسعه دهندگان مدل‌های هوش مصنوعی، اغلب داده‌های گسترده‌ای را از وب عمومی جمع‌آوری می‌کنند که برخی از آن‌ها تحت حق کپی‌ رایت قرار دارند. این روند باعث شده تا بسیاری از شرکت‌های بزرگ فناوری بدون رضایت صاحبان محتوا، داده‌ها را جمع‌آوری کنند. این موضوع منجر به نگرانی‌های قانونی و اخلاقی شده است.

OpenAI صدها میلیون دلار برای لایسنس کردن محتوا از ناشران خبری، کتابخانه‌های رسانه‌ای و غیره هزینه کرده است. با توجه به رشد بازار داده‌های آموزشی، پلتفرم‌ها نیز به دنبال فروش داده‌ها با قیمت‌های بالا هستند. این امر تحقیقات مستقل و توسعه هوش مصنوعی را به خطر می‌اندازد.

نتیجه‌گیری

تلاش‌های مستقل و غیرانتفاعی برای ایجاد دیتاست‌های بزرگی که هر کسی بتواند از آن‌ها برای آموزش مدل‌های هوش مصنوعی استفاده کند، وجود دارد. اما این تلاش‌ها با چالش‌های حقوقی و اخلاقی روبرو هستند. نوآوری عمده در داده های مصنوعی یا معماری اساسی می تواند وضعیت موجود را عوض کند. اما به نظر نمی رسد که به زودی محقق شود.

سوال اصلی این است که آیا این تلاش‌های مستقل می‌توانند با شرکت‌های بزرگ فناوری همگام شوند. تا زمانی که جمع‌آوری و گزینش داده‌ها به منابع وابسته باشد، پاسخ احتمالاً منفی است. مگر اینکه یک پیشرفت تحقیقاتی، میدان بازی را متعادل کند.

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI نشان داد شرکت‌های هوش مصنوعی گنجینه‌های بی‌نظیری برای هکرها هستند

نفوذ به OpenAI، یکی از پیشروان صنعت هوش مصنوعی، هشداری جدی برای امنیت داده‌های حساس در این شرکت‌هاست.  به نظر می‌رسد این نفوذ سطحی بوده و هکرها تنها به یک انجمن بحث کارمندان دسترسی پیدا کرده اند.

با این حال، این حادثه نشان می‌دهد که شرکت‌های هوش مصنوعی به سرعت به اهداف جذابی برای هکرها تبدیل شده‌اند. با توجه به حجم عظیم داده‌های آموزشی با کیفیت بالا، تعاملات گسترده کاربران و داده‌های مشتریان، اهمیت حفظ امنیت و حریم خصوصی در این صنعت بیش از پیش احساس می‌شود.

 

بررسی نفوذ به OpenAI

کارمند سابق OpenAI، Leopold Aschenbrenner، اخیراً در یک پادکست آن را یک “حادثه امنیتی عمده” نامید. اما منابع ناشناس در شرکت به روزنامه نیویورک تایمز گفتند که هکر فقط به یک انجمن بحث کارمندان دسترسی پیدا کرده است.

هیچ نفوذ امنیتی نباید واقعاً بی‌اهمیت تلقی شود و استراق سمع در بحث‌های داخلی توسعه OpenAI قطعاً ارزش خود را دارد. اما این با دسترسی یک هکر به سیستم‌های داخلی، مدل‌های در حال پیشرفت، نقشه‌های راه محرمانه و غیره فاصله زیادی دارد.

 

اهمیت داده‌های آموزشی

بیایید درباره سه نوع داده‌ای صحبت کنیم که OpenAI و به میزان کمتری سایر شرکت‌های هوش مصنوعی ایجاد کرده یا به آنها دسترسی دارند: داده‌های آموزشی با کیفیت بالا، تعاملات حجیم کاربران، و داده‌های مشتریان.

مشخص نیست که دقیقاً چه داده‌های آموزشی دارند، زیرا شرکت‌ها درباره انبارهای خود به شدت محرمانه هستند. اما اشتباه است که فکر کنیم آنها فقط توده‌های بزرگی از داده‌های وب هستند.

بله، آنها از داده‌های وب یا مجموعه‌هایی مانند Pile استفاده می‌کنند، اما شکل دادن به آن داده‌های خام به چیزی که بتوان برای آموزش مدلی مانند GPT-4 استفاده کرد، یک کار بزرگ است. ساعت‌ها کار انسانی برای انجام این کار لازم است زیرا این کار فقط به صورت جزئی قابل اتوماسیون است.

 

ارزش داده‌های کاربران

گنجینه عظیم داده‌های کاربران OpenAI  شاید حتی ارزشمندتر باشد. احتمالاً میلیاردها مکالمه با ChatGPT در صدها هزار موضوع وجود دارد. همان‌طور که داده‌های جستجو زمانی کلید درک روان‌شناسی جمعی وب بود، ChatGPT  نبض جمعیتی را دارد که شاید به وسعت کاربران گوگل نباشد، اما عمق بیشتری فراهم می‌کند. (مکالمات شما به عنوان داده آموزشی استفاده می‌شوند، مگر اینکه خودتان انصراف دهید.)

در مورد گوگل، افزایش جستجوها برای “تهویه مطبوع” به شما می‌گوید که بازار کمی گرم شده است. اما آن کاربران یک مکالمه کامل درباره آنچه می‌خواهند، چقدر پول می‌خواهند خرج کنند، خانه‌شان چگونه است، تولیدکنندگانی که می‌خواهند انتخاب کنند و غیره، ندارند. گوگل در تلاش است کاربران خود را به ارائه این اطلاعات، با جایگزین کردن تعاملات هوش مصنوعی به جای جستجوها، تشویق کند!

 

داده‌های مشتریان

آخرین دسته از داده‌ها شاید ارزشمندترین در بازار آزاد باشد: چگونگی استفاده مشتریان از هوش مصنوعی و داده‌هایی که خودشان به مدل‌ها تغذیه کرده‌اند. صدها شرکت بزرگ و تعداد بی‌شماری شرکت‌های کوچکتر از ابزارهایی مانند APIهای OpenAI و Anthropic برای انواع وظایف استفاده می‌کنند. و برای اینکه یک مدل زبانی برای آنها مفید باشد، معمولاً باید روی پایگاه‌های داده داخلی خودشان به صورت دقیق تنظیم شود یا به آنها دسترسی داده شود.

 

چالش‌های امنیتی و حریم خصوصی

این‌ها اسرار صنعتی هستند و شرکت‌های هوش مصنوعی در مرکز بسیاری از آنها قرار دارند. جدید بودن این بخش از صنعت همراه با خود یک ریسک ویژه دارد زیرا فرآیندهای هوش مصنوعی هنوز استاندارد نشده یا به طور کامل درک نشده‌اند.

مثل هر ارائه‌دهنده SaaS، شرکت‌های هوش مصنوعی کاملاً قادر به ارائه سطح استاندارد صنعتی از امنیت، حریم خصوصی، گزینه‌های محلی و به طور کلی ارائه خدمات خود به صورت مسئولانه هستند. مطمئنا پایگاه‌های داده خصوصی و تماس‌های API مشتریان Fortune 500 OpenAI  به شدت محافظت شده اند! این شرکت‌ها قطعاً باید به ریسک‌های ذاتی در دست‌کاری داده‌های محرمانه در زمینه هوش مصنوعی آگاه باشند.

 

نتیجه‌گیری

امنیت فقط انتخاب تنظیمات صحیح یا به‌روزرسانی نرم‌افزار نیست. این یک بازی بی‌پایان گربه و موش است که به طرز عجیبی اکنون با خود هوش مصنوعی تقویت شده است: عوامل و اتوماسیون‌های حمله در حال بررسی هر گوشه و کناری از سطوح حمله این شرکت‌ها هستند.

شرکت‌هایی که به حجم زیادی از داده‌های شخصی یا تجاری ارزشمند دسترسی دارند، سال‌ها با خطرات مشابه مواجه شده و آنها را مدیریت کرده‌اند. اما شرکت‌های هوش مصنوعی یک هدف جدیدتر و جذاب‌تر برای هکرها هستند. حتی نفوذی مانند آنچه در بالا گزارش شده است، بدون استخراج جدی که ما از آن اطلاع داشته باشیم، باید هر کسی که با شرکت‌های هوش مصنوعی کسب و کار می‌کند را نگران کند.

 

الگوریتم DenseAV ، فقط با تماشای فیلم ها قادر به تشخیص زبان است

الگوریتم DenseAV ، فقط با تماشای فیلم ها قادر به تشخیص زبان است

الگوریتم DenseAV که در دانشگاه MIT توسعه یافته است، با تماشای ویدیوهای افراد صحبت کننده، توانایی تجزیه و تحلیل زبان را به دست می‌آورد. این الگوریتم با ترکیب سیگنال‌های صوتی و تصویری، می‌تواند معنای کلمات را پیش‌بینی کند.

الگوریتم DenseAV به منظور یادگیری زبان، از پیش ‌بینی محتوای تصویری بر اساس محتوای صوتی و برعکس استفاده می‌ کند. به عنوان مثال، اگر صدایی را بشنوید که می ‌گوید :”کیک را در دمای ۳۵۰ درجه فارنهایت پخته‌اند”، پیکسل‌های مرتبط با کیک یا فر در تصویر را تشخیص می ‌دهد.

هنگامی که محققان DenseAV را در این بازی تطبیقی اموزش دادند، بررسی کردند که مدل هنگام شنیدن صدا به دنبال کدام پیکسل است. به عنوان مثال، هنگامی که کسی می گوید  “سگ”، الگوریتم بلافاصله شروع به جستجوی سگ ها در جریان ویدئو می کند.  با دیدن پیکسل هایی که توسط الگوریتم انتخاب می شوند، می توان کشف کرد که الگوریتم فکر می کند یک کلمه به چه معنی است.

محققان می‌خواستند بدانند آیا الگوریتم تفاوت بین کلمه “سگ” و “صدای سگ ”  را می‌داند یا خیر.  بنابراین تیم با ایجاد یک “مغز دو طرفه” برای DenseAV این موضوع را بررسی کرد. آن‌ها متوجه شدند که یک طرف مغز DenseAV به طور طبیعی بر روی زبان تمرکز دارد، مانند کلمه “سگ”، و طرف دیگر بر روی صداها مانند “صدای سگ” متمرکز است. این نشان می‌دهد که DenseAV نه تنها معنای کلمات و مکان‌های صداها را یاد گرفته است، بلکه می تواند بین این نوع ارتباطات، بدون دخالت انسانی یا دانش زبان نوشتاری، تمایز قائل شود.

چالش های DenseAV

یک چالش قدرتمند در پیش روی تیم، یادگیری زبان بدون هیچ متن ورودی است. هدف آن‌ها از این تلاش، کشف معنای زبان از نقطه‌ی صفر است، بدون استفاده از مدل‌های زبان پیش‌آموز. این رویکرد از نحوه‌ی یادگیری کودکان الهام گرفته شده است، که با مشاهده و گوش دادن به محیط خود، زبان را می‌آموزند. برای دستیابی به این هدف، DenseAV  از دو مولفه‌ی اصلی برای پردازش داده‌های صوتی و تصویری به صورت جداگانه استفاده می ‌کند.

این جداسازی باعث می‌شود الگوریتم نتواند تقلب کند، زیرا اجازه نمی‌دهد تا بخش تصویری به بخش صوتی نگاه کند و بالعکس. این روش باعث می‌شود الگوریتم اشیاء را تشخیص داده و ویژگی‌های دقیق و معناداری را برای هر دو سیگنال صوتی و تصویری ایجاد کند.  DenseAV  با مقایسه سیگنال‌های صوتی و تصویری، مشخص می‌کند کدام سیگنال‌ها مطابقت دارند و کدام سیگنال‌ها مطابقت ندارند. این روش، به نام یادگیری متقابل، نیازی به نمونه‌های برچسب‌گذاری شده ندارد و اجازه می‌دهد تا DenseAV الگوهای پیش‌ بینی مهم زبان را خودش کشف کند.

الگوریتم DenseAV از دو مولفه برای پردازش جداگانه داده‌های صوتی و تصویری استفاده می‌کند. این طراحی به الگوریتم امکان تشخیص اشیاء و تولید ویژگی‌های دقیق و معنادار برای سیگنال‌های صوتی و تصویری را می ‌دهد.

شناسایی و تقسیم‌بندی اشیاء در تصاویر، همچنین صداهای محیطی و کلمات گفته ‌شده در صداهای رکورد شده، هر کدام مشکلات دشواری در خود دارند. مدل DenseAV پیشرفت‌های قابل توجهی در توسعه روش‌هایی که می‌توانند به طور همزمان این وظایف را حل کنند، داشته است.

همچنین  انتقال به یک معماری ترانسفورماتور بزرگ چالش‌هایی را ایجاد کرد، زیرا این مدل‌ها ممکن است جزئیات ریز را به ‌راحتی نادیده بگیرند.  تشویق مدل به تمرکز بر این جزئیات، یک مشکل مهم بود.

 

تفاوت‌ الگوریتم DenseAV  و سایر الگوریتم های مشابه

یکی از تفاوت‌های اصلی بین الگوریتم DenseAV  و الگوریتم های مشابه این است که الگوریتم‌های قبلی تمرکز خود را بر مفهوم تشابه بین صدا و تصویر می‌ گذارند. به عبارت دیگر، یک کلیپ صوتی کامل مانند جمله “سگ روی چمن نشست” به یک تصویر کامل از یک سگ نسبت داده می‌شود. روش‌های قبلی نمی توانند جزئیات دقیق‌تری را مشاهده کنند، مانند ارتباط بین کلمه “چمن” و “چمن زیر سگ”. الگوریتم DenseAV  به دنبال تمام تطابق‌های ممکن بین کلیپ صوتی و پیکسل‌های تصویر است و این باعث بهبود عملکرد و دقیق‌تر شدن مکان‌یابی صداها می‌شود.

محققان، DenseAV را بر روی مجموعه داده AudioSet  آموزش دادند که شامل ۲ میلیون ویدیوی YouTube  است. آن‌ها همچنین مجموعه‌های داده جدیدی ایجاد کردند تا عملکرد مدل در ارتباط بین صداها و تصاویر را آزمایش کنند. در این آزمایش‌ها، DenseAV  در وظایفی مانند شناسایی اشیاء از نام‌ها و صداها، عملکرد بهتری نسبت به مدل‌های مشابه دیگر داشت.

مجموعه‌های داده قبلی، فقط قدر به ارزیابی‌های کلی و سطحی بودند. در مدل جدید، یک مجموعه با استفاده از مجموعه‌ داده های تقسیم ‌بندی معنایی ایجاد شد. این باعث می‌شود که برچسب ‌گذاری دقیق ‌تری انجام شود تا عملکرد مدل به ‌دقت ارزیابی شود. محققان می توانند الگوریتم را با صداها یا تصاویر خاص فراخوانی کنند و موقعیت‌های دقیق آن‌ها را دریافت کنند.

اهداف DenseAV  

هدف تیم در آینده این است که سیستم‌هایی ایجاد کنند که می تواند از حجم زیادی از داده‌های صوتی یا تصویری یاد بگیرند. این سیستم ها  برای حوزه های جدید که در ان تعداد زیادی از هر دو حالت صدا و تصویر وجود دارد، بسیار مهم است. مثلا یادگیری از ویدیوهای منتشر شده در اینترنت به مقیاس بزرگ.

همچنین هدف محققان افزایش اندازه این سیستم‌ها در مقیاس های بزرگتر و ادغام دانش از مدل‌های زبانی برای بهبود عملکرد است.  

این مدل فرضیه‌ای در مورد زبان خاصی که در حال گفتن است، ندارد و در نتیجه در اصل می‌تواند از داده‌ها در هر زبانی یاد بگیرد. جالب است که ببینیم با افزایش مقیاس به هزاران یا میلیون‌ها ساعت داده‌ی ویدیویی در طول چندین زبان مختلف، DenseAV چه چیزی یاد می‌گیرد.

مارک همیلتون، دانشجوی دکتری دانشگاه MIT، قصد دارد از طریق ماشین‌ها چگونگی ارتباط حیوانات را درک کند. برای این منظور، او ابتدا سیستمی را ایجاد کند که بتواند زبان انسان را “از ابتدا” یاد بگیرد. در واقع از صدا و تصویر برای یادگیری زبان استفاده کند. بنابراین DenseAV می تواند در دستیابی به این هدف موثر باشد.  

همچنین، یک کاربرد جذاب دیگر، درک زبان‌های جدید مانند زبان ارتباطی دلفین‌ها یا نهنگ‌ها است که شکل نوشتاری ارتباطی ندارند.

محققان امیدوارند که DenseAV بتواند به آنها کمک کند تا این زبان‌ها را، که از آغاز تاکنون انسان ها موفق به ترجمه آنها نشده اند، درک کنند. در نهایت، امیدواریم که این روش بتواند الگوها بین دیگر جفت‌های سیگنال‌ها را نیز کشف کند، مانند صداهای لرزشی که زمین تولید می‌کند و زمین شناسی آن .

در نهایت این الگوریتم دارای کاربردهای مختلفی در جستجوی چند رسانه‌ای، یادگیری زبان و رباتیک خواهد داشت.

CSD 3000 SSD  حافظه ی محاسباتی نسل بعدی

CSD 3000 SSD  حافظه ی محاسباتی نسل بعدی

CSD 3000 یک حافظه SSD  است که با ادغام موتورهای شتاب دهنده سخت افزاری به طور مستقیم در کنترلر درایو (SFX 3016) از SSD های معمولی NVMe متمایز شده است.

این موتورهای شتاب ‌دهنده به طور کارآمد و شفاف داده‌ها را فشرده ‌سازی می ‌کنند، که منجر به بهبود عملکرد، دوام و اقتصادی‌ تر شدن CSD 3000 SSD تا ۱۰ برابر بهتر از SSD های معمولی می شود.

همه این ویژگی ها بدون افزودن هیچ گونه پیچیدگی جدید است. این محصول باعث افزایش کارایی، پایداری، بهره‌ وری و کاهش هزینه‌ های کلی در سطح سرور و مراکز داده می ‌شود.

پروژه‌های هوش مصنوعی نیاز به ذخیره‌ سازی داده‌ها با عملکرد بالا، کارآمد و قابل اعتماد دارند. بنابراین نیاز به راه‌ حل ‌هایی که بتوانند مجموعه‌ داده‌های بزرگ و پیچیده را به طور کارآمد مدیریت کنند، به شدت احساس می ‌شود.

فناوری ذخیره‌ سازی محاسباتی ScaleFlux به این نیازها پاسخ می‌ دهد و راه ‌حلی پایدار ارائه می‌ دهد که نگرانی‌ های مصرف انرژی و اثر کربن مرتبط با برنامه‌ های هوش مصنوعی و یادگیری ماشین را کاهش می ‌دهد.

ScaleFlux یک شرکت پیشگام در استفاده از ذخیره ‌سازی محاسباتی است. در دنیای امروزی که هوش مصنوعی (AI) و تجزیه و تحلیل داده‌ها کاربردهای گسترده ای دارد، بخش فناوری اطلاعات با چالش‌ های قابل توجهی در زمینه پایداری محیطی و مالی روبرو است.

 شرکت ScaleFlux با نوآوری‌  در SSD  به نام  CSD 3000، به این چالش‌ ها پاسخ می ‌دهد.

CSD 3000 SSD، ذخیره ‌سازی را با قابلیت‌های محاسباتی ادغام می‌ کند تا مصرف انرژی و هزینه ‌های عملیاتی به شدت کاهش یابد و در عین حال پردازش داده ‌ها با عملکرد بالا انجام می شود.

این نوآوری با تأکید بر اهداف محیطی، اجتماعی و حاکمیت (ESG)، یک راه‌ حل جذاب برای کسب‌ و کارهایی است که به بهره ‌وری و پایداری اولویت می‌ دهند.

تأثیر عمیق هوش مصنوعی بر ذخیره‌ سازی و پردازش داده‌ها، به ویژه از نظر پایداری، اهمیت نوآوری‌هایی مانند CSD 3000 را بیشتر نشان می دهد.

گزارش ESG یا گزارش پایداری، (Environmental, Social, and Governance  ) نشان دهنده پایداری و مسئولیت‌ پذیری یک شرکت یا سازمان است. این گزارش به سرمایه‌ گذاران کمک می‌کند تا شرکت‌ هایی که دارای رتبه یا امتیاز ESG بالایی هستند را شناسایی کنند.

 مزایای CSD 3000 SSD

ScaleFlux  با ارائه  CSD 3000، خود را به عنوان ارائه‌ دهنده SSD برای شرکت‌ های بزرگی که به دنبال پایداری و کارآمدی سیستم ها هستند، معرفی کرده است. شرکت‌ های IT که نیاز به پردازش داده‌ های گسترده و پیچیده دارند، با انتخاب CSD 3000  از مزایای زیر بهره‌مند می‌شوند:

  1. کاهش مصرف انرژی: با توجه به مصرف بالای انرژی در مراکز داده، فناوری ذخیره‌ سازی محاسباتی منحصر به ‌فرد  ScaleFlux، با مدیریت عملیات پیچیده پردازش مستقیم داده‌ها در درایو، باعث کاهش زمان و انرژی مورد نیاز برای پردازش و انتقال داده‌ ها بین ذخیره ‌سازی و CPU  می ‌شود . این روش راه‌ حلی پایدار است که با هدف کاهش مصرف انرژی در مراکز داده همسو است.
  2. کاهش هزینه: با بهینه ‌سازی کارآیی پردازش داده ‌ها، ScaleFlux  به طور قابل توجهی از ابعاد سخت‌ افزاری و مصرف برق کاسته و در نتیجه هزینه‌ های عملیاتی را کاهش می‌ دهد.  این کاهش مصرف انرژی  به ویژه برای شرکت ‌های بزرگ که به بهبود سود خود و همچنین پایداری محیطی متعهد هستند، جذاب است.
  3. بهبود عملکرد : CSD 3000 SSD برای تأمین عملکرد بالای برنامه‌ های مدرن، از جمله هوش مصنوعی و تجزیه و تحلیل داده ‌های بزرگ طراحی شده است، بدون این که سرعت یا قابلیت اعتماد کاهش یابد.
  4. انطباق با ESG : با اهمیت روزافزون معیارهایESG  در استراتژی ‌های سرمایه‌ گذاری شرکت ‌ها، CSD 3000  پیشنهاد جذابی را ارائه می ‌دهد. مشارکت این SSD  در کاهش اثر کربن عملیات داده‌ها، به شرکت ‌ها کمک می ‌کند تا با اهداف ESG همخوانی داشته باشند.
  5. سادگی : CSD 3000 SSD  با رعایت استانداردهای صنعتی و اجتناب از تغییر در برنامه ‌ها یا سفارشی ‌سازی ‌های نرم ‌افزاری، به سادگی به تیم‌ های IT کمک می‌ کند.

چرا باید شرکت‌های IT از CSD 3000 SSDاستفاده کنند؟

CSD 3000 SSD  از فناوری ذخیره ‌سازی محاسباتی بهره می ‌برد که نه تنها عملکرد داده‌ها را بهبود می ‌بخشد، بلکه نگرانی ‌های مصرف انرژی و اثر کربن مرتبط با برنامه‌های هوش مصنوعی و یادگیری ماشین را نیز کاهش می‌دهد.

این راه‌حل پایدار و کارآمد، به شرکت‌ها کمک می‌کند تا به مدیریت داده‌های پیچیده و حجیم خود بپردازند.

The Graph ، یک پروتکل web3  جدید که کنترل داده‌های کاربران توسط شرکت‌های فناوری بزرگ را به پایان می رساند

The Graph ، یک پروتکل web3  جدید که کنترل داده‌های کاربران توسط شرکت‌های فناوری بزرگ را به پایان می رساند

The Graph یک پروتکل متن باز برای جستجوی و دسترسی به داده‌ها از بلاکچین‌های متعدد در شبکه‌ی Web3 است. این پروتکل بدون نیاز به تغییر کد بلاکچین، امکان فراخوانی و استفاده‌ی آسان از داده‌های موجود در بلاکچین‌ها را برای توسعه‌دهندگان برنامه‌ها فراهم می‌کند.

با فراهم کردن یک روش استاندارد و دسترسی آسان به داده‌ها، The Graph به ایجاد برنامه‌های Web3 متمرکز بر کاربران کمک می‌کند و می‌تواند نقش مهمی در افزایش شفافیت و مشارکت در شبکه‌های بلاکچینی داشته باشد. همچنین به ترویج توسعه برنامه ها در بلاکچین ها کمک می کند.

The Graph یک پروتکل است که توسط توسعه دهندگان برنامه ها مورد استفاده قرار می‌گیرد. اگر چه The Graph به عنوان یک پروتکل عمل می‌کند، اما این پروتکل نیز بر روی یک شبکه متصل به شبکه بلاکچین‌ها اداره می‌شود که این باعث می‌شود ممکن باشد آن را به عنوان یک شبکه نیز توصیف کرد. با این حال، در توضیح معمولاً از آن به عنوان یک پروتکل یاد می‌شود.

 بسیاری از افرادی که در حال ساخت web3 هستند، بر این باورند که اکوسیستم وب سنتی از کاربران و داده‌های آن‌ها سوء استفاده کرده است. در حالی که استخراج داده و حتی مدل‌های هوش مصنوعی برای کسب‌ و کارها، مفید است، ولی افرادی دسترسی به داده ها را به عنوان یک دسترسی بیش از حد می‌ دانند.

بعضی از مشکلات وب که در حال حاضر وجود ، به دلیل متمرکز بودن آن است.  شرکت‌های بزرگ مالکیت و کنترل همه آنچه را که آنلاین می ‌بینیم، در دست دارند، و از آن سود می ببرند.

محققان تلاش می‌کنند تا اینترنت غیر متمرکز را از طریق web3  و ادغام با هوش مصنوعی تحقق بخشند و قدرت را به کاربران بازگردانند.

Edge & Node   شرکتی است که در زمینه ی تولید و پشتیبانی از برنامه‌ها و پروتکل‌های غیر متمرکز (decentralized applications dApps)   فعالیت می کند. این تیم  از شبکه  The Graph پشتیبانی می کند. این پلتفرم به کاربران امکان می‌دهد داده‌ها را در شبکه‌های بلاک چین جستجو کنند و توسعه DApp  را آسان‌تر می‌کند. این شبکه  با عنوان “Google of web3″  شناخته می شود و هدف آن سازماندهی داده‌های قالب باز بلاکچین و تبدیل داده‌های باز به یک کالای عمومی است.

The Graph دارای “زیرگراف‌ها” است که مانند APIs باز هستند و درخواست‌ها را پاسخ می‌دهند. بنابراین، هر زمان که کاربری از برنامه‌ای استفاده می‌کند که بر روی Graph ساخته شده است، ایندکسرها در پس ‌زمینه داده‌ها را سازماندهی کرده و اطلاعات را ارائه می‌دهند.

در حال حاضر web3 در حال ساخت است، و به ایجاد اینترنت غیرمتمرکز که  در برابر سانسور مقاوم است، کمک می کند. این صنعت در حال رشد است و تکامل بعدی اینترنت خواهد بود.

 Graph در ماه نوامبر نقشه راه “عصر جدید” خود را ارائه داد که در آن اهداف شرکت را ذکر کرده بود . اهداف شبکهGraph  عبارتند از : گسترش برنامه‌های خدمات داده‌ای برای رسیدن به بازار بزرگتر، پشتیبانی از توسعه ‌دهندگان ، افزایش عملکرد شبکه و ایجاد ابزارهایی برای داده‌ها.

Graph  در حال کار بر روی  برنامه هایی است که به فعال سازی مدل های بزرگ زبانی یا LLMs که یکی از محبوب ترین روش ها برای ساخت برنامه های چت AI است،  کمک می کند.

همچنینThe Graph در حال کار برای اجازه دادن به کاربران برای استفاده از داده‌های شبکه خود و دیگر بلاکچین‌ها برای آموزش مدل‌های هوش مصنوعی است.

 Kline، مدیرعامل و بنیان‌گذار Edge & Node گفت:” یکی از نکات مهم در مورد هوش مصنوعی این است که همه چیز در مورد داده‌ها است . یک جمله‌ی معروف وجود دارد که می‌گوید هر کسی که داده‌ها را اداره کند، دنیا را اداره می‌کند، بنابراین واقعاً مهم است که داده‌ها توسط هیچ شرکتی مالکیت و کنترل نشود، به ویژه در فضای هوش مصنوعی” .

به نظر Kline هوش مصنوعی باید به صورت کاملاً منبع باز آموزش داده شوند. اگر به هوش مصنوعی‌های منبع باز امروزی نگاه کنیم، به جهاتی منبع باز هستند، اما داده‌هایی که با آن‌ها آموزش داده شده‌اند، منبع باز نیستند.

نیازهای داده‌ای مختلفی وجود دارد و شبکه The Graph برای رسیدگی به همه این نیازها به روش غیر متمرکز آماده است.

در حال حاضر، هوش مصنوعی (AI) هنوز به طور مستقیم با فناوری بلاکچین همراه نیست. اما در فضای بلاکچین، علاقه‌مندی بیشتری به AI وجود دارد.

به مرور زمان رابطه هوش مصنوعی و بلاکچین تکامل خواهد یافت و تغییر خواهد کرد. استفاده از مدل‌های کسب‌ و کار جدید و ساختارهای انگیزه ‌بخش جدید که از طریق توکن‌ها و اقتصادهای توکن و زیرساخت‌های غیر متمرکز ظهور کرده اند، برای هوش مصنوعی جالب خواهد بود.

ElevenLabs  ابزار تولید افکت های صوتی مبتنی بر هوش مصنوعی را عرضه می کند

ElevenLabs  ابزار تولید افکت های صوتی مبتنی بر هوش مصنوعی را عرضه می کند

ElevenLabs، شرکت شبیه سازی صدا، ابزار جدیدی را معرفی کرده است که به کاربران امکان می‌دهد بدون نیاز به دانش تخصصی در زمینه موسیقی، افکت‌های صوتی زیبا و حرفه‌ای ایجاد کنند. 

ابزار افکت‌ های صوتی، به کاربران اجازه می‌دهد تا با تایپ دستورهایی مانند “صدای اموج‌ توفنده”، “صدای برخورد آهن ‌آلات به هم”، “صدای غوغای پرنده‌ها” و “صدای موتور ماشین مسابقه‌ای”  قطعه ای از صدا را تولید کنند.

این ابزار ، همچنین می تواند با دستورهایی مانند “قطعات موسیقی با گیتار”، “تکنوازی ساکسوفون جاز”  و “قطعات موسیقی تکنو” ، کلیپ های موسیقی را تا ۲۲ ثانیه تولید کند.

 کاربران با دسترسی رایگان می‌توانند تقریباً ۶۰ افکت صوتی در ماه تولید کنند. همچنین، کاربران باید هنگام انتشار کلیپ صوتی تولید شده ، آن محتوا را با عنوان “elevenlabs.io” ، معرفی کنند.

ابزار تولید افکت‌های صوتی چگونه عمل می کند؟

ElevenLabs  از یک مدل هوش مصنوعی پیشرفته برای تولید افکت‌های صوتی استفاده می‌کند. این مدل با آموزش بر روی صدها ساعت از آهنگ‌های موجود، قطعات موسیقی تولید می‌کند.

از نظر فنی، این مدل از معماری‌های مختلف شبکه‌های عصبی مانند شبکه‌های مکرر (RNN)، شبکه‌های عصبی بازگشتی (LSTM) و شبکه‌های عصبی مکرر با دروازه‌های GRU استفاده می‌کند. این مدل‌ها با توجه به ویژگی‌های موسیقی، قطعات موسیقی جدید را نمونه ‌برداری و تولید می کند .

هوش مصنوعی پیشرفته این افکت‌ها را برای کاربران تولید می‌کند و دیگر نیازی به جستجو در پایگاه‌های داده یا خرید از مجموعه‌های صدا نیست.

ElevenLabs اعلام کرده است که از کتابخانه صوتی Shutterstock حاوی آهنگ های مجاز، به عنوان ابزاری برای آموزش مدل خود استفاده کرده است. کاربرانی که در مرحله آزمایشی آلفا از این ابزار استفاده کرده‌اند، شامل توسعه ‌دهندگان بازی‌های ویدیویی، تولید کنندگان فیلم، سازندگان محتوای رسانه‌های اجتماعی و بازاریابان بوده‌اند.

این ابزار به دستورهایی که سیاست محتوای ممنوع و استفاده از آن را نقض می کند، اجازه تولید صدا را نمی دهد. این محتوای ممنوع شامل موضوعاتی مانند خودکشی، تهدید ایمنی کودکان و تقلب است.

در حال حاضر تنها چند شرکت و استارت‌آپ در حال کار بر روی تولید صدای مبتنی بر هوش مصنوعی هستند.

 Harmonai  با پشتیبانی مالی از Stability AI، Dance Diffusion  را منتشر کرده است؛

گوگل بر روی  MusicLM کار کرده است؛

OpenAI دارای Jukebox است؛

و Meta مدل AudioCraft خود را دارد.

TikTok و Adobe نیز با ابزارهای تولید موسیقی مبتنی بر هوش مصنوعی آزمایش کرده‌اند .