الگوریتم‌های رمزنگاری پساکوانتومی IBM: گامی بزرگ به سوی امنیت دیجیتال در عصر کوانتوم

الگوریتم‌های رمزنگاری پساکوانتومی IBM: گامی بزرگ به سوی امنیت دیجیتال در عصر کوانتوم

الگوریتم‌های رمزنگاری پساکوانتومی توسعه‌ یافته توسط IBM به عنوان بخشی از اولین استانداردهای جهانی رمزنگاری پساکوانتومی، توسط مؤسسه ملی استانداردها و فناوری ایالات متحده (NIST) منتشر شدند. این الگوریتم‌ها به منظور محافظت از داده‌های رمزنگاری ‌شده در برابر حملات سایبری احتمالی، که توسط کامپیوترهای کوانتومی قدرتمند قابل اجرا هستند، طراحی شده‌اند.

این استانداردها شامل سه الگوریتم رمزنگاری پیشرفته هستند: ML-KEM (که قبلاً به عنوان CRYSTALS-Kyber شناخته می‌شد)، ML-DSA(که پیش‌تر با نام CRYSTALS-Dilithium معرفی شده بود) و  SLH-DSA(که در ابتدا به نام SPHINCS+ ارائه شده بود).

با پیشرفت روز افزون فناوری‌های کوانتومی، تهدیدات جدیدی برای امنیت سایبری ایجاد خواهد شد. کامپیوترهای کوانتومی، با قدرت پردازشی بسیار بالا، قادرند رمزنگاری‌های سنتی را که زیربنای امنیت داده‌های امروزی است، شکسته و به اطلاعات حساس دسترسی پیدا کنند.

این واقعیت، نیاز به توسعه استانداردهای جدید امنیتی را ضروری کرده است. IBM با انتشار این استانداردهای جدید، گامی اساسی در جهت ایمن ‌سازی دنیای دیجیتال برداشته است.

الگوریتم‌های رمزنگاری پساکوانتومی به مجموعه‌ای از روش‌های رمزنگاری اشاره دارند که به‌ طور خاص برای مقابله با تهدیدات ناشی از کامپیوترهای کوانتومی طراحی شده‌اند. این الگوریتم‌ها به‌گونه‌ای طراحی شده‌اند که حتی در صورت وجود یک کامپیوتر کوانتومی قدرتمند، امنیت اطلاعات را حفظ کنند.

مسیر IBM به سوی ایمنی کوانتومی: نوآوری و برنامه ‌ریزی برای آینده‌ای امن

IBM به عنوان یکی از رهبران جهانی در زمینه کامپیوترهای کوانتومی و امنیت سایبری، به‌ طور مداوم در حال توسعه و بهبود الگوریتم‌های جدید برای محافظت از داده‌ها در برابر تهدیدات آینده است. این شرکت علاوه بر ارائه الگوریتم‌های جدید، به ادغام رمزنگاری پساکوانتومی در محصولات خود مانند IBM z16 و IBM Cloud پرداخته است.

در سال ۲۰۲۳، IBM نقشه راه ایمن کوانتومی خود را معرفی کرد که یک نقشه سه مرحله‌ای برای دستیابی به فناوری‌های ایمن در برابر کوانتوم است. این نقشه راه شامل سه فاز کشف، مشاهده و تحول است که هر کدام به توسعه و پیاده‌ سازی فناوری‌های جدید و ایمن کوانتومی اختصاص دارند.

بر اساس این نقشه راه، IBM پیش ‌بینی می‌کند که تا سال ۲۰۲۹ اولین سیستم کوانتومی با قابلیت اصلاح خطا را ارائه دهد. این سیستم قادر خواهد بود صدها میلیون عملیات کوانتومی را برای حل مسائل پیچیده‌ای که در حال حاضر برای کامپیوترهای کلاسیک غیر قابل ‌دسترس هستند، اجرا کند.

اما این تنها شروع کار است. IBM برنامه‌ ریزی کرده است که تا سال ۲۰۳۳ این سیستم را به سطحی برساند که بتواند بیش از یک میلیارد عملیات کوانتومی را انجام دهد.

این پیشرفت‌ها نه تنها در جهت بهبود عملکرد سیستم‌های کوانتومی است، بلکه با افزایش سطح امنیت، IBM را در مسیر ایجاد آینده‌ای ایمن در برابر تهدیدات کوانتومی قرار می‌دهد. از آنجا که قدرت محاسباتی کامپیوترهای کوانتومی به سرعت در حال افزایش است، IBM از دهه‌ها قبل تلاش کرده تا با توسعه الگوریتم‌های جدید و ایمن، از پیشرفت‌های کوانتومی به نفع امنیت داده‌ها استفاده کند.

اکنون، با انتشار اولین استانداردهای رمزنگاری پساکوانتومی، IBM گامی بزرگ در جهت تحقق این هدف برداشته است.

این استانداردهای جدید نه تنها برای حفاظت از داده‌های مبادله‌ شده در شبکه‌های عمومی طراحی شده‌اند، بلکه به عنوان الگویی برای دولت‌ها و صنایع در سراسر جهان برای پذیرش استراتژی‌های امنیت سایبری پساکوانتومی عمل خواهند کرد.

 IBM با تداوم این تلاش‌ها، به گسترش ابزارهای رمزنگاری پساکوانتومی خود و ارائه خدمات و تکنولوژی‌های ایمن کوانتومی به مشتریانش ادامه می‌دهد.

یکی از نوآوری‌های جدید IBM، معرفی استاندارد جدیدی به نام CBOM (Cryptography Bill of Materials) است که برای ضبط و تبادل اطلاعات درباره دارایی‌های رمزنگاری در نرم ‌افزارها و سیستم‌ها طراحی شده است.

 این فناوری نوآورانه به سازمان‌ها کمک می‌کند تا به راحتی اطلاعات مربوط به ابزارهای رمزنگاری خود را مدیریت کنند و از این طریق امنیت بیشتری را در برابر تهدیدات کوانتومی فراهم کنند.

در نهایت، IBM با تمرکز بر ایمن ‌سازی جهان در برابر تهدیدات کوانتومی، به توسعه فناوری‌های پیشرفته و نوآورانه‌ای ادامه می‌دهد که نه تنها دنیای امروز را ایمن‌تر می‌کند، بلکه پایه‌های امنیتی را برای دنیای آینده نیز محکم‌تر می‌سازد.

Gemini Live : هوش مصنوعی فوق پیشرفته با توانایی مکالمه زنده

Gemini Live : هوش مصنوعی فوق پیشرفته با توانایی مکالمه زنده

گوگل با رونمایی از Gemini Live، نسخه‌ای پیشرفته از چت‌ بات هوشمند خود که از هوش مصنوعی بهره می‌برد، پا به عرصه‌ی رقابت با حالت صوتی پیشرفته ChatGPT گذاشته است. این قابلیت جدید به کاربران اجازه می‌دهد از طریق گوشی‌های هوشمند خود  به مکالمات صوتی عمیق بپردازند . یکی از ویژگی‌های برجسته این ابزار، موتور گفتاری پیشرفته‌ای است که توانایی تشخیص و پاسخ به تغییرات در الگوی گفتاری کاربر را در لحظه دارد و مکالمات چند مرحله‌ای مداوم‌تر، احساسی‌تر و واقعی‌تری را ارائه می‌دهد. این قابلیت به کاربران امکان می‌دهد در حین صحبت کردن چت‌ بات، سوالات دنباله ‌دار مطرح کنند و جمنای لایو به ‌طور خودکار پاسخ‌ها را با توجه به سوالات جدید تنظیم کند.

شما می‌توانید با Gemini Live صحبت کنید و از بین ۱۰ صدای طبیعی جدید که برای پاسخ دادن در دسترس هستند، یکی را انتخاب کنید. حتی می‌توانید با سرعت خودتان صحبت کنید یا در میانه‌ی پاسخ ‌دهی، برای پرسیدن سوالات روشن‌ کننده، مکالمه را قطع کنید، درست مثل هر گفتگوی دیگری.

حتی زمانی که برنامه در پس‌زمینه اجرا می‌شود یا گوشی شما قفل است، شما می‌توانید به صحبت کردن با برنامه Gemini ادامه دهید و مکالمات را هر زمان که بخواهید متوقف و دوباره آغاز کنید.

 قابلیت‌های نوآورانه و تعاملی  Gemini Live 

حال، این قابلیت چه کاربردهایی ممکن است داشته باشد؟

گوگل مثالی از تمرین برای یک مصاحبه شغلی ارائه می‌دهد .  Gemini Live می‌تواند با شما تمرین کند، نکاتی برای صحبت کردن ارائه دهد و مهارت‌هایی که باید هنگام گفتگو با یک مدیر استخدام برجسته کنید را پیشنهاد دهد.

کاربران اندروید می‌توانند با نگه داشتن دکمه پاور گوشی خود یا گفتن  “Hey Google”، Gemini  را به ‌صورت یک پوشش روی هر برنامه‌ای که استفاده می‌کنند، فراخوانی کرده و سوالاتی درباره آنچه روی صفحه است بپرسند (مثلاً یک ویدئوی یوتیوب). Gemini  می‌تواند مستقیماً از طریق این پوشش، تصاویر تولید کند، هرچند هنوز قادر به تولید تصاویر از افراد نیست. این تصاویر را می‌توان به برنامه‌هایی مانند Gmail و Google Messages کشید و رها کرد.

Gemini  همچنین با افزونه‌ها در موبایل و وب، ادغام می‌شود. در هفته‌های آینده، Gemini  قادر خواهد بود اقدامات بیشتری را با  Google Calendar، Keep، Tasks، YouTube Music و Utilities انجام دهد؛ برنامه‌هایی که ویژگی‌های دستگاه مانند تایمرها و آلارم‌ها، کنترل‌های رسانه، چراغ قوه، صدا، وای‌ فای، بلوتوث و غیره را کنترل می‌کنند.

چند ایده جذاب برای استفاده از Gemini Live:

  • از Gemini بخواهید “یک لیست پخش از آهنگ‌هایی که یادآور اواخر دهه ۹۰ هستند، بساز. “
  • از یک تراکت کنسرت عکس بگیرید و از Gemini بپرسید آیا در آن روز وقت آزاد دارید . حتی می‌ توانید برای خرید بلیط یادآوری تنظیم کنید.
  • از Gemini بخواهید یک دستور غذا را از Gmail پیدا کند و مواد لازم را به لیست خریدتان در Keep اضافه کند.

تفاوت‌ها و مزایای Gemini Live نسبت به رقبا

یکی از مزیت‌های جمنای لایو نسبت به حالت صوتی پیشرفته ChatGPT حافظه‌ی قوی‌تر آن است. معماری مدل هوش مصنوعی مولدی که در پشت این سیستم قرار دارد، یعنی Gemini 1.5 Pro و Gemini 1.5 Flash، قادر به پردازش و تحلیل داده‌های گسترده‌ای هستند، به ‌طوری ‌که می‌توانند ساعت‌ها مکالمه‌ را به خاطر بسپارند و بر اساس آن‌ها پاسخ دهند. 

اگرچه هنوز تمامی قابلیت‌هایی که در کنفرانس Google I/O 2024 معرفی شده بودند، به این سرویس اضافه نشده‌اند، اما گوگل اعلام کرده است که قابلیت ورودی چندگانه و پشتیبانی از زبان‌های بیشتر در آینده نزدیک به Gemini Live افزوده خواهد شد.  در ماه مه، گوگل ویدئوهای از پیش ضبط شده‌ای را منتشر کرد که نشان می‌دادند Gemini Live می‌تواند با استفاده از عکس‌ها و ویدئوهایی که توسط دوربین‌های گوشی‌های کاربران گرفته شده است، محیط اطراف را ببیند و به آن‌ها پاسخ دهد . به‌ عنوان مثال، شناسایی یک قطعه خراب روی دوچرخه یا توضیح اینکه یک بخش از کد روی صفحه کامپیوتر چه کاری انجام می‌دهد.

گوگل اعلام کرده است که ورودی چند رسانه‌ای “تا پایان سال جاری” عرضه خواهد شد، اما از ارائه‌ی جزئیات بیشتر خودداری کرده است. همچنین تا پایان سال جاری، جمنای لایو به زبان‌های بیشتر و سیستم عاملiOS  از طریق برنامه گوگل گسترش خواهد یافت. در حال حاضر، این سرویس فقط به زبان انگلیسی در دسترس است.

Gemini Live، مانند حالت صوتی پیشرفته ChatGPT ، رایگان نیست. این سرویس انحصاری Gemini Advanced است. نسخه‌ای پیشرفته‌تر از Gemini که در پشت برنامه  Google One AI Premium Plan، با قیمت ماهیانه ۲۰ دلار، قرار دارد.

هرچند، ویژگی‌های جدید دیگری برای Gemini در راه است که رایگان خواهند بود.

 

ترکیب فیشینگ با برنامه های مخرب اندروید

ترکیب فیشینگ با برنامه های مخرب اندروید

ترکیب فیشینگ با برنامه‌های مخرب اندروید نمایانگر یک نوع حمله سایبری پیشرفته است که با استفاده از الگوهای هوش مصنوعی و تکنیک‌های مهندسی اجتماعی، تلاش می‌کند تا کاربران را مورد هدف قرار دهد.

اهداف این کمپین شامل کاربران موسسات مالی اسپانیا و همچنین خدمات مالیاتی و دولتی، تجارت الکترونیک، بانک‌ها و صرافی‌های ارز دیجیتال در ایالات متحده، بریتانیا، اسلواکی و برزیل می‌شود. تاکنون ۲۸۸ دامنه فیشینگ مرتبط با این فعالیت شناسایی شده است.

همچنین بخشی از خدمات ارائه ‌شده شامل فروش اطلاعات بانکی سرقت‌ شده و برنامه‌های سفارشی برای سایر گروه‌های سایبری است که کسب ‌و کارهای بانکی، مالی و ارز دیجیتال را هدف قرار می‌دهند.

روش جدید حملات فیشینگ با استفاده از اپلیکیشن‌های مخرب اندرویدی

محققان امنیتی اعلام کردند گروه GXC Team برخلاف توسعه‌ دهندگان فیشینگ معمولی، کیت‌های فیشینگ را با بدافزار سرقت کدهای یک‌ بار مصرف (OTP) از طریق پیامک ترکیب کرده و سناریوی حمله فیشینگ معمولی را به شکل جدیدی تغییر داده اند.

نکته قابل توجه این است که به جای استفاده مستقیم از یک صفحه جعلی برای به دست آوردن اطلاعات کاربری، مهاجمان قربانیان را تشویق می‌کنند تا یک اپلیکیشن بانکی اندرویدی را برای جلوگیری از حملات فیشینگ دانلود کنند. این صفحات از طریق حملات فیشینگ از طریق پیامک و روش‌های دیگر توزیع می‌شوند.

پس از نصب، اپلیکیشن درخواست می‌کند تا به عنوان اپلیکیشن پیش‌ فرض پیامک تنظیم شود. این امر امکان دسترسی به کدهای یک ‌بار مصرف (OTP) و سایر پیام‌ها را فراهم کرده و آن‌ها را به یک ربات تلگرام تحت کنترل مهاجمان ارسال می‌کند.

در مرحله نهایی، اپلیکیشن وب ‌سایت واقعی بانک را در WebView باز کرده و به کاربران اجازه می‌دهد تا به صورت عادی با آن تعامل داشته باشند. پس از آن، هرگاه مهاجم درخواست کد OTP را فعال کند، بدافزار اندرویدی به صورت مخفیانه پیام‌های SMS حاوی کدهای OTP را دریافت کرده و به چت تلگرام تحت کنترل مهاجم ارسال می‌کند.

استفاده از هوش مصنوعی برای حملات پیشرفته فیشینگ و سرقت اطلاعات

یکی دیگر از خدمات مرتبط با حملات سایبری مبتنی بر هوش مصنوعی، ابزارهای تماس صوتی مبتنی بر هوش مصنوعی است که به مشتریان آن‌ها اجازه می‌دهد بر اساس مجموعه‌ای از دستورات مستقیم از کیت فیشینگ، تماس‌های صوتی را ایجاد کنند.

این تماس‌ها معمولاً به گونه‌ای طراحی شده‌اند که به نظر برسد از سوی یک بانک انجام می‌شوند و از قربانیان می‌خواهند کدهای احراز هویت دو مرحله‌ای (۲FA) خود را وارد کنند، اپلیکیشن‌های مخرب را نصب کنند، یا اقدامات دیگری انجام دهند.

استفاده از این مکانیسم ساده اما مؤثر، سناریوی کلاهبرداری را برای قربانیان بسیار قانع‌ کننده‌تر می‌کند و نشان می‌دهد که چگونه ابزارهای هوش مصنوعی به سرعت و به سادگی توسط مجرمان در طرح‌هایشان به کار گرفته می‌شوند . با بهره گیری از حملات سایبری مبتنی بر هوش مصنوعی، سناریوهای کلاهبرداری سنتی به روش‌های جدید و پیچیده‌تر تبدیل می شود.

در گزارش اخیر شرکت Mandiant که زیرمجموعه گوگل است، فاش شد که چگونه تقلید صدای انسان با استفاده از هوش مصنوعی می‌تواند با دقت شگفت‌ انگیز انجام شود. به این ترتیب حملات فیشینگ صوتی (vishing) که واقعی‌تر به نظر می رسند.

شرکت Mandiant اعلام کرد: “مجرمان سایبری می‌توانند از طریق تقلید صدای مدیران، همکاران یا حتی کارکنان پشتیبانی IT، قربانیان را فریب داده و به آن‌ها دسترسی از راه دور به سیستم‌ها را بدهند یا وجوهی را منتقل کنند و یا اطلاعات محرمانه را فاش کنند.”

ترکیب فیشینگ با برنامه‌های مخرب اندروید که دارای قابلیت‌های حمله “مهاجم در میانه” (AiTM) هستند، به دلیل کاهش نیاز به مهارت‌های فنی برای اجرای حملات فیشینگ در مقیاس بزرگ، به طور فزاینده‌ای محبوب شده‌اند.

محقق امنیتی mr.d0x در گزارشی که ماه گذشته منتشر شد، اعلام کرد که مهاجمان می‌توانند از اپلیکیشن‌های وب پیشرفته (PWAs) برای طراحی صفحات ورود متقاعد کننده استفاده کنند و با دستکاری عناصر رابط کاربری، نوار URL جعلی را نمایش دهند.

علاوه بر این، کیت‌های فیشینگ AiTM می‌توانند برای نفوذ به حساب‌های کاربری که با کلیدهای عبور محافظت شده‌اند، استفاده شوند. این کار از طریق حمله‌ای به نام “حذف روش احراز هویت” انجام می‌شود .

شرکت امنیت سایبری eSentire اعلام کرد: “مهاجم می‌تواند نمایشی که به کاربر ارائه می‌شود را با تغییر HTML، CSS، تصاویر یا جاوا اسکریپت در صفحه ورود دستکاری کند. بنابراین آن‌ها می‌توانند جریان احراز هویت را کنترل کرده و تمام ارجاعات به احراز هویت با کلید عبور را حذف کنند.”

این افشاگری در حالی صورت می‌گیرد که اخیراً حملات فیشینگ با استفاده از URLهای رمزگذاری ‌شده با ابزارهای امنیتی مانند Secure Email Gateways (SEGs) در تلاش برای مخفی کردن لینک‌های فیشینگ و دور زدن اسکن‌ها، افزایش یافته است.

طبق گزارش Barracuda Networks و Cofense، حملات مهندسی اجتماعی نیز مشاهده شده‌اند. در این حملات کاربران به روش‌های غیر معمولی مانند وارد کردن دستی و اجرای کدهای رمزگذاری‌ شده در یک ترمینال PowerShell ، تحت پوشش رفع مشکلات نمایش محتوا در یک مرورگر وب، فریب داده می‌شوند.

به گفته محققان، مهاجمان با جاسازی اسکریپت‌های رمزگذاری ‌شده Base64 در پیام‌های خطای به ظاهر مشروع، مهاجمان کاربران را فریب می‌دهند تا مجموعه‌ای از اقدامات را انجام دهند که منجر به اجرای فرمان‌های مخرب PowerShell می‌شود.

این دستورات معمولاً بارگذاری شده و اجرای payloadهایی مانند فایل‌های HTA را از سرورهای راه دور انجام داده و بدافزارهایی مانند DarkGate و Lumma Stealer را مستقر می‌کنند.

با توجه به پیشرفت سریع در فناوری‌های هوش مصنوعی، تهدیدات سایبری نیز به طور مداوم در حال تغییر و پیچیده‌تر شدن هستند. بنابراین، مقابله با این نوع حملات نیاز به راهکارهای امنیتی پیشرفته و همچنین آموزش و آگاهی‌سازی کاربران دارد.

 بزرگترین نفوذهای داده‌ای در ۲۰۲۴

 بزرگترین نفوذهای داده‌ای در ۲۰۲۴

سال ۲۰۲۴ با موجی از نفوذهای داده‌ای گسترده آغاز شد که تاکنون بیش از یک میلیارد رکورد اطلاعاتی به سرقت رفته است و همچنان این رقم رو به افزایش است. این نقض های داده نه تنها اطلاعات شخصی میلیون‌ها نفر را به خطر انداخته، بلکه نشان داده است که شرکت‌های بزرگ همچنان در برابر تهدیدات سایبری آسیب‌ پذیر هستند.

 در این مطلب، نگاهی داریم به برخی از بزرگترین نفوذهای داده‌ای ۲۰۲۴، از جمله حملات به AT&T، UnitedHealth و Change Healthcare . همچنین بررسی می‌کنیم که چگونه این حوادث رخ دادند و چه پیامدهایی برای سازمان‌ها و افراد داشته‌اند.

AT&T و دو نفوذ بزرگ در یک سال: چه اتفاقی افتاد؟

AT&T، یکی از بزرگترین شرکت‌های مخابراتی جهان، در سال ۲۰۲۴ با دو حمله بزرگ به داده‌های مشتریان خود مواجه شد که تأثیرات مخربی بر جای گذاشتند. اولین حمله در ماه ژوئیه رخ داد، زمانی که هکرها موفق شدند به داده‌های مربوط به شماره تلفن‌ها و سوابق تماس‌های “تقریباً تمامی” مشتریان AT&T دسترسی پیدا کنند.

این اطلاعات از طریق یک حساب کاربری متعلق به AT&T در شرکت Snowflake، که یک غول داده‌ای است، به سرقت رفت. اگرچه محتوای مکالمات یا پیام‌ها به سرقت نرفت، اما اطلاعات مربوط به اینکه چه کسی با چه کسی تماس گرفته و در چه زمانی، افشا شد.

این نوع داده‌ها، که به عنوان “متا داده” شناخته می‌شوند، می‌توانند اطلاعات ارزشمندی را درباره مکان و الگوهای رفتاری افراد فاش کنند. به ویژه، افشای این داده‌ها می‌تواند برای افرادی که در معرض خطر هستند، مانند قربانیان خشونت خانگی، پیامدهای جبران ‌ناپذیری داشته باشد.

اما این تنها حمله به AT&T در سال ۲۰۲۴ نبود. در ماه مارس، یک نفوذ دیگر منجر به انتشار آنلاین داده‌های شخصی ۷۳ میلیون مشتری AT&T شد. این داده‌ها شامل نام، شماره تلفن و آدرس‌های پستی افراد بود که در یک انجمن سایبری شناخته ‌شده به نمایش گذاشته شد.

یک محقق امنیتی کشف کرد که پسوردهای رمزگذاری ‌شده‌ی حساب‌های مشتریان نیز در این داده‌های افشا شده وجود دارد و می‌توان آن‌ها را به راحتی رمزگشایی کرد. AT&T مجبور شد پسوردهای حساب‌های مشتریان خود را بازنشانی کند تا از دسترسی غیرمجاز به حساب‌ها جلوگیری کند. با این حال، هنوز سوالات زیادی درباره چگونگی نفوذ و منشأ آن بدون پاسخ مانده است.

نفوذ به Change Healthcare: سرقت داده‌های حساس پزشکی میلیون‌ها آمریکایی

در نفوذ داده ای دیگری که به شدت بر امنیت اطلاعات پزشکی تأثیر گذاشت، Change Healthcare، یکی از بزرگترین شرکت‌های فناوری سلامت در ایالات متحده، هدف حمله‌ای مخرب قرار گرفت. در این حمله، یک گروه باج ‌افزار توانست به حجم عظیمی از داده‌های حساس پزشکی دست یابد.

 این نقض داده به دلیل عدم استفاده از احراز هویت چند عاملی در یکی از سیستم‌های کلیدی شرکت رخ داد. داده‌های دزدیده شده شامل اطلاعات شخصی، سوابق پزشکی و اطلاعات مالی بیمارانی بود که در بسیاری از بیمارستان‌ها و مراکز بهداشتی در سراسر آمریکا تحت درمان قرار داشتند.

این حادثه نه تنها منجر به قطع گسترده خدمات در بیمارستان‌ها و داروخانه‌ها شد، بلکه پیامدهای طولانی‌ مدتی برای افرادی که اطلاعاتشان به سرقت رفته است، خواهد داشت.

 شرکت UnitedHealth که مالک Change Healthcare است، اعلام کرده که داده‌های دزدیده شده شامل اطلاعات شخصی و پزشکی “بخش قابل توجهی” از جمعیت ایالات متحده می‌شود. این حمله می‌تواند بر روی صدها میلیون نفر تأثیرگذار باشد و بسیاری از افراد در سال‌های آینده با مشکلات جدی ناشی از این نفوذ مواجه خواهند شد.

حمله باج ‌افزاری به Synnovis: تعطیلی خدمات بهداشتی در لندن

در یکی از نقض های داده‌ای دیگر که باز هم به حوزه سلامت مربوط می‌شود، آزمایشگاه پاتولوژی Synnovis در لندن مورد حمله باج‌ افزاری قرار گرفت.

این آزمایشگاه که مسئول انجام آزمایشات خون و بافت برای بیمارستان‌ها و خدمات بهداشتی در سراسر لندن است، پس از این حمله با اختلالات گسترده‌ای مواجه شد. این حادثه منجر به تعویق هزاران عمل جراحی و فرآیندهای پزشکی در بیمارستان‌ها شد و وضعیت اضطراری در سیستم بهداشتی بریتانیا اعلام گردید.

این حمله که توسط یک گروه باج ‌افزار روسی انجام شد، داده‌های مربوط به بیش از ۳۰۰ میلیون تعامل بیمار در طول سال‌های گذشته را به سرقت برد. برخی از این داده‌ها به صورت آنلاین منتشر شد تا آزمایشگاه را مجبور به پرداخت باج کند.

اگرچه Synnovis از پرداخت باج خودداری کرد، اما این اقدام منجر به تلاش گسترده دولت بریتانیا برای مقابله با پیامدهای احتمالی شد، از جمله نگرانی از انتشار عمومی داده‌های بهداشتی حساس.

 

Snowflake و بزرگترین سرقت داده از شرکت‌های بزرگ

در یک سری از بزرگترین نفوذهای داده‌ای در ۲۰۲۴ که از شرکت بزرگ داده‌ای Snowflake آغاز شد، هکرها توانستند به حجم عظیمی از داده‌های مشتریان این شرکت دست یابند. این نفوذ شامل سرقت بیش از ۵۶۰ میلیون رکورد از شرکت Ticketmaster، ۷۹ میلیون رکورد از Advance Auto Parts و ۳۰ میلیون رکورد از TEG بود.

این حمله نشان داد که چگونه استفاده از پسوردهای  دزدیده‌ شده، می‌تواند به هکرها دسترسی به داده‌های حساس شرکت‌های بزرگ را بدهد.

شرکت Snowflake، به دلیل عدم الزام مشتریان خود به استفاده از ویژگی‌های امنیتی خاص، مورد انتقاد قرار گرفت. بسیاری از مشتریان Snowflake هنوز نتوانسته‌اند تأثیرات کامل این حملات را برآورد کنند، و انتظار می‌رود در ماه‌های آینده، شرکت‌های بیشتری از نفوذهای مشابه پرده بردارند.

 

چالش‌های امنیتی در عصر دیجیتال

این نفوذهای گسترده در سال ۲۰۲۴ نشان ‌دهنده چالش‌های پیچیده‌ای است که سازمان‌ها و افراد در عصر دیجیتال با آن مواجه هستند. با افزایش حجم داده‌های حساس و وابستگی بیشتر به سیستم‌های دیجیتال، نیاز به تقویت اقدامات امنیتی بیش از هر زمان دیگری احساس می‌شود. این حوادث نشان می‌دهد که حتی بزرگترین شرکت‌ها نیز از تهدیدات سایبری در امان نیستند و تنها راه مقابله، ارتقاء مستمر فناوری‌ها و پروتکل‌های امنیتی است.

 

تله‌ کپی ‌رایت: ابزاری جدید برای محافظت از آثار در برابر هوش مصنوعی

تله‌ کپی ‌رایت: ابزاری جدید برای محافظت از آثار در برابر هوش مصنوعی

بسیاری از تولید کنندگان محتوا مدعی شده‌اند که آثارشان بدون رضایت آن‌ها برای آموزش مدل‌های هوش مصنوعی استفاده شده است. تاکنون تشخیص اینکه آیا یک متن خاص در مجموعه داده‌های آموزشی مورد استفاده قرار گرفته یا خیر، دشوار بوده است. اما اکنون یک روش جدید برای اثبات این موضوع ایجاد شده است: “تله‌ کپی ‌رایت” (Copyright Trap)، که توسط تیمی از کالج Imperial  لندن توسعه یافته‌اند.

این تله‌ها، قطعاتی از متن‌های مخفی هستند که به نویسندگان و ناشران اجازه می‌دهند آثار خود را به‌ طور نامحسوس علامت ‌گذاری کنند تا بتوانند بعدها تشخیص دهند که آیا اثرشان در مدل‌های هوش مصنوعی مورد استفاده قرار گرفته است یا خیر.

روشی نوین برای شناسایی استفاده غیرمجاز از آثار

ایده تله‌ کپی ‌رایت مشابه تله‌هایی است که صاحبان کپی ‌رایت در طول تاریخ به کار گرفته‌اند، مثل اضافه کردن مکان‌های جعلی روی نقشه یا کلمات جعلی در یک فرهنگ لغت. این تله‌های کپی ‌رایت در حال حاضر یکی از بزرگ‌ترین چالش‌های هوش مصنوعی را هدف گرفته‌اند.

 در حال حاضر، بسیاری از ناشران و نویسندگان درگیر دعوی‌های قضایی علیه شرکت‌های فناوری هستند. آنها ادعا می‌کنند که مالکیت معنوی آن‌ها بدون اجازه در داده‌های آموزشی هوش مصنوعی استفاده شده است. پرونده جاری نیویورک تایمز علیه OpenAI احتمالاً مشهورترین این موارد است.

کد مربوط به تولید و شناسایی این تله‌ها در حال حاضر بر روی GitHub در دسترس است. علاوه بر این، تیم تحقیقاتی در نظر دارد ابزاری تولید کند که به افراد اجازه دهد تله‌ کپی ‌رایت را به ‌طور شخصی تولید کرده و در آثار خود قرار دهند.

چالش‌های فعلی و آینده تله‌ کپی ‌رایت در مبارزه با هوش مصنوعی

Montjoye ، استادیار ریاضیات کاربردی و علوم کامپیوتر و رهبر این تحقیق، در این زمینه می‌گوید: “شفافیت کاملی در مورد اینکه چه محتوایی برای آموزش مدل‌ها استفاده شده وجود ندارد و ما معتقدیم که این موضوع مانع ایجاد توازن صحیح بین شرکت‌های هوش مصنوعی و تولید کنندگان محتوا می‌شود.”

برای ایجاد این تله‌ها، تیم از یک تولید کننده کلمات استفاده کرد تا هزاران جمله مصنوعی بسازد.این جملات بلند و پر از کلمات بی‌ معنی هستند و ممکن است چیزی شبیه به این باشند:

“در زمان‌های بحران … اینکه چه چیزی در فروش است و مهم ‌تر از آن، چه زمانی، بهترین است. این لیست به شما می‌گوید که چه کسی پنجشنبه شب با ساعت‌های عادی فروش و دیگر زمان‌های باز از همسایگان شما باز می‌شود.”

تیم تحقیقاتی ۱۰۰ جمله تله تولید کرد و سپس یکی از آنها را به ‌طور تصادفی انتخاب کرد تا بارها در یک متن تزریق شود. این تله ها می‌تواند به چندین روش در متن قرار گیرد. مثلاً به صورت متن سفید روی پس‌ زمینه سفید یا در کد منبع مقاله جاسازی شود. این جمله باید بین ۱۰۰ تا ۱۰۰۰ بار در متن تکرار شود.

برای شناسایی تله‌ها، محققان مدل زبانی بزرگی را با ۱۰۰ جمله مصنوعی که تولید کرده بودند، تغذیه کردند. سپس بررسی کردند که آیا مدل آن‌ها را به‌ عنوان جملات جدید شناسایی می‌کند یا خیر. اگر مدل جمله تله را در داده‌های آموزشی خود دیده باشد، امتیاز “تعجب” پایین ‌تری را نشان می‌دهد. اما اگر مدل از جمله‌ای “متعجب” شود، به این معنی است که برای اولین بار با آن روبرو شده و بنابراین آن جمله تله نیست.

از آنجاییکه مدل‌های زبانی داده‌های آموزشی خود را حفظ می‌کنند، محققان پیشنهاد کرده‌ بودند از این داده ها استفاده شود. سپس بررسی شود که آیا یک متن در داده‌های آموزشی ظاهر شده است یا خیر. این تکنیک به “حمله استنتاج عضویت” معروف است.  از این تکنیک در مدل‌های بزرگ و پیشرفته که تمایل به حفظ بسیاری از داده‌های خود دارند، استفاده می شود.

در مقابل، مدل‌های کوچکتر که محبوبیت بیشتری پیدا کرده‌اند و می‌توانند روی دستگاه‌های موبایل اجرا شوند، داده‌های کمتری را حفظ می‌کنند . بنابراین کمتر در معرض “حملات استنتاج عضویت” قرار دارند. این موضوع تشخیص اینکه آیا این مدل‌ها روی یک سند دارای کپی ‌رایت آموزش دیده‌اند یا خیر را دشوارتر می‌کند.

تله‌ کپی ‌رایت روشی است که حتی در مدل‌های کوچک‌تر هم می‌توان حملات استنتاج عضویت را انجام داد.

تکرار یک عبارت ۷۵ کلمه‌ای به تعداد ۱۰۰۰ بار در یک سند، تغییری بزرگ در متن اصلی است. بنابراین ممکن است افرادی که مدل‌های هوش مصنوعی را آموزش می‌دهند، تله را شناسایی کنند. حتی ممکن است محتوای حاوی آن را رد کنند یا فقط آن را حذف کنند و روی بقیه متن آموزش دهند. این موضوع همچنین باعث می‌شود که متن اصلی سخت خوانده شود.

بسیاری از شرکت‌ها داده‌ها را از تکرارها پاکسازی می‌کنند و احتمالاً بخشی از این نوع محتوا حذف خواهد شد. اما حتی در آن صورت هم، هرچه تعداد تله‌ها بیشتر باشد، حذف همه آن‌ها بدون منابع مهندسی قابل ‌توجه سخت‌تر می‌شود. این موضوع در حال حاضر تله‌ کپی ‌رایت را غیر عملی می‌کند.

یکی از راه‌های بهبود تله‌ کپی ‌رایت ، یافتن روش‌هایی دیگر برای علامت‌ گذاری محتوای دارای کپی ‌رایت است. راه هایی که حملات استنتاج عضویت روی آن‌ها بهتر عمل کنند و یا “حملات استنتاج عضویت” را بهبود دهد.

مهم است به یاد داشته باشیم که تله‌ کپی ‌رایت ممکن است فقط یک راه‌ حل موقتی یا صرفاً یک مانع برای آموزش‌ دهندگان مدل‌ها باشند. نمی‌توان یک قطعه محتوا را منتشر کرد که دارای یک تله باشد و اطمینان داشت که این تله برای همیشه مؤثر خواهد بود.

کسب مدال نقره المپیاد جهانی ریاضی توسط هوش مصنوعی

کسب مدال نقره المپیاد جهانی ریاضی توسط هوش مصنوعی

سیستم‌های جدید Google DeepMind اکنون قادر به حل مسائل پیچیده ریاضی با هوش مصنوعی هستند. این سیستم‌ها که AlphaProof و AlphaGeometry 2 نام دارند، گامی بزرگ به سوی ساخت سیستم‌هایی برداشته‌اند که می‌توانند به استدلال بپردازند.

این موضوع می‌تواند به قابلیت‌های جدید و هیجان‌ انگیزی منجر شود.

چالش حل مسائل پیچیده ریاضی با هوش مصنوعی

مدل‌های هوش مصنوعی به راحتی می‌توانند مقالات و متن‌های مختلفی تولید کنند. اما حل مسائل ریاضی که نیاز به استدلال پیشرفته دارند، برای سیستم‌های هوش مصنوعی بسیار دشوار است. این نوع مسائل اغلب نیاز به انتزاع ‌سازی، برنامه ‌ریزی پیچیده، بازگشت به مراحل قبلی و امتحان کردن مسیرهای جدید دارند که برای هوش مصنوعی چالش‌ برانگیز است.

 اما این وضعیت در حال تغییر می باشد. Google DeepMind اعلام کرده است که دو سیستم هوش مصنوعی تخصصی را آموزش داده است تا بتوانند مسائل پیچیده ریاضی که نیاز به استدلال پیشرفته دارند، حل کنند.

این سیستم‌ها که AlphaProof و AlphaGeometry 2 نامیده می‌شوند، با همکاری یکدیگر توانستند چهار مسئله از شش مسئله المپیاد جهانی ریاضی (IMO) امسال را حل کنند.

این المپیاد یکی از معتبرترین مسابقات برای دانش ‌آموزان دبیرستانی است. این سیستم‌ها موفق شدند معادل مدال نقره را کسب کنند.

عملکرد سیستم‌های AlphaProof و AlphaGeometry 2

این اولین باری است که یک سیستم هوش مصنوعی توانسته به چنین موفقیتی در حل این نوع مسائل دست یابد. حل مسائل پیچیده ریاضی با هوش مصنوعی یک پیشرفت بزرگ در زمینه یادگیری ماشین و هوش مصنوعی است.

هدف Google DeepMind در ایجاد AlphaProof ، یک سیستم مبتنی بر یادگیری تقویتی است. این سیستم خودش را برای اثبات عبارات ریاضی در زبان برنامه ‌نویسی رسمی Lean آموزش می‌دهد.

AlphaProof با استفاده از مدل Gemini DeepMind ، مسائل ریاضی به زبان طبیعی و غیررسمی را به عبارات رسمی که برای پردازش توسط هوش مصنوعی مناسب‌تر هستند، ترجمه می‌کند.

این کار یک کتابخانه بزرگ از مسائل ریاضی رسمی با درجات مختلفی از دشواری ایجاد کرده است. اتوماسیون فرآیند ترجمه داده‌ها به زبان رسمی یک گام بزرگ برای جامعه ریاضی محسوب می‌شود.

AlphaZero مدلی است که Google DeepMind برای تسلط بر بازی‌هایی مانند شطرنج و Go آموزش داده بود. مدل Gemini در کنار AlphaZero، کار می‌کند تا میلیون‌ها مسئله ریاضی را اثبات یا رد کند. هر چه تعداد بیشتری از این مسائل به درستی حل می‌شود، AlphaProof  نیز در برخورد با مسائل پیچیده‌تر بهتر می‌شود.

AlphaProof  برای مقابله با مسائل در گستره وسیعی از موضوعات ریاضی آموزش دیده است. AlphaGeometry 2 به ‌طور خاص برای مقابله با مسائلی که به حرکات اشیا و معادلات مربوط به زوایا، نسبت‌ها و فواصل مربوط می‌شوند، بهینه ‌سازی شده است.

این سیستم با داده‌های مصنوعی بسیار بیشتری نسبت به نسخه قبلی خود، آموزش دیده است و به همین دلیل توانست به مسائل هندسی چالش ‌برانگیزتری پاسخ دهد.

برای آزمودن قابلیت‌های این سیستم‌ها، پژوهشگران آنها خواستند که شش مسئله مطرح شده در المپیاد جهانی ریاضی امسال را حل کنند.  همچنین اثبات کنند که پاسخ‌هایشان درست است.

AlphaProof  توانست دو مسئله جبر و یک مسئله نظریه اعداد را حل کند که یکی از آن‌ها سخت‌ ترین مسئله این مسابقات بود. AlphaGeometry 2 نیز موفق شد یک مسئله هندسه را حل کند. اما دو مسائل مربوط به شاخه‌ای از ریاضیات که بر شمارش و ترتیب‌ دهی اشیا متمرکز است، بی ‌پاسخ باقی ماند.

دو ریاضیدان برجسته ، پاسخ‌های ارائه شده توسط این سیستم‌ها را بررسی کردند. آن‌ها به هر چهار پاسخ صحیح این سیستم‌ها نمره کامل دادند. اگر یک شرکت‌ کننده انسانی به این امتیاز دست می‌یافت، مدال نقره کسب می‌کرد .

این اولین باری است که یک سیستم هوش مصنوعی موفق به کسب عملکردی در سطح مدال در پرسش‌های المپیاد جهانی ریاضی شده است . این دستاورد، بسیار چشمگیر و نشان‌ دهنده یک جهش بزرگ است.

آینده همکاری انسان و هوش مصنوعی در ریاضیات

سیستم‌هایی که توانایی حل مسائل پیچیده ریاضی با هوش مصنوعی را دارند، می‌تواند راه را برای همکاری‌های هیجان ‌انگیز بین انسان و هوش مصنوعی هموار کند.

این همکاری‌ها می‌تواند به ریاضیدانان کمک کند تا هم مسائل جدیدی را حل کنند و هم نوع جدیدی از مسائل را ابداع کنند. این سیستم‌ها با توانایی حل و ابداع مسائل جدید، می‌توانند به ریاضی‌دانان کمک کنند تا به درک بهتری از نحوه حل مسائل ریاضی توسط انسان‌ها برسند.

پیشرفت‌ در این زمینه، نشان‌ دهنده یک جهش بزرگ در توانایی‌های هوش مصنوعی در حل مسائل پیچیده ریاضی است و می‌تواند مسیرهای جدیدی را برای تحقیقات آینده باز کند.

جالب خواهد بود که ببینیم این سیستم‌ها چگونه در مقیاس بزرگ‌تر عمل می‌کنند . آیا می‌توان آن‌ها را سریع‌تر کرد و به دیگر شاخه‌های ریاضیات نیز گسترش یابند یا خیر.