با گسترش کاربرد مدلهای زبانی بزرگ در زمینههای گوناگون، بحث پیرامون سانسور، جانبداری و محدودسازی اطلاعات در هوش مصنوعی به یکی از چالشهای اصلی این فناوری تبدیل شده است. بسیاری از مدلهای موجود، به دلیل ملاحظات اخلاقی یا سیاسی، از ارائه برخی پاسخها خودداری میکنند یا اطلاعات را بهصورت ناقص ارائه میدهند. این محدودیتها، اگرچه با هدف حفظ امنیت و جلوگیری از سوءاستفاده اعمال میشوند، اما در برخی موارد میتوانند دقت، بیطرفی و کارایی مدلها را کاهش دهند.
در این میان، فناوری نوین CTGT با رویکردی متفاوت، راهکاری برای حذف یا تعدیل سانسور در مدلهای هوش مصنوعی ارائه کرده است. این فناوری بدون نیاز به بازآموزی یا تغییر اساسی در ساختار مدل، امکان تنظیم دقیق پاسخگویی را فراهم میسازد و افق تازهای در توسعه مدلهای زبانی انعطافپذیر و قابل کنترل میگشاید.
چرا حذف سانسور در مدلهای هوش مصنوعی اهمیت دارد؟
سانسور در مدلهای هوش مصنوعی، به دلایل مختلفی از جمله امنیت، کنترل اطلاعات و جلوگیری از انتشار محتوای خطرناک اعمال میشود. اما برخی منتقدان معتقدند که این محدودیتها میتواند بر دقت، بی طرفی و کاربرد پذیری مدلها تأثیر منفی بگذارد.
🔹 در زمینه امنیت ملی، نگرانیها پیرامون مدلهایی نظیر DeepSeek افزایش یافته است،چرا که ممکن است برخی اطلاعات حساس را مسدود کنند یا جانبداری خاصی در نتایج داشته باشند.
🔹 از نگاه پژوهشگران، نبود دسترسی به برخی دادهها در مدلهای سانسور شده، مانعی برای بهرهوری محسوب میشود.
🔹از منظر تجاری، سازمانها به مدلهایی نیاز دارند که با سیاستهای داخلیشان هماهنگ باشد. اما سانسور اعمال شده، ممکن است مانع از ایجاد پاسخهای شخصی سازی شده شود.
🔹 مدافعان آزادی اطلاعات باور دارند که سانسور نباید مانعی برای یادگیری و تصمیمگیری آزاد باشد.
فناوری CTGT چگونه کار میکند؟
CTGT به جای تغییر در وزنهای مدل یا افزودن دادههای جدید، یک رویکرد مستقیم برای شناسایی و اصلاح ویژگیهای داخلی مدل ایجاد کرده است. این روش شامل سه مرحله کلیدی است:
- شناسایی ویژگیهای مرتبط با سانسور
محققان با استفاده از مجموعهای از پرسشهای حساس، رفتار مدل را تحلیل کرده و مشخص میکنند کدام لایههای داخلی مدل مسئول سانسور هستند.
۲.تفکیک و تحلیل ویژگیها
تیم تحقیقاتی بررسی میکند که دقیقاً چه بخشی از رفتار مدل تحت تأثیر این ویژگیها قرار دارد. این ویژگیها ممکن است باعث احتیاط بیشتر در پاسخ دهی یا امتناع کامل مدل از ارائه پاسخ شوند.
- اصلاح پویا ویژگیهای سانسور
محققان این سیستم تنظیم کننده را در مدل ادغام میکنند که میزان تأثیر این ویژگیها را به صورت پویا تنظیم میکند. به این ترتیب، مدل میتواند به سؤالات بیشتری پاسخ دهد، بدون اینکه دقت یا عملکرد آن کاهش یابد.
نتایج آزمایشها: افزایش نرخ پاسخ دهی
طبق آزمایشهای انجام شده توسط CTGT روی مدل DeepSeek-R1-Distill-Llama-70B:
📌در نسخه اولیه، تنها ۳۲٪ از پرسشهای حساس با پاسخ همراه بودند.
📌در مقابل، نسخه به روز شده موفق شد به ۹۶٪ پرسشها پاسخ دهد.
📌جالب اینکه، تنها ۴٪ از پرسشها به دلیل محتوای کاملاً نامناسب، همچنان بدون پاسخ باقی ماندند.
این نشان میدهد که فناوری CTGT موفق شده است امکان پاسخ دهی به پرسشهای حساس را به طور چشمگیری افزایش دهد.
آیا حذف سانسور باعث کاهش عملکرد مدل میشود؟
- برخلاف روشهای سنتی مانند فاین تیونینگ، این تکنیک نیاز به آموزش دوباره مدل ندارد و نتایج بلافاصله اعمال میشوند.
- CTGT وزنهای مدل را به صورت دائمی تغییر نمیدهد، بنابراین میزان تنظیمات میتواند بسته به کاربرد متفاوت باشد.
- مدل همچنان توانایی حفظ امنیت و عدم تولید محتوای غیرقانونی را دارد.
این روش برخلاف فاین تیونینگ، مدل را به طور دائمی تغییر نمیدهد. بلکه تنظیمات آن را قابل تغییر و کنترل میکند. این یعنی مدل میتواند بسته به موقعیت، رفتار خود را تغییر دهد.
ابعاد امنیتی و سیاستهای هوش مصنوعی
در گزارش اخیر کنگره ایالات متحده، پیشنهاد شده است که آمریکا باید کنترلهای صادراتی خود را گسترش دهد تا ریسک مدلهای هوش مصنوعی چین، مانند DeepSeek، کاهش یابد. اما آیا
🔹 تنظیم سانسور در AI ضروری است یا باید محتاطانهتر عمل کرد؟
🔹 حذف سانسور، خطرات امنیتی ایجاد میکند، یا باعث بهبود عملکرد و آزادی اطلاعات میشود؟
نظر CTGT در مورد آینده تنظیمات هوش مصنوعی
به باور CTGT، داشتن کنترل انعطافپذیر بر مدلهای هوش مصنوعی، یکی از الزامات عصر دیجیتال است. چنین مزیتی در صنایع پرریسک، مانند امنیت، سلامت و امور مالی، اهمیت دوچندانی پیدا میکند.
فناوری توسعه یافته توسط این استارتاپ به شرکتها امکان میدهد بدون صرف هزینههای کلان، مدلها را مطابق نیاز تنظیم کنند.این موضوع در کاربردهای پرریسک بسیار حیاتی است.
این تحول ممکن است مسیر توسعه هوش مصنوعی را تغییر دهد و تأثیر عمیقی بر آینده امنیت و سیاست گذاریهای AI داشته باشد.
نظر شما چیست؟ آیا حذف سانسور از مدلهای هوش مصنوعی ضروری است یا باید محدودیتهای بیشتری اعمال شود؟