با گسترش کاربرد مدل‌های زبانی بزرگ در زمینه‌های گوناگون، بحث پیرامون سانسور، جانبداری و محدودسازی اطلاعات در هوش مصنوعی به یکی از چالش‌های اصلی این فناوری تبدیل شده است. بسیاری از مدل‌های موجود، به دلیل ملاحظات اخلاقی یا سیاسی، از ارائه برخی پاسخ‌ها خودداری می‌کنند یا اطلاعات را به‌صورت ناقص ارائه می‌دهند. این محدودیت‌ها، اگرچه با هدف حفظ امنیت و جلوگیری از سوءاستفاده اعمال می‌شوند، اما در برخی موارد می‌توانند دقت، بی‌طرفی و کارایی مدل‌ها را کاهش دهند.
در این میان، فناوری نوین CTGT با رویکردی متفاوت، راهکاری برای حذف یا تعدیل سانسور در مدل‌های هوش مصنوعی ارائه کرده است. این فناوری بدون نیاز به بازآموزی یا تغییر اساسی در ساختار مدل، امکان تنظیم دقیق پاسخ‌گویی را فراهم می‌سازد و افق تازه‌ای در توسعه مدل‌های زبانی انعطاف‌پذیر و قابل کنترل می‌گشاید.

 چرا حذف سانسور در مدل‌های هوش مصنوعی اهمیت دارد؟ 

سانسور در مدل‌های هوش مصنوعی، به دلایل مختلفی از جمله امنیت، کنترل اطلاعات و جلوگیری از انتشار محتوای خطرناک اعمال می‌شود. اما برخی منتقدان معتقدند که این محدودیت‌ها می‌تواند بر دقت، بی‌ طرفی و کاربرد پذیری مدل‌ها تأثیر منفی بگذارد.

🔹 در زمینه امنیت ملی، نگرانی‌ها پیرامون مدل‌هایی نظیر DeepSeek افزایش یافته است،چرا که ممکن است برخی اطلاعات حساس را مسدود کنند یا جانبداری خاصی در نتایج داشته باشند.

🔹 از نگاه پژوهشگران، نبود دسترسی به برخی داده‌ها در مدل‌های سانسور شده، مانعی برای بهره‌وری محسوب می‌شود.

🔹از منظر تجاری، سازمان‌ها به مدل‌هایی نیاز دارند که با سیاست‌های داخلی‌شان هماهنگ باشد. اما سانسور اعمال‌ شده، ممکن است مانع از ایجاد پاسخ‌های شخصی ‌سازی ‌شده شود.

🔹 مدافعان آزادی اطلاعات باور دارند که سانسور نباید مانعی برای یادگیری و تصمیم‌گیری آزاد باشد.

 فناوری CTGT چگونه کار می‌کند؟ 

CTGT  به جای تغییر در وزن‌های مدل یا افزودن داده‌های جدید، یک رویکرد مستقیم برای شناسایی و اصلاح ویژگی‌های داخلی مدل ایجاد کرده است. این روش شامل سه مرحله کلیدی است:

  1. شناسایی ویژگی‌های مرتبط با سانسور

محققان با استفاده از مجموعه‌ای از پرسش‌های حساس، رفتار مدل را تحلیل کرده و مشخص می‌کنند کدام لایه‌های داخلی مدل مسئول سانسور هستند.

۲.تفکیک و تحلیل ویژگی‌ها

تیم تحقیقاتی بررسی می‌کند که دقیقاً چه بخشی از رفتار مدل تحت تأثیر این ویژگی‌ها قرار دارد. این ویژگی‌ها ممکن است باعث احتیاط بیشتر در پاسخ‌ دهی یا امتناع کامل مدل از ارائه پاسخ شوند.

  1. اصلاح پویا ویژگی‌های سانسور

محققان این سیستم تنظیم‌ کننده را در مدل ادغام می‌کنند که میزان تأثیر این ویژگی‌ها را به ‌صورت پویا تنظیم می‌کند. به این ترتیب، مدل می‌تواند به سؤالات بیشتری پاسخ دهد، بدون اینکه دقت یا عملکرد آن کاهش یابد.

 

 نتایج آزمایش‌ها: افزایش نرخ پاسخ‌ دهی 

طبق آزمایش‌های انجام‌ شده توسط CTGT روی مدل DeepSeek-R1-Distill-Llama-70B:

📌در نسخه اولیه، تنها ۳۲٪ از پرسش‌های حساس با پاسخ همراه بودند.

📌در مقابل، نسخه به‌ روز شده موفق شد به ۹۶٪ پرسش‌ها پاسخ دهد.

📌جالب اینکه، تنها ۴٪ از پرسش‌ها به دلیل محتوای کاملاً نامناسب، همچنان بدون پاسخ باقی ماندند.

این نشان می‌دهد که فناوری CTGT موفق شده است امکان پاسخ‌ دهی به پرسش‌های حساس را به‌ طور چشمگیری افزایش دهد.

 

 آیا حذف سانسور باعث کاهش عملکرد مدل می‌شود؟ 

  • برخلاف روش‌های سنتی مانند فاین ‌تیونینگ، این تکنیک نیاز به آموزش دوباره مدل ندارد و نتایج بلافاصله اعمال می‌شوند.
  • CTGT وزن‌های مدل را به‌ صورت دائمی تغییر نمی‌دهد، بنابراین میزان تنظیمات می‌تواند بسته به کاربرد متفاوت باشد.
  • مدل همچنان توانایی حفظ امنیت و عدم تولید محتوای غیرقانونی را دارد.

این روش برخلاف فاین‌ تیونینگ، مدل را به‌ طور دائمی تغییر نمی‌دهد. بلکه تنظیمات آن را قابل تغییر و کنترل می‌کند. این یعنی مدل می‌تواند بسته به موقعیت، رفتار خود را تغییر دهد.

 

 ابعاد امنیتی و سیاست‌های هوش مصنوعی 

در گزارش اخیر کنگره ایالات متحده، پیشنهاد شده است که آمریکا باید کنترل‌های صادراتی خود را گسترش دهد تا ریسک مدل‌های هوش مصنوعی چین، مانند DeepSeek، کاهش یابد.  اما آیا

🔹 تنظیم سانسور در AI ضروری است یا باید محتاطانه‌تر عمل کرد؟

🔹 حذف سانسور، خطرات امنیتی ایجاد می‌کند، یا باعث بهبود عملکرد و آزادی اطلاعات می‌شود؟

 

 نظر CTGT در مورد آینده تنظیمات هوش مصنوعی 

به باور CTGT، داشتن کنترل انعطاف‌پذیر بر مدل‌های هوش مصنوعی، یکی از الزامات عصر دیجیتال است. چنین مزیتی در صنایع پرریسک، مانند امنیت، سلامت و امور مالی، اهمیت دوچندانی پیدا می‌کند.

فناوری توسعه‌ یافته توسط این استارتاپ به شرکت‌ها امکان می‌دهد بدون صرف هزینه‌های کلان، مدل‌ها را مطابق نیاز تنظیم کنند.این موضوع در کاربردهای پرریسک بسیار حیاتی است.

 این تحول ممکن است مسیر توسعه هوش مصنوعی را تغییر دهد و تأثیر عمیقی بر آینده امنیت و سیاست ‌گذاری‌های AI داشته باشد.

  نظر شما چیست؟ آیا حذف سانسور از مدل‌های هوش مصنوعی ضروری است یا باید محدودیت‌های بیشتری اعمال شود؟