مدل جدید هوش مصنوعی DeepSeek و محدودیتهای بحثبرانگیز آزادی بیان
مدل جدید هوش مصنوعی DeepSeek با نام R۱، ۰۵۲۸ با اعمال محدودیتهای بیشتر بر آزادی بیان، نگرانیها را برانگیخته است. پژوهشگران این تغییر را عقبگردی در شفافیت و گفتوگوی آزاد میدانند.

مدل جدید هوش مصنوعی شرکت DeepSeek با نام R۱، ۰۵۲۸، نگرانیهایی را برانگیخته است؛ چراکه به نظر میرسد نسبت به نسخههای قبلی، محدودیتهای بیشتری در مورد آزادی بیان و موضوعاتی که کاربران میتوانند دربارهشان صحبت کنند، اعمال کرده است. یکی از پژوهشگران برجسته هوش مصنوعی این اقدام را «گامی بزرگ به عقب برای آزادی بیان» توصیف کرده است.
پژوهشگری با نام کاربری آنلاین xlr۸harder، عملکرد این مدل را آزمایش کرده و نتایجی منتشر کرده که نشان میدهد DeepSeek در حال افزایش سطح سانسور محتوایی خود است. به گفته او: «مدل R۱، ۰۵۲۸ از نظر آزادی بیان، بهویژه در موضوعات جنجالی، بهمراتب محدودتر از نسخههای قبلی DeepSeek است.»
آنچه هنوز مشخص نیست این است که آیا این تغییر نشاندهنده تغییری عمدی در رویکرد فلسفی شرکت است یا صرفاً روشی متفاوت برای افزایش ایمنی فنی در مدلهای هوش مصنوعی. نکتهای که مدل جدید را خاص میکند، نحوهی متناقض و غیرشفاف در اعمال مرزهای اخلاقی است.
برای مثال، در یکی از آزمایشهای مربوط به آزادی بیان، وقتی از مدل خواسته شد که دربارهی دفاع از اردوگاههای بازداشت مخالفان سیاسی استدلالهایی ارائه کند، مدل قاطعانه از پاسخ دادن خودداری کرد. با این حال، در حین امتناع خود، صراحتاً از اردوگاههای بازداشت در سینکیانگ چین به عنوان نمونهای از نقض حقوق بشر نام برد. اما وقتی مستقیماً درباره همان اردوگاههای سینکیانگ از مدل سؤال شد، پاسخهایی بهشدت سانسورشده ارائه داد. این موضوع نشان میدهد که مدل، اطلاعات مربوط به برخی موضوعات بحثبرانگیز را در اختیار دارد، اما طوری برنامهریزی شده که هنگام مواجهه مستقیم با این موضوعات، خود را به «ندانستن» بزند.
پژوهشگر در این باره گفت: «جالب ولی نه چندان غافلگیرکننده است که مدل میتواند اردوگاهها را به عنوان نمونهای از نقض حقوق بشر مطرح کند، اما وقتی مستقیم سؤال میشود، آن را انکار میکند.» انتقاد از چین؟ پاسخ: نه
همچنین بخوانید: فرصت طلایی گوگل: دسترسی رایگان به Gemini Pro برای دانشجویان
این الگو در مواجهه با پرسشهایی درباره دولت چین حتی بیشتر خود را نشان میدهد
با استفاده از مجموعهسؤالهایی استاندارد که برای سنجش میزان آزادی بیان مدلهای هوش مصنوعی در برابر موضوعات حساس سیاسی طراحی شدهاند، پژوهشگر دریافت که مدل R۱، ۰۵۲۸، بیشترین میزان سانسور را در بین مدلهای DeepSeek نسبت به انتقاد از دولت چین دارد. در حالی که مدلهای قبلی DeepSeek ممکن بود در برابر پرسشهایی درباره سیاستهای چین یا وضعیت حقوق بشر در آن کشور، پاسخهایی محتاطانه و سنجیده ارائه دهند، مدل جدید اغلب از هرگونه پاسخگویی در این زمینه خودداری میکند و این موضوع برای کسانی که خواهان بحث آزاد درباره مسائل جهانی با کمک هوش مصنوعی هستند، نگرانکننده است.
با این حال، یک نکته مثبت در این میان وجود دارد که برخلاف مدلهای بسته شرکتهای بزرگتر، مدلهای DeepSeek همچنان متنباز (Open Source) و دارای مجوز باز هستند.
به گزارش WSAINE، پژوهشگر میگوید: «این مدل متنباز و دارای مجوز آزاد است، بنابراین جامعه توسعهدهندگان میتواند (و قطعاً خواهد توانست) این مسئله را اصلاح کند.»
دسترسی آزاد به مدلها به این معناست که توسعهدهندگان میتوانند نسخههایی را ایجاد کنند که تعادل بهتری میان ایمنی و آزادی گفتوگو برقرار کنند.
مدل جدید DeepSeek چه چیزی درباره آزادی بیان در دوران هوش مصنوعی به ما میگوید؟
این وضعیت، واقعیتی نگرانکننده را درباره چگونگی ساخت این سیستمها آشکار میکند.
مدلها ممکن است از رویدادهای جنجالی آگاهی داشته باشند، اما طوری برنامهریزی شدهاند که بسته به نحوهی مطرح شدن سؤال، وانمود کنند چیزی نمیدانند.
با گسترش حضور هوش مصنوعی در زندگی روزمره، یافتن تعادلی مناسب میان محافظتهای منطقی و گفتوگوی آزاد، اهمیت بیشتری پیدا میکند. اگر سیستمها بیش از حد محدود باشند، دیگر برای بحث درباره موضوعات مهم و مناقشهبرانگیز کاربردی نخواهند بود. اگر بیش از حد آزاد باشند، ممکن است به اشاعه محتوای مضر کمک کنند.
شرکت DeepSeek تاکنون هیچگونه توضیح رسمی درباره دلایل این محدودسازیها و عقبگرد در آزادی بیان ارائه نداده است، اما جامعهی هوش مصنوعی از هماکنون در حال کار بر روی اصلاح این وضعیت است.
در حال حاضر، این وضعیت را میتوان به عنوان فصل جدیدی در کشمکش همیشگی میان ایمنی و شفافیت در توسعه هوش مصنوعی ثبت کرد.
منبع: آناتک