مدل جدید هوش مصنوعی DeepSeek و محدودیت‌های بحث‌برانگیز آزادی بیان

مدل جدید هوش مصنوعی DeepSeek با نام R۱، ۰۵۲۸ با اعمال محدودیت‌های بیشتر بر آزادی بیان، نگرانی‌ها را برانگیخته است. پژوهشگران این تغییر را عقب‌گردی در شفافیت و گفت‌وگوی آزاد می‌دانند.

مدل جدید هوش مصنوعی شرکت DeepSeek با نام R۱، ۰۵۲۸، نگرانی‌هایی را برانگیخته است؛ چراکه به نظر می‌رسد نسبت به نسخه‌های قبلی، محدودیت‌های بیشتری در مورد آزادی بیان و موضوعاتی که کاربران می‌توانند درباره‌شان صحبت کنند، اعمال کرده است. یکی از پژوهشگران برجسته هوش مصنوعی این اقدام را «گامی بزرگ به عقب برای آزادی بیان» توصیف کرده است.

پژوهشگری با نام کاربری آنلاین xlr۸harder، عملکرد این مدل را آزمایش کرده و نتایجی منتشر کرده که نشان می‌دهد DeepSeek در حال افزایش سطح سانسور محتوایی خود است. به گفته او: «مدل R۱، ۰۵۲۸ از نظر آزادی بیان، به‌ویژه در موضوعات جنجالی، به‌مراتب محدودتر از نسخه‌های قبلی DeepSeek است.»

آنچه هنوز مشخص نیست این است که آیا این تغییر نشان‌دهنده تغییری عمدی در رویکرد فلسفی شرکت است یا صرفاً روشی متفاوت برای افزایش ایمنی فنی در مدل‌های هوش مصنوعی. نکته‌ای که مدل جدید را خاص می‌کند، نحوه‌ی متناقض و غیرشفاف در اعمال مرز‌های اخلاقی است.

برای مثال، در یکی از آزمایش‌های مربوط به آزادی بیان، وقتی از مدل خواسته شد که درباره‌ی دفاع از اردوگاه‌های بازداشت مخالفان سیاسی استدلال‌هایی ارائه کند، مدل قاطعانه از پاسخ دادن خودداری کرد. با این حال، در حین امتناع خود، صراحتاً از اردوگاه‌های بازداشت در سین‌کیانگ چین به عنوان نمونه‌ای از نقض حقوق بشر نام برد. اما وقتی مستقیماً درباره همان اردوگاه‌های سین‌کیانگ از مدل سؤال شد، پاسخ‌هایی به‌شدت سانسورشده ارائه داد. این موضوع نشان می‌دهد که مدل، اطلاعات مربوط به برخی موضوعات بحث‌برانگیز را در اختیار دارد، اما طوری برنامه‌ریزی شده که هنگام مواجهه مستقیم با این موضوعات، خود را به «ندانستن» بزند.

پژوهشگر در این باره گفت: «جالب ولی نه چندان غافلگیرکننده است که مدل می‌تواند اردوگاه‌ها را به عنوان نمونه‌ای از نقض حقوق بشر مطرح کند، اما وقتی مستقیم سؤال می‌شود، آن را انکار می‌کند.» انتقاد از چین؟ پاسخ: نه

همچنین بخوانید: فرصت طلایی گوگل: دسترسی رایگان به Gemini Pro برای دانشجویان

این الگو در مواجهه با پرسش‌هایی درباره دولت چین حتی بیشتر خود را نشان می‌دهد

با استفاده از مجموعه‌سؤال‌هایی استاندارد که برای سنجش میزان آزادی بیان مدل‌های هوش مصنوعی در برابر موضوعات حساس سیاسی طراحی شده‌اند، پژوهشگر دریافت که مدل R۱، ۰۵۲۸، بیشترین میزان سانسور را در بین مدل‌های DeepSeek نسبت به انتقاد از دولت چین دارد. در حالی که مدل‌های قبلی DeepSeek ممکن بود در برابر پرسش‌هایی درباره سیاست‌های چین یا وضعیت حقوق بشر در آن کشور، پاسخ‌هایی محتاطانه و سنجیده ارائه دهند، مدل جدید اغلب از هرگونه پاسخ‌گویی در این زمینه خودداری می‌کند و این موضوع برای کسانی که خواهان بحث آزاد درباره مسائل جهانی با کمک هوش مصنوعی هستند، نگران‌کننده است.

با این حال، یک نکته مثبت در این میان وجود دارد که برخلاف مدل‌های بسته شرکت‌های بزرگ‌تر، مدل‌های DeepSeek همچنان متن‌باز (Open Source) و دارای مجوز باز هستند.

به گزارش WSAINE، پژوهشگر می‌گوید: «این مدل متن‌باز و دارای مجوز آزاد است، بنابراین جامعه توسعه‌دهندگان می‌تواند (و قطعاً خواهد توانست) این مسئله را اصلاح کند.»

دسترسی آزاد به مدل‌ها به این معناست که توسعه‌دهندگان می‌توانند نسخه‌هایی را ایجاد کنند که تعادل بهتری میان ایمنی و آزادی گفت‌و‌گو برقرار کنند.

مدل جدید DeepSeek چه چیزی درباره آزادی بیان در دوران هوش مصنوعی به ما می‌گوید؟

این وضعیت، واقعیتی نگران‌کننده را درباره چگونگی ساخت این سیستم‌ها آشکار می‌کند.

مدل‌ها ممکن است از رویداد‌های جنجالی آگاهی داشته باشند، اما طوری برنامه‌ریزی شده‌اند که بسته به نحوه‌ی مطرح شدن سؤال، وانمود کنند چیزی نمی‌دانند.

با گسترش حضور هوش مصنوعی در زندگی روزمره، یافتن تعادلی مناسب میان محافظت‌های منطقی و گفت‌وگوی آزاد، اهمیت بیشتری پیدا می‌کند. اگر سیستم‌ها بیش از حد محدود باشند، دیگر برای بحث درباره موضوعات مهم و مناقشه‌برانگیز کاربردی نخواهند بود. اگر بیش از حد آزاد باشند، ممکن است به اشاعه محتوای مضر کمک کنند.

شرکت DeepSeek تاکنون هیچ‌گونه توضیح رسمی درباره دلایل این محدودسازی‌ها و عقب‌گرد در آزادی بیان ارائه نداده است، اما جامعه‌ی هوش مصنوعی از هم‌اکنون در حال کار بر روی اصلاح این وضعیت است.

در حال حاضر، این وضعیت را می‌توان به عنوان فصل جدیدی در کشمکش همیشگی میان ایمنی و شفافیت در توسعه هوش مصنوعی ثبت کرد.

منبع: آناتک

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا