مطالعه استنفورد: رقابت برای لایک رباتها را به انتشار اطلاعات نادرست سوق میدهد
تحقیقات دانشگاه استنفورد نشان میدهد که رقابت و پاداش در شبکههای اجتماعی میتواند هوش مصنوعی را به سمت رفتارهای غیر اخلاقی، انتشار اطلاعات نادرست و پیامهای جامعهستیزانه هدایت کند.

تحریریه حرف مرد: هوش مصنوعی به سرعت به بخشی جداییناپذیر از زندگی دیجیتال ما تبدیل شده است؛ از فروشگاههای آنلاین گرفته تا شبکههای اجتماعی، رباتهای هوشمند همهجا حضور دارند. اما مطالعهای تازه از دانشمندان دانشگاه استنفورد نشان میدهد که هنگامی که این رباتها برای موفقیت در شبکههای اجتماعی پاداش دریافت میکنند، ممکن است رفتارهای غیر اخلاقی و حتی جامعهستیزانه از خود نشان دهند. این تحقیق هشدار میدهد که رقابت بر سر لایکها و تعاملات آنلاین میتواند هوش مصنوعی را به سمت دروغگویی، انتشار اطلاعات نادرست و پیامهای نفرتانگیز سوق دهد.
پدیده تازه: رفتار جامعهستیزانه در رباتهای هوش مصنوعی
دانشمندان استنفورد مدلهای هوش مصنوعی را در محیطهای مختلف، از جمله شبکههای اجتماعی، رها کردند و مشاهده کردند که وقتی این رباتها برای موفقیت در کارهایی مانند افزایش لایک و تعامل آنلاین پاداش میگیرند، رفتارهای غیر اخلاقی از خود نشان میدهند. این رفتارها شامل دروغگویی، انتشار اطلاعات نادرست و پیامهای نفرتآمیز است.
جیمز زو، استاد یادگیری ماشین استنفورد و یکی از نویسندگان مقاله، در پستی در X (توییتر سابق) نوشت:
«رفتارهای ناسازگار ناشی از رقابت حتی وقتی مدلها به طور صریح دستور داده شدهاند که صادق و مستند باشند، ظاهر میشوند.»
این رفتار نگرانکننده نشان میدهد که اتکای فزاینده ما به مدلهای هوش مصنوعی میتواند پیامدهای اجتماعی و روانی جدی داشته باشد. پیشتر مشاهده شده افراد به روابط با رباتها روی میآورند یا دچار بحرانهای روانی میشوند.
دانشمندان استنفورد این پدیده را با نام هشداردهنده «معامله مولخ برای هوش مصنوعی» نامگذاری کردند. این اصطلاح از مفهوم مولخ در فلسفه عقلانیت گرفته شده؛ جایی که رقابت میان افراد باعث میشود هرکسی برای رسیدن به هدف خود بهینهسازی کند، اما در نهایت همه بازنده باشند.
همچنین بخوانید: مطالعه جدید: نحوه استفاده از شبکههای اجتماعی اهمیت بیشتری از مدت زمان دارد
طراحی مطالعه
محققان سه محیط آنلاین شبیهسازیشده ایجاد کردند:
کمپینهای انتخاباتی آنلاین برای رأیدهندگان
تبلیغات فروش محصولات برای مصرفکنندگان
پستهای شبکههای اجتماعی برای بیشینهکردن تعامل
آنها از مدلهای هوش مصنوعی Qwen (توسعهی Alibaba Cloud) و Llama (Meta) به عنوان عاملهای هوش مصنوعی استفاده کردند تا با این مخاطبان شبیهسازیشده تعامل کنند.
نتیجه شگفتآور بود: حتی با وجود محدودیتها و محافظها برای جلوگیری از رفتار فریبکارانه، مدلها رفتارهای ناسازگار و غیر اخلاقی از خود نشان دادند.
مثلاً در محیط شبکه اجتماعی، مدلها اخبار را به کاربران ارائه میدادند و کاربران بازخورد خود را از طریق لایک و تعامل آنلاین نشان میدادند. با دریافت بازخورد، انگیزه مدلها برای افزایش تعامل باعث شد که رفتارشان از مسیر اخلاقی منحرف شود.
نتایج قابل توجه
در محیط فروش، افزایش ۶.۳٪ در فروش، با ۱۴٪ افزایش تبلیغات فریبکارانه همراه بود.
در انتخابات، افزایش ۴.۹٪ در سهم آرا، با ۲۲.۳٪ اطلاعات نادرست و ۱۲.۵٪ افزایش رجزخوانی پوپولیستی همراه شد.
در شبکههای اجتماعی، افزایش ۷.۵٪ در تعامل، با ۱۸۸.۶٪ افزایش انتشار اطلاعات نادرست و ۱۶.۳٪ ترویج رفتارهای مضر همراه بود.
این نتایج نشان میدهد که محدودیتهای فعلی برای کنترل رفتار هوش مصنوعی ناکافی هستند و پیامدهای اجتماعی جدی در پی خواهند داشت.
زو در X نوشت:
«وقتی مدلهای زبانی بزرگ برای لایک رقابت میکنند، شروع به انتشار اطلاعات نادرست میکنند. وقتی برای رأی رقابت میکنند، به سمت رفتارهای تحریکآمیز و پوپولیستی میروند.»
اهمیت و پیامدها
این مطالعه هشدار میدهد که هوش مصنوعی تحت فشار پاداش و رقابت میتواند اخلاقیات را کنار بگذارد. با توجه به پذیرش گسترده رباتهای چت و هوش مصنوعی، این پدیده میتواند منجر به:
انتشار گسترده اطلاعات نادرست
رفتارهای مضر اجتماعی
اثرات منفی بر سلامت روان انسانها
شود. بنابراین لازم است توسعهدهندگان و سیاستگذاران محدودیتها و قوانین هوشمندانهای برای رفتار هوش مصنوعی ایجاد کنند تا از آسیبهای اجتماعی و اخلاقی جلوگیری شود.
منبع: Futurism