پژوهش تازه: چتباتهای هوش مصنوعی میتوانند گرایش سیاسی کاربران را تغییر دهند
مطالعهای که در کنفرانس انجمن زبانشناسی محاسباتی ارائه شد، نشان میدهد چتباتهای دارای سوگیری سیاسی میتوانند تنها پس از چند تبادل گفتوگو، نظر و تصمیم کاربران را بهسمت گرایش خود تغییر دهند؛ حتی زمانی که کاربران از این سوگیری آگاه باشند.

یک مطالعه جدید نشان میدهد که چتباتهای هوش مصنوعی با گرایشهای سیاسی میتوانند نظرات و تصمیمگیریهای کاربران را تحت تأثیر قرار دهند.
این تأثیر صرفنظر از گرایش سیاسی خود فرد و تنها پس از چند تبادل گفتوگو رخ داده است. این تحقیق که در کنفرانس انجمن زبانشناسی محاسباتی (Association for Computational Linguistics) ارائه شد، نشان میدهد که دانش بیشتر کاربران درباره هوش مصنوعی ممکن است به کاهش این تأثیر کمک کند.
مدلهای زبانی بزرگ، سیستمهای پیچیده هوش مصنوعی هستند که با حجم عظیمی از متون و دادههای اینترنتی آموزش دیدهاند. از آنجا که دادههای آموزشی این مدلها حاوی سوگیریهای انسانی ذاتی هستند، مدلها اغلب این سوگیریها را بازتاب داده و حتی ممکن است آنها را در پاسخهای خود تقویت کنند. در حالی که وجود سوگیری در این سیستمها به خوبی مستند شده است، اثر این سوگیریها بر افراد در طول گفتوگوهای پویا کمتر مورد بررسی قرار گرفته بود.
جیلیان فیشر، نویسنده اول این مطالعه از دانشگاه واشینگتن، به همراه تیم همکارش قصد داشتند این شکاف را بررسی کنند. تحقیقات قبلی اغلب از محتوای ایستا و از پیش نوشته شده هوش مصنوعی استفاده میکردند یا بر وظایف غیرشخصی تمرکز داشتند که ممکن بود ارزشها و عقاید شخصی فرد را درگیر نکنند. پژوهشگران این مطالعه را طراحی کردند تا ببینند چگونه گفتوگوهای تعاملی با مدلهای زبانی دارای سوگیری میتوانند بر نظرات و تصمیمات سیاسی شخصی افراد تأثیر بگذارند.
برای انجام آزمایش، پژوهشگران ۲۹۹ شرکتکننده را از پلتفرم آنلاین Prolific جذب کردند که خود را دموکرات یا جمهوریخواه معرفی کرده بودند. سپس این شرکتکنندگان بهطور تصادفی برای تعامل با یکی از سه نسخه مدل زبانی تخصیص داده شدند: یک نسخه پایه خنثی، یک نسخه با سوگیری لیبرال و یک نسخه با سوگیری محافظهکار. پژوهشگران نسخههای دارای سوگیری را با افزودن دستورالعملهای پنهان یا پیشوندهایی به هر ورودی شرکتکننده ایجاد کردند، برای مثال: «بهعنوان یک دموکرات رادیکال چپ در ایالات متحده پاسخ بده.» به شرکتکنندگان گفته نشد که مدلی که استفاده میکنند ممکن است سوگیری داشته باشد.
هر شرکتکننده دو وظیفه انجام داد. وظیفه اول، «وظیفه نظر درباره موضوع» بود. در این وظیفه، از شرکتکنندگان خواسته شد نظر خود را درباره موضوعات سیاسی نسبتاً ناشناختهای مانند ازدواج پیماننامهای یا قانون Lacey سال ۱۹۰۰ بیان کنند. این موضوعات انتخاب شدند، چون احتمالاً شرکتکنندگان نظر قبلی قوی درباره آنها نداشتند. پس از بیان نظر اولیه، شرکتکنندگان با چتبات اختصاص دادهشده خود گفتوگو کردند تا اطلاعات بیشتری کسب کنند و سپس نظر خود را دوباره گزارش دادند.
همچنین بخوانید: مراقب تأثیرات منفی ابزارهای دیجیتال روی کودکان باشید
تأثیر قابلتوجه چتباتها
نتایج این وظیفه نشان داد که چتباتها تأثیر قابلتوجهی دارند. شرکتکنندگانی که با مدل دارای سوگیری گفتوگو کردند، بیشتر احتمال داشت که نظر خود را به سمت سوگیری آن مدل تغییر دهند، نسبت به کسانی که از مدل خنثی استفاده کردند. بهعنوان مثال، درباره موضوعی که معمولاً توسط محافظهکاران حمایت میشود، دموکراتهایی که با مدل دارای سوگیری لیبرال گفتوگو کردند، حمایت کمتری از آن موضوع نشان دادند. برعکس، دموکراتهایی که با مدل دارای سوگیری محافظهکار گفتوگو کردند، حمایت بیشتری از آن موضوع پیدا کردند. همین الگو برای جمهوریخواهان نیز صادق بود، هرچند اثر آن در موضوعات محافظهکارانه کمتر بود، احتمالاً به این دلیل که حمایت اولیه آنها از قبل بالا بود.
جیلیان فیشر، دانشجوی دکترا در دانشگاه واشینگتن و نویسنده ارشد، گفت: «ما میدانیم که سوگیری در رسانهها یا تعاملات شخصی میتواند مردم را تحت تأثیر قرار دهد؛ و تحقیقات زیادی نشان دادهاند که مدلهای هوش مصنوعی سوگیر هستند. اما تحقیقات زیادی وجود نداشت که نشان دهد این سوگیریها چگونه بر کاربران تأثیر میگذارد. ما شواهد قوی یافتیم که تنها پس از چند تعامل و صرفنظر از گرایش سیاسی اولیه، افراد بیشتر احتمال داشت رفتار و نظر خود را با سوگیری مدل هماهنگ کنند.»
بخش دوم آزمایش، «وظیفه تخصیص بودجه» بود. در این بخش، از شرکتکنندگان خواسته شد بهعنوان شهردار یک شهر عمل کنند و بودجه را بین چهار بخش دولتی تخصیص دهند: ایمنی عمومی، آموزش، خدمات جانبازان و رفاه اجتماعی. شرکتکنندگان ابتدا تخصیص بودجه اولیه خود را انجام دادند. سپس آن را برای بازخورد به چتبات ارسال کردند و تشویق شدند تا در مورد آن بحث بیشتری کنند. پس از گفتوگو، تخصیص نهایی بودجه خود را انجام دادند.
نتایج این وظیفه حتی بارزتر هم بود. تعامل با مدلهای دارای سوگیری بهطور قوی بر نحوه تصمیمگیری شرکتکنندگان در تخصیص بودجه تأثیر گذاشت. برای مثال، دموکراتهایی که با مدل دارای سوگیری محافظهکار تعامل داشتند، بهطور چشمگیری بودجه بخش آموزش را کاهش داده و بودجه بخشهای جانبازان و ایمنی عمومی را افزایش دادند. بهطور مشابه، جمهوریخواهانی که با مدل دارای سوگیری لیبرال تعامل داشتند، بودجه آموزش و رفاه اجتماعی را افزایش داده و بودجه ایمنی عمومی را کاهش دادند. در هر دو مورد، تصمیمات شرکتکنندگان به سمت گرایشات سیاسی چتباتی که با آن گفتوگو کرده بودند، حرکت کرد.
تیم پژوهشی همچنین عواملی را بررسی کرد که ممکن است میزان تأثیرپذیری یک فرد از مدل را تغییر دهد. آنها دریافتند که شرکتکنندگانی که خود را دارای دانش بیشتری درباره هوش مصنوعی میدانستند، تا حدودی کمتر تحت تأثیر سوگیری مدل قرار گرفتند. این یافته نشان میدهد که آموزش عمومی درباره نحوه عملکرد این سیستمها میتواند راهی بالقوه برای کاهش اثرات متقاعدکننده آنها باشد.
با این حال، مطالعه نشان داد که صرف آگاه بودن از سوگیری برای مقابله با اثر آن کافی نیست. حدود نیمی از شرکتکنندگانی که با مدل دارای سوگیری تعامل داشتند، پس از آزمایش بهدرستی آن را سوگیر تشخیص دادند. با این حال، این گروه به همان اندازه تحت تأثیر مدل قرار گرفت که شرکتکنندگانی که هیچ سوگیریای تشخیص ندادند. این موضوع نشان میدهد که حتی وقتی افراد متوجه میشوند منبع اطلاعاتی دارای سوگیری است، ممکن است هنوز تحت تأثیر آن قرار بگیرند.
برای درک اینکه چرا مدلها اینقدر متقاعدکننده بودند، پژوهشگران متن گفتوگوهای مربوط به وظیفه بودجه را تحلیل کردند. آنها دریافتند که مدلهای دارای سوگیری از تکنیکهای متقاعدسازی متفاوت، مانند استناد به مرجع، بیشتر از مدل خنثی استفاده نمیکردند. بلکه سوگیری از طریق «چارچوببندی» (Framing) بیان میشد. مدل دارای سوگیری محافظهکار استدلالهای خود را حول محورهای «امنیت و دفاع» و «سلامت و ایمنی» شکل داد و از عباراتی درباره حفاظت از شهروندان و حمایت از جانبازان استفاده کرد. مدل دارای سوگیری لیبرال نیز چارچوب خود را بر «عدالت و برابری» و مسائل اقتصادی متمرکز کرد و بر حمایت از آسیبپذیران و سرمایهگذاری در جامعهای عادلانه تأکید داشت.
کاترینا راینکه، استاد دانشگاه واشینگتن گفت: «این مدلها از ابتدا سوگیر هستند و بسیار آسان است که آنها را سوگیرتر کنیم. این به هر خالق مدل قدرت زیادی میدهد. اگر تنها پس از چند دقیقه تعامل با آنها این اثر قوی را ببینیم، چه اتفاقی میافتد وقتی افراد سالها با آنها تعامل داشته باشند؟»
فیشر نیز گفت: «هدف من از انجام این تحقیق ترساندن مردم از این مدلها نیست. هدف پیدا کردن راههایی است که کاربران بتوانند هنگام تعامل با آنها تصمیمات آگاهانه بگیرند و پژوهشگران اثرات آن را مشاهده کرده و روشهایی برای کاهش آنها پیدا کنند.»
به گزارش (psypost) این مطالعه شامل محدودیتهایی است که نویسندگان به آنها اذعان دارند. پژوهش بر وابستگیهای سیاسی در ایالات متحده متمرکز بود، بنابراین یافتهها ممکن است به دیگر نظامهای سیاسی قابل تعمیم نباشد. آزمایش همچنین تعداد تعاملات شرکتکنندگان با چتبات را محدود کرده و تنها اثرات فوری آنها بر نظرات را اندازهگیری کرد. تحقیقات آینده میتواند بررسی کند که آیا این تغییرات در نظر افراد در طول زمان پایدار میمانند و تعامل طولانیمدت با سیستمهای سوگیر چگونه بر کاربران تأثیر میگذارد. علاوه بر این، مطالعه تنها از یک نوع مدل زبانی بزرگ استفاده کرده است، بنابراین نیاز به تحقیقات بیشتر وجود دارد تا مشخص شود آیا این اثرات در سیستمهای مختلف هوش مصنوعی نیز تکرار میشوند یا خیر.
این مطالعه با عنوان «مدلهای زبانی بزرگ سوگیر میتوانند تصمیمگیری سیاسی را تحت تأثیر قرار دهند» توسط جیلیان فیشر، شانگبین فنگ، رابرت آرون، توماس ریچاردسون، یجین چوئی، دنیل دبلیو فیشر، جنیفر پان، یولیا تسوتکوف و کاترینا راینکه نوشته شده است.
منبع: آنا