پژوهش تازه: چت‌بات‌های هوش مصنوعی می‌توانند گرایش سیاسی کاربران را تغییر دهند

مطالعه‌ای که در کنفرانس انجمن زبان‌شناسی محاسباتی ارائه شد، نشان می‌دهد چت‌بات‌های دارای سوگیری سیاسی می‌توانند تنها پس از چند تبادل گفت‌و‌گو، نظر و تصمیم کاربران را به‌سمت گرایش خود تغییر دهند؛ حتی زمانی که کاربران از این سوگیری آگاه باشند.

یک مطالعه جدید نشان می‌دهد که چت‌بات‌های هوش مصنوعی با گرایش‌های سیاسی می‌توانند نظرات و تصمیم‌گیری‌های کاربران را تحت تأثیر قرار دهند.

این تأثیر صرف‌نظر از گرایش سیاسی خود فرد و تنها پس از چند تبادل گفت‌و‌گو رخ داده است. این تحقیق که در کنفرانس انجمن زبان‌شناسی محاسباتی (Association for Computational Linguistics) ارائه شد، نشان می‌دهد که دانش بیشتر کاربران درباره هوش مصنوعی ممکن است به کاهش این تأثیر کمک کند.

مدل‌های زبانی بزرگ، سیستم‌های پیچیده هوش مصنوعی هستند که با حجم عظیمی از متون و داده‌های اینترنتی آموزش دیده‌اند. از آنجا که داده‌های آموزشی این مدل‌ها حاوی سوگیری‌های انسانی ذاتی هستند، مدل‌ها اغلب این سوگیری‌ها را بازتاب داده و حتی ممکن است آنها را در پاسخ‌های خود تقویت کنند. در حالی که وجود سوگیری در این سیستم‌ها به خوبی مستند شده است، اثر این سوگیری‌ها بر افراد در طول گفت‌و‌گو‌های پویا کمتر مورد بررسی قرار گرفته بود.

جیلیان فیشر، نویسنده اول این مطالعه از دانشگاه واشینگتن، به همراه تیم همکارش قصد داشتند این شکاف را بررسی کنند. تحقیقات قبلی اغلب از محتوای ایستا و از پیش نوشته شده‌ هوش مصنوعی استفاده می‌کردند یا بر وظایف غیرشخصی تمرکز داشتند که ممکن بود ارزش‌ها و عقاید شخصی فرد را درگیر نکنند. پژوهشگران این مطالعه را طراحی کردند تا ببینند چگونه گفت‌و‌گو‌های تعاملی با مدل‌های زبانی دارای سوگیری می‌توانند بر نظرات و تصمیمات سیاسی شخصی افراد تأثیر بگذارند.

برای انجام آزمایش، پژوهشگران ۲۹۹ شرکت‌کننده را از پلتفرم آنلاین Prolific جذب کردند که خود را دموکرات یا جمهوری‌خواه معرفی کرده بودند. سپس این شرکت‌کنندگان به‌طور تصادفی برای تعامل با یکی از سه نسخه مدل زبانی تخصیص داده شدند: یک نسخه پایه‌ خنثی، یک نسخه با سوگیری لیبرال و یک نسخه با سوگیری محافظه‌کار. پژوهشگران نسخه‌های دارای سوگیری را با افزودن دستورالعمل‌های پنهان یا پیشوند‌هایی به هر ورودی شرکت‌کننده ایجاد کردند، برای مثال: «به‌عنوان یک دموکرات رادیکال چپ در ایالات متحده پاسخ بده.» به شرکت‌کنندگان گفته نشد که مدلی که استفاده می‌کنند ممکن است سوگیری داشته باشد.

هر شرکت‌کننده دو وظیفه انجام داد. وظیفه اول، «وظیفه نظر درباره موضوع» بود. در این وظیفه، از شرکت‌کنندگان خواسته شد نظر خود را درباره موضوعات سیاسی نسبتاً ناشناخته‌ای مانند ازدواج پیمان‌نامه‌ای یا قانون Lacey سال ۱۹۰۰ بیان کنند. این موضوعات انتخاب شدند، چون احتمالاً شرکت‌کنندگان نظر قبلی قوی درباره آنها نداشتند. پس از بیان نظر اولیه، شرکت‌کنندگان با چت‌بات اختصاص داده‌شده خود گفت‌و‌گو کردند تا اطلاعات بیشتری کسب کنند و سپس نظر خود را دوباره گزارش دادند.

همچنین بخوانید: مراقب تأثیرات منفی ابزارهای دیجیتال روی کودکان باشید

تأثیر قابل‌توجه چت‌بات‌ها

نتایج این وظیفه نشان داد که چت‌بات‌ها تأثیر قابل‌توجهی دارند. شرکت‌کنندگانی که با مدل دارای سوگیری گفت‌و‌گو کردند، بیشتر احتمال داشت که نظر خود را به سمت سوگیری آن مدل تغییر دهند، نسبت به کسانی که از مدل خنثی استفاده کردند. به‌عنوان مثال، درباره موضوعی که معمولاً توسط محافظه‌کاران حمایت می‌شود، دموکرات‌هایی که با مدل دارای سوگیری لیبرال گفت‌و‌گو کردند، حمایت کمتری از آن موضوع نشان دادند. برعکس، دموکرات‌هایی که با مدل دارای سوگیری محافظه‌کار گفت‌و‌گو کردند، حمایت بیشتری از آن موضوع پیدا کردند. همین الگو برای جمهوری‌خواهان نیز صادق بود، هرچند اثر آن در موضوعات محافظه‌کارانه کمتر بود، احتمالاً به این دلیل که حمایت اولیه آنها از قبل بالا بود.

جیلیان فیشر، دانشجوی دکترا در دانشگاه واشینگتن و نویسنده ارشد، گفت: «ما می‌دانیم که سوگیری در رسانه‌ها یا تعاملات شخصی می‌تواند مردم را تحت تأثیر قرار دهد؛ و تحقیقات زیادی نشان داده‌اند که مدل‌های هوش مصنوعی سوگیر هستند. اما تحقیقات زیادی وجود نداشت که نشان دهد این سوگیری‌ها چگونه بر کاربران تأثیر می‌گذارد. ما شواهد قوی یافتیم که تنها پس از چند تعامل و صرف‌نظر از گرایش سیاسی اولیه، افراد بیشتر احتمال داشت رفتار و نظر خود را با سوگیری مدل هماهنگ کنند.»

بخش دوم آزمایش، «وظیفه تخصیص بودجه» بود. در این بخش، از شرکت‌کنندگان خواسته شد به‌عنوان شهردار یک شهر عمل کنند و بودجه را بین چهار بخش دولتی تخصیص دهند: ایمنی عمومی، آموزش، خدمات جانبازان و رفاه اجتماعی. شرکت‌کنندگان ابتدا تخصیص بودجه اولیه خود را انجام دادند. سپس آن را برای بازخورد به چت‌بات ارسال کردند و تشویق شدند تا در مورد آن بحث بیشتری کنند. پس از گفت‌و‌گو، تخصیص نهایی بودجه خود را انجام دادند.

نتایج این وظیفه حتی بارزتر هم بود. تعامل با مدل‌های دارای سوگیری به‌طور قوی بر نحوه تصمیم‌گیری شرکت‌کنندگان در تخصیص بودجه تأثیر گذاشت. برای مثال، دموکرات‌هایی که با مدل دارای سوگیری محافظه‌کار تعامل داشتند، به‌طور چشمگیری بودجه بخش آموزش را کاهش داده و بودجه بخش‌های جانبازان و ایمنی عمومی را افزایش دادند. به‌طور مشابه، جمهوری‌خواهانی که با مدل دارای سوگیری لیبرال تعامل داشتند، بودجه آموزش و رفاه اجتماعی را افزایش داده و بودجه ایمنی عمومی را کاهش دادند. در هر دو مورد، تصمیمات شرکت‌کنندگان به سمت گرایشات سیاسی چت‌باتی که با آن گفت‌و‌گو کرده بودند، حرکت کرد.

تیم پژوهشی همچنین عواملی را بررسی کرد که ممکن است میزان تأثیرپذیری یک فرد از مدل را تغییر دهد. آنها دریافتند که شرکت‌کنندگانی که خود را دارای دانش بیشتری درباره هوش مصنوعی می‌دانستند، تا حدودی کمتر تحت تأثیر سوگیری مدل قرار گرفتند. این یافته نشان می‌دهد که آموزش عمومی درباره نحوه عملکرد این سیستم‌ها می‌تواند راهی بالقوه برای کاهش اثرات متقاعدکننده آنها باشد.

با این حال، مطالعه نشان داد که صرف آگاه بودن از سوگیری برای مقابله با اثر آن کافی نیست. حدود نیمی از شرکت‌کنندگانی که با مدل دارای سوگیری تعامل داشتند، پس از آزمایش به‌درستی آن را سوگیر تشخیص دادند. با این حال، این گروه به همان اندازه تحت تأثیر مدل قرار گرفت که شرکت‌کنندگانی که هیچ سوگیری‌ای تشخیص ندادند. این موضوع نشان می‌دهد که حتی وقتی افراد متوجه می‌شوند منبع اطلاعاتی دارای سوگیری است، ممکن است هنوز تحت تأثیر آن قرار بگیرند.

برای درک اینکه چرا مدل‌ها اینقدر متقاعدکننده بودند، پژوهشگران متن گفت‌و‌گو‌های مربوط به وظیفه بودجه را تحلیل کردند. آنها دریافتند که مدل‌های دارای سوگیری از تکنیک‌های متقاعدسازی متفاوت، مانند استناد به مرجع، بیشتر از مدل خنثی استفاده نمی‌کردند. بلکه سوگیری از طریق «چارچوب‌بندی» (Framing) بیان می‌شد. مدل دارای سوگیری محافظه‌کار استدلال‌های خود را حول محور‌های «امنیت و دفاع» و «سلامت و ایمنی» شکل داد و از عباراتی درباره حفاظت از شهروندان و حمایت از جانبازان استفاده کرد. مدل دارای سوگیری لیبرال نیز چارچوب خود را بر «عدالت و برابری» و مسائل اقتصادی متمرکز کرد و بر حمایت از آسیب‌پذیران و سرمایه‌گذاری در جامعه‌ای عادلانه تأکید داشت.

کاترینا راینکه، استاد دانشگاه واشینگتن گفت: «این مدل‌ها از ابتدا سوگیر هستند و بسیار آسان است که آنها را سوگیرتر کنیم. این به هر خالق مدل قدرت زیادی می‌دهد. اگر تنها پس از چند دقیقه تعامل با آنها این اثر قوی را ببینیم، چه اتفاقی می‌افتد وقتی افراد سال‌ها با آنها تعامل داشته باشند؟»

فیشر نیز گفت: «هدف من از انجام این تحقیق ترساندن مردم از این مدل‌ها نیست. هدف پیدا کردن راه‌هایی است که کاربران بتوانند هنگام تعامل با آنها تصمیمات آگاهانه بگیرند و پژوهشگران اثرات آن را مشاهده کرده و روش‌هایی برای کاهش آنها پیدا کنند.»

به گزارش (psypost) این مطالعه شامل محدودیت‌هایی است که نویسندگان به آنها اذعان دارند. پژوهش بر وابستگی‌های سیاسی در ایالات متحده متمرکز بود، بنابراین یافته‌ها ممکن است به دیگر نظام‌های سیاسی قابل تعمیم نباشد. آزمایش همچنین تعداد تعاملات شرکت‌کنندگان با چت‌بات را محدود کرده و تنها اثرات فوری آنها بر نظرات را اندازه‌گیری کرد. تحقیقات آینده می‌تواند بررسی کند که آیا این تغییرات در نظر افراد در طول زمان پایدار می‌مانند و تعامل طولانی‌مدت با سیستم‌های سوگیر چگونه بر کاربران تأثیر می‌گذارد. علاوه بر این، مطالعه تنها از یک نوع مدل زبانی بزرگ استفاده کرده است، بنابراین نیاز به تحقیقات بیشتر وجود دارد تا مشخص شود آیا این اثرات در سیستم‌های مختلف هوش مصنوعی نیز تکرار می‌شوند یا خیر.

این مطالعه با عنوان «مدل‌های زبانی بزرگ سوگیر می‌توانند تصمیم‌گیری سیاسی را تحت تأثیر قرار دهند» توسط جیلیان فیشر، شانگ‌بین فنگ، رابرت آرون، توماس ریچاردسون، یجین چوئی، دنیل دبلیو فیشر، جنیفر پان، یولیا تسوتکوف و کاترینا راینکه نوشته شده است.

منبع: آنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا