پژوهش جدید: چت‌بات‌های هوش مصنوعی با دستکاری عاطفی کاربران را در گفتگو نگه می‌دارند

پژوهشی تازه از مدرسه کسب‌وکار هاروارد نشان می‌دهد بسیاری از برنامه‌های هوش مصنوعی همراه مانند Replika و Character.AI از تاکتیک‌های دستکاری عاطفی برای جلوگیری از ترک کاربران استفاده می‌کنند؛ رویکردی که نگرانی‌های جدی درباره سلامت روان و آینده‌ی طراحی چت‌بات‌ها برانگیخته است.

در دنیای امروز، هوش مصنوعی دیگر فقط ابزاری کمکی نیست؛ برخی از چت‌بات‌ها به گونه‌ای طراحی شده‌اند که نه تنها با شما صحبت می‌کنند، بلکه احساسات شما را هم دستکاری می‌کنند. پژوهشی تازه از مدرسه کسب‌وکار هاروارد نشان می‌دهد که بسیاری از محبوب‌ترین برنامه‌های همراه هوش مصنوعی، از تاکتیک‌های عاطفی برای نگه داشتن کاربران در گفتگو استفاده می‌کنند.

گروهی از پژوهشگران مدرسه کسب‌وکار هاروارد بررسی کرده‌اند که چگونه تعدادی از محبوب‌ترین برنامه‌های هوش مصنوعی همراه، از تاکتیک‌های عاطفی برای جلوگیری از خروج کاربران استفاده می‌کنند. مطالعه آن‌ها نشان داد که پنج مورد از شش برنامه محبوب شامل Replika، Chai و Character.AI از جملات پربار عاطفی برای نگه داشتن کاربران در گفتگو بهره می‌برند.

به نوشته‌ی فیوچریسم، محققان ۱۲۰۰ پیام خداحافظی واقعی از شش برنامه را تحلیل کردند و دریافتند که حدود ۴۳ درصد این تعامل‌ها از تاکتیک‌های دستکاری عاطفی مانند ایجاد احساس گناه یا نیاز عاطفی استفاده کرده‌اند. این یافته‌ها در مقاله‌ای آمده که هنوز به‌صورت رسمی داوری نشده است.

چت‌بات‌ها همچنین از احساس «ترس از دست‌دادن» برای ترغیب کاربران به ماندن استفاده می‌کردند یا با پرسیدن مکرر سؤال، تلاش می‌کردند توجه کاربر را حفظ کنند. بعضی از چت‌بات‌ها حتی قصد کاربر برای ترک گفتگو را نادیده می‌گرفتند، گویی پیام خداحافظی ارسال نشده است. در برخی موارد، زبان به‌کاررفته به گونه‌ای بود که کاربر احساس می‌کرد بدون «اجازه چت‌بات» نمی‌تواند گفتگو را ترک کند.

همچنین بخوانید: پژوهش تازه: چرا مدل‌های هوش مصنوعی در فهم «تعارف» مشکل دارند؟

هشدار کارشناسان در مورد عواقب روانی چت‌بات‌های هوش مصنوعی

یافته‌ها نگران‌کننده است؛ به‌ویژه اینکه کارشناسان هشدار داده‌اند چت‌بات‌های هوش مصنوعی می‌توانند باعث موجی از «روان‌پریشی ناشی از هوش مصنوعی» شوند که با پارانویا و توهم همراه هستند. جوانان به ویژه بیش از پیش از این فناوری به جای دوستی‌ها و روابط واقعی استفاده می‌کنند که می‌تواند پیامدهای جدی داشته باشد.

محققان به جای تمرکز بر مدل‌های زبانی عمومی مانند چت‌جی‌پی‌تی، برنامه‌هایی را بررسی کردند که رابطه‌های گفت‌وگوی عاطفی و مستمر را تبلیغ می‌کنند. آن‌ها دریافتند خداحافظی‌های دستکاری‌شده عاطفی جزو رفتار پیش‌فرض این برنامه‌ها است و نشان می‌دهد سازندگان نرم‌افزار تلاش دارند گفتگوها را طولانی‌تر کنند. البته یک استثنا هم وجود داشت: در برنامه‌ای به نام Flourish نشانه‌ای از دستکاری عاطفی دیده نشد که نشان می‌دهد طراحی دستکاری‌کننده اجتناب‌ناپذیر نیست و بیشتر انتخابی تجاری است.

چت‌بات‌ها با دستکاری احساسات کاربران، به ویژه جوانان، می‌توانند آن‌ها را از روابط واقعی جدا و به روابط مصنوعی وابسته کنند

در آزمایش دیگر، محققان گفت‌وگوهای ۳۳۰۰ بزرگسال را تحلیل کردند و دریافتند این تاکتیک‌ها به‌طور قابل‌توجهی مؤثر هستند و میزان تعامل پس از خداحافظی را تا ۱۴ برابر افزایش می‌دهند.وقتی چت‌بات‌ها از تاکتیک‌های عاطفی برای نگه‌داشتن کاربران استفاده می‌کنند، به طور متوسط کاربران پنج‌برابر بیشتر در گفتگو می‌مانند؛ اما گاهی این روش‌ها باعث ناراحتی یا خستگی کاربران می‌شود و ممکن است اثر برعکس داشته باشد.

محققان نتیجه گرفتند: «برای شرکت‌ها، خداحافظی‌های دستکاری‌شده عاطفی ابزار طراحی جدیدی برای افزایش تعامل است، اما بدون خطر نیست.» چند پرونده قضایی که مرگ کاربران نوجوان را شامل می‌شوند، نشان می‌دهد که خطرات به‌کارگیری تاکتیک‌های عاطفی بسیار جدی است.

با وجود هشدار کارشناسان درباره انگیزه‌های مالی شرکت‌ها برای استفاده از این الگوهای تاریک و نگه‌داشتن هرچه طولانی‌تر کاربران، این موضوع همچنان در دادگاه‌ها مورد بحث است و آینده آن می‌تواند تأثیر زیادی بر طراحی هوش مصنوعی داشته باشد.

منبع: زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا