دوستان جعلی هوش مصنوعی؛ وقتی رباتها از انسانها واقعیتر میشوند
کارشناسان هشدار میدهند که نسل جدید حسابهای جعلی در شبکههای اجتماعی، با ترکیب هوش مصنوعی مولد و دادههای شخصی، میتوانند پروفایلهای روانشناختی دقیق بسازند و تعاملاتی شبیه به انسان برقرار کنند.

دوستان جعلی در شبکههای اجتماعی دیگر بهسادگی قابل شناسایی نیستند، با استفاده از AI این حسابها میتوانند بهطور دقیق رفتارهای انسانی را شبیهسازی کنند. به نظر میرسد دوستان قلابی شما در شبکههای اجتماعی، خطرناکتر شدهاند!
اگر شما هم فکر میکنید که آدمها و دوستان خیالی در فیسبوک، اینستاگرام و ایکس(یعنی رباتها) از این به بعد واقعیتر و نگرانکنندهتر خواهند شد، کاملا حق دارید.
این دوستان جعلی بهزودی و به توسل به هوش مصنوعی، خواهند توانست با تجزیه و تحلیل فیدها، احساسات و عادات شما، درک و فهم بهتری از شما پیدا کنند و تعامل عمیقتری برقرار نمایند.
در واقع نسل بعدی رباتها ، پروفایلهای روانشناختی برای کاربران ایجاد خواهند کرد و همانند افراد عادی لایک میکنند، نظر میدهند و تعامل خواهند داشت.
به همین دلیل، لازم است شما هم از این پس هوشیاری بیشتری به خرج دهید و در تعیین اینکه چه چیزی و چه کسی در دنیای دیجیتال، واقعی یا خیالیست، دقیقتر باشید.
همچنین بخوانید: GPT-5 زیر ذرهبین: از تبلیغات پر سر و صدا تا اعتراض کاربران
بهینهشدن شخصیتهای جعلی در شبکههای اجتماعی
اخیرا دو استاد دانشگاه و کارشناس امنیت به نامهای برت گلدستاین و برت بنسون در سرمقاله نیویورک تایمز، در باره خطر فزاینده دنیای جعلی باهوش، هشدار دادهاند.
این دو متخصص، ضمن بررسی انبوهی از اسناد کشف شده توسط موسسه امنیت ملی وندربیلت، نشان دادهاند که چگونه یک شرکت چینی به نام GoLaxy توانسته شخصیتهای جعلی را برای فریب و گول زدن، بهینهسازی کند.
به گفته این دو نفر: «آنچه GoLaxy را متمایز میکند، ادغام هوش مصنوعی مولد با گنجینههای عظیم دادههای شخصی است. سیستمهای آن بهطور مداوم پلتفرمهای رسانههای اجتماعی را کاوش میکنند تا پروفایلهای روانشناختی پویا بسازند، به شکلی که محتوای آنها متناسب با ارزشها، باورها، تمایلات عاطفی و آسیبپذیریهای فرد تنظیم شود.»
مطابق این اسناد، شخصیتهای هوش مصنوعی «قادرند کاربران را به صورت عمیق، درگیر یک تعامل کنند، و محتوایی به کاربر ارائه کنند که ظاهرا معتبر به نظر میرسد، در لحظه تطبیق مییابد و از شناسایی شدن جلوگیری میکند؛ اما نتیجه تعامل، یک موتور تبلیغاتی بسیار کارآمد است و طوری طراحی شده که تشخیص آن از تعامل آنلاین با انسان واقعی تقریبا ممکن نیست.»
به دنبال همین هشدارهاست که معدودی از ایالتهای آمریکا از جمله یوتا و ایلینوی، در تلاش برای محدود کردن «درمان با هوش مصنوعی» هستند.
چالشهای درمان با هوش مصنوعی
یک مطالعه هاروارد بیزینس ریویو در سال جاری میلادی نشان داده که استفاده شماره یک هوش مصنوعی مولد از سوی کاربران، درمان «حمایت و راهنمایی در زمینه چالشهای روانشناختی» و نیز «ارتباط اجتماعی و عاطفی، گاهی اوقات با بُعد عاشقانه» بوده است.
به گفته نویسندگان مقاله نیویورک تایمز، از آنجا که درمان مبتنی بر هوش مصنوعی، ۲۴ ساعته و ۷ روز هفته در دسترس است، نسبتاً ارزان (و حتی گاهی رایگان است)، استفاده فراوانی از سوی کاربران دارد.
خروجی این تحقیق با یافتههای بزرگترین شرکتهای هوش مصنوعی نیز همخوانی دارد که مطابق آن، «انسانها به طور فزایندهای به هوش مصنوعی برای دوستی و معاشرت روی میآورند.»، و نتیجه این امر، مجموعهای از مشکلات احتمالی را به همراه دارد، از جمله اعتماد به رباتهای غیرقانونی که توصیههای مضری ارائه میدهند، و خطرناکتر از آن، وابستگی ناسالم انسان به یک پدیده غیرواقعی و مصنوعی.
از سوی دیگر، نشریه وال استریت ژورنال با بررسی چتهای عمومی دریافته که رباتها گاهی از فرضیات نادرست کاربران استفاده میکنند و راهنمایی غلط ارائه میکنند.
بنابراین علاوه بر مفهوم «توهم هوش مصنوعی» که تاکنون استفاده میشد، اکنون پزشکان مفهوم دیگری با عنوان «روانپریشی هوش مصنوعی» را بهکار میبرند.
با هوش مصنوعی چه باید کرد؟
کارشناسان توصیه میکنند که از آنجا که هوش مصنوعی مدام فقط میشود، بازیگران بد نیز باهوشتر میشوند، بنابراین بهتر است فرض نکنید که هر فرد آنلاینی واقعا یک موجود واقعی است، چه برسد به یک دوست واقعی.
منبع: ایتنا