کشف ریشه توهم در چتباتهای هوش مصنوعی توسط محققان OpenAI
محققان OpenAI ریشه توهم در چتباتهای هوش مصنوعی را در سیستمهای ارزیابی فعلی شناسایی کردهاند که حدس زدن را به ابراز عدم اطمینان ترجیح میدهند و پیشنهاد تغییر بنیادین در آموزش مدلها را برای حل این مشکل ارائه دادهاند.

محققان OpenAI بالاخره راز توهم و پاسخهای اشتباه در چتباتهای هوش مصنوعی را فاش کردند؛ مشکلی که راهحل آن یک تغییر بنیادین در آموزش آنها است.
محققان شرکت OpenAI به تازگی اعلام کردهاند که ریشه یکی از بزرگترین و نگرانکنندهترین مشکلات مدلهای زبان بزرگ یعنی توهم یا ارائه اطلاعات نادرست را پیدا کردهاند. این معضل که گریبانگیر تمام چتباتهای هوش مصنوعی از جمله ChatGPT و رقیب آن Claude شده است باعث میشود سیستم اطلاعات غلط را به عنوان یک حقیقت انکارناپذیر به کاربر ارائه دهد و اعتماد به این فناوری را خدشهدار کند.
بر اساس یافتههای این پژوهشگران مشکل اصلی در نحوه آموزش این مدلها نهفته است. سیستمهای ارزیابی فعلی به گونهای طراحی شدهاند که حدس زدن و ارائه پاسخ اشتباه را به نادانستن و اعتراف به عدم قطعیت ترجیح میدهند. به عبارت سادهتر این مدلها یاد گرفتهاند که همیشه مانند یک دانشآموز در جلسه امتحان رفتار کنند و برای گرفتن نمره بهتر حتی در صورت نداشتن اطلاعات کافی هم یک پاسخ حدسی ارائه دهند.
همچنین بخوانید: وقتی شبکههای اجتماعی باعث اختلالهای روانی میشوند
چرا چتباتهای هوش مصنوعی به دروغ گفتن تشویق میشوند؟
این مدلها در دنیای واقعی که پر از عدم قطعیت است آموزش ندیدهاند و نمیتوانند بین درستی و نادرستی تمایز قائل شوند. به گفته محققان انسانها در خارج از مدرسه و با تجربه کردن میآموزند که ابراز عدم اطمینان یک ارزش است اما مدلهای زبانی صرفا برای موفقیت در آزمونهایی بهینه شدهاند که سکوت را جریمه میکند.
راهحل این مشکل نیز تغییر بنیادین همین سیستمهای ارزیابی است. تا زمانی که معیارهای امتیازدهی به حدسهای شانسی پاداش بدهند چتباتهای هوش مصنوعی به تولید اطلاعات نادرست و غیرقابل اعتماد ادامه خواهند داد. بنابراین مشکل توهم یک باگ نرمافزاری ساده نیست بلکه یک نقص عمیق در فلسفه آموزش این سیستمها است که رفع آن به سادگی امکانپذیر نخواهد بود.
منبع: گجت نیوز