کشف ریشه توهم در چت‌بات‌های هوش مصنوعی توسط محققان OpenAI

محققان OpenAI ریشه توهم در چت‌بات‌های هوش مصنوعی را در سیستم‌های ارزیابی فعلی شناسایی کرده‌اند که حدس زدن را به ابراز عدم اطمینان ترجیح می‌دهند و پیشنهاد تغییر بنیادین در آموزش مدل‌ها را برای حل این مشکل ارائه داده‌اند.

محققان OpenAI بالاخره راز توهم و پاسخ‌های اشتباه در چت‌بات‌های هوش مصنوعی را فاش کردند؛ مشکلی که راه‌حل آن یک تغییر بنیادین در آموزش آنها است.

محققان شرکت OpenAI به تازگی اعلام کرده‌اند که ریشه یکی از بزرگترین و نگران‌کننده‌ترین مشکلات مدل‌های زبان بزرگ یعنی توهم یا ارائه اطلاعات نادرست را پیدا کرده‌اند. این معضل که گریبان‌گیر تمام چت‌بات‌های هوش مصنوعی از جمله ChatGPT و رقیب آن Claude شده است باعث می‌شود سیستم اطلاعات غلط را به عنوان یک حقیقت انکارناپذیر به کاربر ارائه دهد و اعتماد به این فناوری را خدشه‌دار کند.

بر اساس یافته‌های این پژوهشگران مشکل اصلی در نحوه آموزش این مدل‌ها نهفته است. سیستم‌های ارزیابی فعلی به گونه‌ای طراحی شده‌اند که حدس زدن و ارائه پاسخ اشتباه را به نادانستن و اعتراف به عدم قطعیت ترجیح می‌دهند. به عبارت ساده‌تر این مدل‌ها یاد گرفته‌اند که همیشه مانند یک دانش‌آموز در جلسه امتحان رفتار کنند و برای گرفتن نمره بهتر حتی در صورت نداشتن اطلاعات کافی هم یک پاسخ حدسی ارائه دهند.

همچنین بخوانید: وقتی شبکه‌های اجتماعی باعث اختلال‌های روانی می‌شوند

چرا چت‌بات‌های هوش مصنوعی به دروغ گفتن تشویق می‌شوند؟

این مدل‌ها در دنیای واقعی که پر از عدم قطعیت است آموزش ندیده‌اند و نمی‌توانند بین درستی و نادرستی تمایز قائل شوند. به گفته محققان انسان‌ها در خارج از مدرسه و با تجربه کردن می‌آموزند که ابراز عدم اطمینان یک ارزش است اما مدل‌های زبانی صرفا برای موفقیت در آزمون‌هایی بهینه شده‌اند که سکوت را جریمه می‌کند.

راه‌حل این مشکل نیز تغییر بنیادین همین سیستم‌های ارزیابی است. تا زمانی که معیارهای امتیازدهی به حدس‌های شانسی پاداش بدهند چت‌بات‌های هوش مصنوعی به تولید اطلاعات نادرست و غیرقابل اعتماد ادامه خواهند داد. بنابراین مشکل توهم یک باگ نرم‌افزاری ساده نیست بلکه یک نقص عمیق در فلسفه آموزش این سیستم‌ها است که رفع آن به سادگی امکان‌پذیر نخواهد بود.

منبع: گجت نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا