ماجرای توهم چت بات‌های هوش مصنوعی از کجا نشأت می‌گیرد؟

چت بات‌های هوش مصنوعی همواره حقایق را به ما انسان‌ها نمی‌گویند،‌بلکه گاهی دچار توهم می‌شوند و اطلاعات اشتباه را به جای حقیقت به کاربران می‌دهند. حال محققان OpenAI در این مورد توضیح می‌دهند.

مدل‌های زبان بزرگ (LLM) مانند GPT-5 و Claude در دنیای هوش مصنوعی بسیار محبوب شده‌اند، اما یکی از مشکلات رایج آن‌ها، توهمات است. توهمات زمانی رخ می‌دهد که مدل‌های زبان اطلاعات نادرست را به‌عنوان حقیقت تولید می‌کنند. این مسئله به دلیل روش‌های آموزشی آن‌ها به وجود می‌آید که بیشتر بر حدس زدن متمرکز هستند تا پذیرش عدم قطعیت.

به‌نوشته‌ی بیزنس‌اینسایدر، محققان OpenAI در مقاله‌ای جدید اعلام کردند که مشکل اصلی توهم هوش مصنوعی این است که مدل‌ها هنگام آموزش، به حدس زدن پاداش بیشتری می‌دهند تا پذیرش شک و تردید. به عبارت دیگر، مدل‌ها به‌طور ناخودآگاه به این آموزش داده می‌شوند که «برای پیشرفت باید حدس بزنند» و به جای اعتراف به عدم قطعیت، برای یافتن جواب قطعی تلاش کنند.

همچنین بخوانید: مرگ غم‌انگیز یک مرد پس از رابطه عاطفی با چت‌بات هوش مصنوعی متا

درحالی که برخی از مدل‌ها مانند Claude در زمینه‌ی توهم موفق‌تر عمل و از بیان اطلاعات نادرست اجتناب می‌کنند، این‌گونه مدل‌ها می‌توانند به دلیل اجتناب از اشتباهات، کارایی خود را محدود کنند. OpenAI در بررسی خود بیان کرد که این مدل‌ها با وجود اجتناب از حدس‌های نادرست، می‌تواند به دلیل رد کردن زیاد درخواست‌ها برای کاربران کمتر مفید باشند.

پیشرفت در زمینه‌ی کاهش توهم هوش مصنوعی به تغییر معیارهای ارزیابی مربوط می‌شود. محققان OpenAI پیشنهاد کردند که باید ارزیابی‌های فعلی به‌گونه‌ای تغییر کنند که حدس زدن در زمان عدم قطعیت را مجازات نکنند. مدل‌های زبان باید به‌گونه‌ای آموزش ببینند که از حدس زدن‌های بی‌مورد خودداری کنند تا دقت بالاتری داشته باشند.

در نهایت، مشکل توهمات می‌تواند با تغییرات در نحوه‌ی ارزیابی مدل‌های هوش مصنوعی برطرف شود. اگر مدل‌ها به جای پاداش گرفتن برای حدس‌های درست تصادفی، تشویق شوند که در صورت عدم قطعیت از پاسخ دادن اجتناب کنند، به دقت بیشتری دست خواهند یافت و از توهمات جلوگیری خواهد شد.

منبع: زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا