دلیل برخی پاسخهای اشتباه چتباتها: هوش مصنوعی از گفتن «نمیدانم» اجتناب میکند؛ راه مقابله چیست؟
پژوهشگران هشدار میدهند مدلهای زبانی بزرگ بهجای پذیرش عدمقطعیت، برای ارائهٔ پاسخهای قطعی طراحی شدهاند و این امر میتواند روح پرسشگری، تفکر انتقادی و مهارتهای تحقیق در آموزش را تضعیف کند.

تحریریه حرف مرد: در مقالهای که توسط Education Week منتشر شده است، نویسندگان Sam Wineburg و Nadav Ziv به این نکته میپردازند که در فرآیند آموزش و بهویژه در بکارگیری ابزارهای هوش مصنوعی (مثل چتباتها) در کلاس درس، یکی از مهمترین مؤلفههای یادگیری یعنی پذیرش ندانستن، پرسیدن «چرا؟» و تصور کردن «چه میشود اگر…؟»، به طرز نگرانکنندهای نادیده گرفته شده است. آنها هشدار میدهند که ابزارهای هوش مصنوعی طوری طراحی شدهاند که از پذیرش عدم قطعیت پرهیز کنند و این با فلسفهٔ یادگیری در مدارس در تضاد است.
چتباتهای هوش مصنوعی مثل دانشآموزانی هستند که مطالعه نکردهاند اما بالا دستشان را بلند میکنند.
تحقیقی جدید از پژوهشگران در OpenAI، شرکت پشت پردهٔ ChatGPT، نشان میدهد که یکی از دلایل بزرگ «هذیانگویی» (hallucination) هوش مصنوعی این است که مدلهای بزرگ زبانی طوری مهندسی شدهاند که عدمقطعیت را حذف کنند.
یک چتبات که بگوید «نمیدانم»، همان نمرهٔ آموزشی را میگیرد که یک چتبات که اطلاعات نادرست ارائه میدهد. نتیجه این است که هوش مصنوعی پاسخهایی با لحن بسیار مطمئن ارائه میدهد که اغلب اشتباهاند. بسیاری از انسانها با مشاهدهٔ صداقت ظاهری هوش مصنوعی گمراه میشوند و کیفیت پاسخ را با نحوهٔ ارائهٔ آن اشتباه میگیرند.
آموزش باید به دانشآموزان بیاموزد که با پیچیدگی مواجه شوند. اما هوش مصنوعی طوری طراحی شده که از آن اجتناب کند. این تضاد یکی دیگر از دلایل است که چرا باید «شتاب به استفاده از هوش مصنوعی در دستان دانشآموزان» را با احتیاط پیش برد. همچنین این مسئله باعث بوجود آمدن سؤالی میشود که معلمان وقتی میخواهند هوش مصنوعی را در کلاس آموزش ادغام کنند باید از خود بپرسند: «آیا میتوانم این ابزار را طوری بهکار ببرم که رفتاری را مدل کند که میخواهم در دانشآموزانِم ببینم؟»
بیش از دو دهه است که گروه تحقیقاتی Digital Inquiry Group (DIG) و نسخهٔ قبلی اش در دانشگاه Stanford University، برنامههایی طراحی کردهاند که به دانشآموزان میآموزد «مانند تاریخنگاران بخوانند و فکر کنند»؛ یعنی پرسشگر باشند، منبعها را بسنجند و زمینهٔ تاریخی را در نظر بگیرند. پس از مطالعهای در سال ۲۰۱۶ که نشان داد جوانان در ارزیابی منابع آنلاین مشکل دارند، این گروه برنامههایی توسعه دادند تا به دانشآموزان کمک کند «واقعیت را از داستان جدا کنند».
آنچه تفکر تاریخی و استدلال آنلاین در اشتراک دارند، این است: لازم است فراتر از سطح اطلاعات بنگریم و پیش از ورود به جزئیات ابتدا به زمینهٔ وسیعتر توجه کنیم. اطلاعات از هیچکجا نمیآید؛ بلکه کسی آن را نوشته، آن هم در جایی و به هدفی. این ملاحظات برای تصمیمگیری دربارهٔ اینکه به چه چیزی اعتماد کنیم، ضروریاند.
تاریخنگاران با یک سند اینگونه برخورد میکنند: ابتدا منبع آن را بررسی میکنند، نگاهی اجمالی به محتوا میاندازند، بعد سریع به انتها میروند تا به تاریخ، نویسنده و ارتباط آن با رویدادها بیندیشند. این جزئیات مهم، مطالعۀ بعدیشان را شکل میدهد.
مشابه همین، وقتی ما بررسی کردیم چگونه «راستیآزمایان حرفهای» در رسانههای بزرگ با وبسایت ناآشنا برخورد میکنند، دیدیم که آنها تقریباً بلافاصله تبهای جدید باز میکنند و به صورت جانبی (laterally) آنها را میخوانند تا زمینه را بفهمند. برای بررسی یک متن دیجیتال ناآشنا، یک خواننده باهوش، متناقضاً، ابتدا باید از آن خارج شود.
توضیح: مطالعه جانبی (lateral reading) روشی است که پژوهشگران و راستیآزمایان استفاده میکنند؛ بهجای ماندن در همان صفحه، به منابع دیگر میروند تا زمینهٔ اطلاعات را بسنجند؛ مثلاً جستوجو دربارهٔ نویسنده، تاریخ، کارفرما یا انتشارات.
شیوهٔ راستیآزمایان حرفهای، با نحوهٔ تعامل بسیاری از دانشآموزان با اسناد تاریخی، پستهای شبکهٔ اجتماعی و اخیراً پاسخهای چتباتها، متفاوت است.
همچنین بخوانید: اضافه کردن این جمله ساده در پرامپت، پاسخهای هوش مصنوعی را خلاقانهتر میکند
بسیاری از دانشآموزان اسناد تاریخی را مانند «ظروف اطلاعات» میبینند، نه چیزی متفاوت از کتاب درسی، و به نویسنده و زمینهٔ تاریخی توجهی ندارند. به همین ترتیب، دانشآموزان و بزرگسالان اغلب تحت تأثیر ظاهر یک ویدیو یا لحن رسمی یک وبسایت قرار میگیرند. دادههای جدید گروه DIG نشان میدهد که الگویی مشابه ممکن است دربارهٔ هوش مصنوعی هم در حال ظهور باشد — و لحن مطمئن چتباتها هم احتمالاً مقصر است.
در یک مطالعهٔ پایلوت که در آن دانشآموزان از هوش مصنوعی برای جستوجو در اینترنت استفاده کردند، از آنها خواسته شد تا پاسخی از ChatGPT را ارزیابی کنند که منبع نداشت. یکی از دانشآموزان گفت: «پاسخ هرچیزی را که میتوانستی بپرسی پوشش میداد». دیگری نوشت: «پاسخی مفصل داد». ما نمیخواهیم دانشآموزان به هیچ منبعی بهعنوان داور حقیقت بسنده کنند، چه کتاب درسی سنتی باشد چه چتبات براق و جدید. ما هرگز نمیخواهیم آنها وقتی نمیتوانند منبعی برای استدلالشان پیدا کنند به استنادهای ساختگی تکیه کنند — چیزی که حتی حرفهایها هم گرفتار آن شدهاند.
چیزی که ما میخواهیم این است که دانشآموزان شواهد را بسنجند. بفهمند که فرایند چالشبرانگیز، جذاب و پُرپاداشِ «چیدن یک روایت منسجم بر اساس چندین منبع» چیست. بفهمند که «اقرار به آنچه نمیدانیم» خودش یک دستاورد است، شکلی خاص از دانش.
و این همان چیزی است که دربارهٔ یافتههای پژوهشگران OpenAI برای ما نگرانکننده است. چتباتها — همانگونه که این پژوهشگران اعتراف میکنند — طوری برنامهریزی شدهاند که پاسخهای [بەظاهر] معتبری برای پرسشهای پیچیده، دشوار و اغلب غیرقابل پاسخ ارائه دهند. شرکتهایی که چتباتها را طراحی میکنند، بیان عدمقطعیت را که در کلاس درس بسیار حیاتی است، تشویق نمیکنند.
ما نباید نفسمان را حبس کنیم تا شرکتهای هوش مصنوعی مدلهایشان را اصلاح کنند. خبر خوب این است که هوش مصنوعی به اندازهای انعطافپذیر است، و کاربران فردی نیز به اندازه کافی توانمندند، که معلمان میتوانند بلافاصله اقدام کنند تا درسهایی را که دربارهٔ تفکر خوب، پژوهش خوب و آموزش خوب داریم، بهکار بگیرند.
برای مثال، در مورد یک پاسخ هوش مصنوعی که منبع ندارد — حتی چند ساعت آموزش کوتاه میتواند باعث شود دانشآموزان بیشتر به اینکه «منبع اطلاعات از کجاست؟» توجه کنند. گروه تحقیقاتی ما اکنون در حال آزمایش آموزش دانشآموزان هستند تا از چتبات بخواهند منابعشان را بیان کنند. هدف ما این است که دانشآموزان را ترغیب کنیم تا نسبت به پاسخهای هوش مصنوعی که از انجمنهایی مثل Reddit یا وبلاگهای تصادفی آمدهاند، شک داشته باشند و در عوض مدل را به منابعی که بازتابدهندهٔ تخصصاند، هدایت کنند. دانشآموزان باید تعاملشان با چتبات را بهعنوان یک فرآیند ببینند، شبیه خلق دانش، نه یک مبادلهٔ یکباره.
هوش مصنوعی با وجود نقصهایی که دارد، میتواند بهعنوان درگاهی قدرتمند برای تعامل با زمینه عمل کند: اما تنها زمانی که کاربران بدانند چقدر خطاپذیر است، چقدر هنوز دربارهٔ نحوهٔ کارکرد آن نمیدانیم، و یاد بگیرند چگونه پرسش کنند تا پاسخهای با کیفیت تولید شود.
کارشناس اطلاعات Mike Caulfield، برای مثال، نشان داده که «درخواست از چتبات برای ارزیابی شواهد موافق و مخالف یک ادعا» میتواند پاسخهای بسیار بهتری تولید کند تا گرفتن یک پاسخ ساده. با یک پرامپت دقیقتر، چتباتها اغلب در پاسخشان «تأیید اختلاف نظر متخصصان» یا «فقدان توافق علمی» را نیز وارد میکنند.
معلمان خوب، دانشآموزانشان را بهخاطر ندانستن تنبیه نمیکنند. و این یعنی معلمان خوب باید در مورد گذاشتنِ فناوریای در دستان دانشآموزانشان که اساساً برای اجتناب از گفتن «نمیدانم» آموزش دیده، محتاط باشند.
گروه تحقیقاتی ما مدتهاست آموزش سواد دیجیتال را ترویج کرده و به رویکردهایی که به دانشآموزان میگویند «از موتورهای جستوجو دور بمانند» و در «پایگاههای مقالات بازبینیشده» پناه بگیرند، انتقاد کردهاند. اما تفاوتی هست بین آموزش دادن دانشآموزان به رانندگی ایمن و رها کردنشان در یک اتومبیل F1 قبل از گرفتن گواهینامه. اکنون خیلی از آموزشهای مربوط به هوش مصنوعی به همین شکل است. وقتی صحبت از هوش مصنوعی در مدارس میشود، همهٔ ما به مقداری تواضع نیاز داریم، چون هوش مصنوعی حداقل فعلاً اعتبار درست حسابی ندارد.
راهکارهای علمی برای مقابله با مسئله اجتناب از «ندانستن» در ابزارهای هوش مصنوعی
پژوهشگران و متخصصان آموزش چند راهبرد عملی را پیشنهاد کردهاند که معلمان، مدارس و دانشآموزان میتوانند برای مواجهه با این چالش بهکار ببرند:
آموزش «پرسشگری» و پذیرش عدمقطعیت
گروه پژوهشی Digital Inquiry Group (DIG) در دانشگاه استنفورد تأکید میکند که باید به دانشآموزان نشان داده شود که گفتن «نمیدانم» یا «باید بررسی شود» خودش نشانهای از دانش است. معلمان میتوانند با طراحی فعالیتهایی که دانشآموزان را به یافتن مراجع، مقایسه منابع و مواجهه با سؤال «چرا؟» و «چه میشود اگر…؟» ترغیب میکنند، مهارتهای تفکر انتقادی را تقویت کنند.درخواست از ابزار هوش مصنوعی برای ذکر منابع و شفافیت
مقالهای پیشنهاد میدهد که معلمان دانشآموزان را راهنمایی کنند تا هنگام کار با چتباتها، از آنها بخواهند که منابع پاسخ را ارائه دهند یا در صورت عدم توانایی مدل، بگویند «منبع موجود نیست». این کار باعث میشود تعامل با هوش مصنوعی بهصورت فرایند خلق دانش دیده شود، نه بازسازی سریع پاسخهای آماده.طراحی پرسشها بهگونهای که ابزارها نتوانند صرفاً پاسخ ایمنی به آن بدهند
یکی از اقدامات پیشنهادی طراحی پرسشهایی است که «تفکر سطحی» را به چالش میکشند. برای نمونه، سایت WestEd در مقالهای توضیح داده که باید فضاهایی برای «مبارزهٔ مفید با چالش»، یعنی مشکلسازی و مواجهه با ابهام، در کلاسها برقرار شود. پرسشهایی که دانشآموزان را وادار میکند چندین دیدگاه را بررسی کنند، یا استدلال موافق و مخالف را بنویسند، از وابستگی صرف به خروجی هوش مصنوعی میکاهند.تضمین نظارت انسانی و بازنگری معلم در خروجیهای هوش مصنوعی
پژوهشگران توصیه کردهاند که استفاده از هوش مصنوعی در کلاس نباید صرفاً به تکلیف دادن به ماشین بسنده کند، بلکه معلم باید نقشی فعال داشته باشد. به عبارت دیگر، خروجی هوش مصنوعی باید توسط معلم بررسی شود، بازخورد داده شود و دانشآموز در فرایند بازسازی دانش مشارکت داده شود.آگاهسازی دانشآموزان دربارهٔ محدودیتهای ابزارهای هوش مصنوعی
لازم است دانشآموزان بدانند که ولو ابزار «هوشمند» باشد، هنوز میتواند خطا کند، همهچیز را نمیداند، و باید نسبت به آن شک کنند. مقاله اصلی نیز اشاره میکند که یکی از عوامل خطا اعتماد به لحن مطمئن چتباتهاست. آموزش دربارهٔ منبع، زمینه، نویسندهٔ محتوا و محدودیتهای دانش ماشینی از موارد کلیدی است.
منبع: edweek