دلیل برخی پاسخ‌های اشتباه چت‌بات‌ها: هوش مصنوعی از گفتن «نمی‌دانم» اجتناب می‌کند؛ راه مقابله چیست؟

پژوهشگران هشدار می‌دهند مدل‌های زبانی بزرگ به‌جای پذیرش عدم‌قطعیت، برای ارائهٔ پاسخ‌های قطعی طراحی شده‌اند و این امر می‌تواند روح پرسشگری، تفکر انتقادی و مهارت‌های تحقیق در آموزش را تضعیف کند.

تحریریه حرف مرد: در مقاله‌ای که توسط Education Week منتشر شده است، نویسندگان Sam Wineburg و Nadav Ziv به این نکته می‌پردازند که در فرآیند آموزش و به‌ویژه در بکارگیری ابزارهای هوش مصنوعی (مثل چت‌بات‌ها) در کلاس درس، یکی از مهم‌ترین مؤلفه‌های یادگیری یعنی پذیرش ندانستن، پرسیدن «چرا؟» و تصور کردن «چه می‌شود اگر…؟»، به طرز نگران‌کننده‌ای نادیده گرفته شده است. آن‌ها هشدار می‌دهند که ابزارهای هوش مصنوعی طوری طراحی شده‌اند که از پذیرش عدم قطعیت پرهیز کنند و این با فلسفهٔ یادگیری در مدارس در تضاد است.

چت‌بات‌های هوش مصنوعی مثل دانش‌آموزانی هستند که مطالعه نکرده‌اند اما بالا دست‌شان را بلند می‌کنند.

تحقیقی جدید از پژوهشگران در OpenAI، شرکت پشت پردهٔ ChatGPT، نشان می‌دهد که یکی از دلایل بزرگ «هذیان‌گویی» (hallucination) هوش مصنوعی این است که مدل‌های بزرگ زبانی طوری مهندسی شده‌اند که عدم‌قطعیت را حذف کنند.

یک چت‌بات که بگوید «نمی‌دانم»، همان نمرهٔ آموزشی را می‌گیرد که یک چت‌بات که اطلاعات نادرست ارائه می‌دهد. نتیجه این است که هوش مصنوعی پاسخ‌هایی با لحن بسیار مطمئن ارائه می‌دهد که اغلب اشتباه‌اند. بسیاری از انسان‌ها با مشاهدهٔ صداقت ظاهری هوش مصنوعی گمراه می‌شوند و کیفیت پاسخ را با نحوهٔ ارائهٔ آن اشتباه می‌گیرند.

آموزش باید به دانش‌آموزان بیاموزد که با پیچیدگی مواجه شوند. اما هوش مصنوعی طوری طراحی شده که از آن اجتناب کند. این تضاد یکی دیگر از دلایل است که چرا باید «شتاب به استفاده از هوش مصنوعی در دستان دانش‌آموزان» را با احتیاط پیش برد. همچنین این مسئله باعث بوجود آمدن سؤالی می‌شود که معلمان وقتی می‌خواهند هوش مصنوعی را در کلاس آموزش ادغام کنند باید از خود بپرسند: «آیا می‌توانم این ابزار را طوری به‌کار ببرم که رفتاری را مدل کند که می‌خواهم در دانش‌آموزانِم ببینم؟»

بیش از دو دهه است که گروه تحقیقاتی Digital Inquiry Group (DIG) و نسخهٔ قبلی اش در دانشگاه Stanford University، برنامه‌هایی طراحی کرده‌اند که به دانش‌آموزان می‌آموزد «مانند تاریخ‌نگاران بخوانند و فکر کنند»؛ یعنی پرسشگر باشند، منبع‌ها را بسنجند و زمینهٔ تاریخی را در نظر بگیرند. پس از مطالعه‌ای در سال ۲۰۱۶ که نشان داد جوانان در ارزیابی منابع آنلاین مشکل دارند، این گروه برنامه‌هایی توسعه دادند تا به دانش‌آموزان کمک کند «واقعیت را از داستان جدا کنند».

آنچه تفکر تاریخی و استدلال آنلاین در اشتراک دارند، این است: لازم است فراتر از سطح اطلاعات بنگریم و پیش از ورود به جزئیات ابتدا به زمینهٔ وسیع‌تر توجه کنیم. اطلاعات از هیچ‌کجا نمی‌آید؛ بلکه کسی آن را نوشته، آن هم در جایی و به هدفی. این ملاحظات برای تصمیم‌گیری دربارهٔ اینکه به چه چیزی اعتماد کنیم، ضروری‌اند.

تاریخ‌نگاران با یک سند این‌گونه برخورد می‌کنند: ابتدا منبع آن را بررسی می‌کنند، نگاهی اجمالی به محتوا می‌اندازند، بعد سریع به انتها می‌روند تا به تاریخ، نویسنده و ارتباط آن با رویدادها بیندیشند. این جزئیات مهم، مطالعۀ بعدی‌شان را شکل می‌دهد.

مشابه همین، وقتی ما بررسی کردیم چگونه «راستی‌آزمایان حرفه‌ای» در رسانه‌های بزرگ با وب‌سایت ناآشنا برخورد می‌کنند، دیدیم که آن‌ها تقریباً بلافاصله تب‌های جدید باز می‌کنند و به صورت جانبی (laterally) آنها را می‌خوانند تا زمینه را بفهمند. برای بررسی یک متن دیجیتال ناآشنا، یک خواننده باهوش، متناقضاً، ابتدا باید از آن خارج شود.

توضیح: مطالعه جانبی (lateral reading) روشی است که پژوهشگران و راستی‌آزمایان استفاده می‌کنند؛ به‌جای ماندن در همان صفحه، به منابع دیگر می‌روند تا زمینهٔ اطلاعات را بسنجند؛ مثلاً جست‌وجو دربارهٔ نویسنده، تاریخ، کارفرما یا انتشارات.

شیوهٔ راستی‌آزمایان حرفه‌ای، با نحوهٔ تعامل بسیاری از دانش‌آموزان با اسناد تاریخی، پست‌های شبکهٔ اجتماعی و اخیراً پاسخ‌های چت‌بات‌ها، متفاوت است.

همچنین بخوانید: اضافه کردن این جمله ساده در پرامپت، پاسخ‌های هوش مصنوعی را خلاقانه‌تر می‌کند

بسیاری از دانش‌آموزان اسناد تاریخی را مانند «ظروف اطلاعات» می‌بینند، نه چیزی متفاوت از کتاب درسی، و به نویسنده و زمینهٔ تاریخی توجهی ندارند. به همین ترتیب، دانش‌آموزان و بزرگسالان اغلب تحت تأثیر ظاهر یک ویدیو یا لحن رسمی یک وب‌سایت قرار می‌گیرند. داده‌های جدید گروه DIG نشان می‌دهد که الگویی مشابه ممکن است دربارهٔ هوش مصنوعی هم در حال ظهور باشد — و لحن مطمئن چت‌بات‌ها هم احتمالاً مقصر است.

در یک مطالعهٔ پایلوت که در آن دانش‌آموزان از هوش مصنوعی برای جست‌وجو در اینترنت استفاده کردند، از آن‌ها خواسته شد تا پاسخی از ChatGPT را ارزیابی کنند که منبع نداشت. یکی از دانش‌آموزان گفت: «پاسخ هرچیزی را که می‌توانستی بپرسی پوشش می‌داد». دیگری نوشت: «پاسخی مفصل داد». ما نمی‌خواهیم دانش‌آموزان به هیچ منبعی به‌عنوان داور حقیقت بسنده کنند، چه کتاب درسی سنتی باشد چه چت‌بات براق و جدید. ما هرگز نمی‌خواهیم آن‌ها وقتی نمی‌توانند منبعی برای استدلال‌شان پیدا کنند به استنادهای ساختگی تکیه کنند — چیزی که حتی حرفه‌ای‌ها هم گرفتار آن شده‌اند.

چیزی که ما می‌خواهیم این است که دانش‌آموزان شواهد را بسنجند. بفهمند که فرایند چالش‌برانگیز، جذاب و پُرپاداشِ «چیدن یک روایت منسجم بر اساس چندین منبع» چیست. بفهمند که «اقرار به آنچه نمی‌دانیم» خودش یک دستاورد است، شکلی خاص از دانش.

و این همان چیزی است که دربارهٔ یافته‌های پژوهشگران OpenAI برای ما نگران‌کننده است. چت‌بات‌ها — همان‌گونه که این پژوهشگران اعتراف می‌کنند — طوری برنامه‌ریزی شده‌اند که پاسخ‌های [بە‌ظاهر] معتبری برای پرسش‌های پیچیده، دشوار و اغلب غیرقابل پاسخ ارائه دهند. شرکت‌هایی که چت‌بات‌ها را طراحی می‌کنند، بیان عدم‌قطعیت را که در کلاس درس بسیار حیاتی است، تشویق نمی‌کنند.

ما نباید نفس‌مان را حبس کنیم تا شرکت‌های هوش مصنوعی مدل‌های‌شان را اصلاح کنند. خبر خوب این است که هوش مصنوعی به اندازه‌ای انعطاف‌پذیر است، و کاربران فردی نیز به اندازه کافی توانمندند، که معلمان می‌توانند بلافاصله اقدام کنند تا درس‌هایی را که دربارهٔ تفکر خوب، پژوهش خوب و آموزش خوب داریم، به‌کار بگیرند.

برای مثال، در مورد یک پاسخ هوش مصنوعی که منبع ندارد ­— حتی چند ساعت آموزش کوتاه می‌تواند باعث شود دانش‌آموزان بیشتر به اینکه «منبع اطلاعات از کجاست؟» توجه کنند. گروه تحقیقاتی ما اکنون در حال آزمایش آموزش دانش‌آموزان هستند تا از چت‌بات بخواهند منابع‌شان را بیان کنند. هدف ما این است که دانش‌آموزان را ترغیب کنیم تا نسبت به پاسخ‌های هوش مصنوعی که از انجمن‌هایی مثل Reddit یا وب‌لاگ‌های تصادفی آمده‌اند، شک داشته باشند و در عوض مدل را به منابعی که بازتاب‌دهندهٔ تخصص‌اند، هدایت کنند. دانش‌آموزان باید تعامل‌شان با چت‌بات را به‌عنوان یک فرآیند ببینند، شبیه خلق دانش، نه یک مبادلهٔ یک‌باره.

هوش مصنوعی با وجود نقص‌هایی که دارد، می‌تواند به‌عنوان درگاهی قدرتمند برای تعامل با زمینه عمل کند: اما تنها زمانی که کاربران بدانند چقدر خطاپذیر است، چقدر هنوز دربارهٔ نحوهٔ کارکرد آن نمی‌دانیم، و یاد بگیرند چگونه پرسش کنند تا پاسخ‌های با کیفیت تولید شود.

کارشناس اطلاعات Mike Caulfield، برای مثال، نشان داده که «درخواست از چت‌بات برای ارزیابی شواهد موافق و مخالف یک ادعا» می‌تواند پاسخ‌های بسیار بهتری تولید کند تا گرفتن یک پاسخ ساده. با یک پرامپت دقیق‌تر، چت‌بات‌ها اغلب در پاسخ‌شان «تأیید اختلاف نظر متخصصان» یا «فقدان توافق علمی» را نیز وارد می‌کنند.

معلمان خوب، دانش‌آموزان‌شان را به‌خاطر ندانستن تنبیه نمی‌کنند. و این یعنی معلمان خوب باید در مورد گذاشتنِ فناوری‌ای در دستان دانش‌آموزان‌شان که اساساً برای اجتناب از گفتن «نمی‌دانم» آموزش دیده، محتاط باشند.

گروه تحقیقاتی ما مدت‌هاست آموزش سواد دیجیتال را ترویج کرده و به رویکردهایی که به دانش‌آموزان می‌گویند «از موتورهای جست‌وجو دور بمانند» و در «پایگاه‌های مقالات بازبینی‌شده» پناه بگیرند، انتقاد کرده‌اند. اما تفاوتی هست بین آموزش دادن دانش‌آموزان به رانندگی ایمن و رها کردن‌شان در یک اتومبیل F1 قبل از گرفتن گواهینامه. اکنون خیلی از آموزش‌های مربوط به هوش مصنوعی به همین شکل است. وقتی صحبت از هوش مصنوعی در مدارس می‌شود، همهٔ ما به مقداری تواضع نیاز داریم، چون هوش مصنوعی حداقل فعلاً اعتبار درست حسابی ندارد.

راهکارهای علمی برای مقابله با مسئله اجتناب از «ندانستن» در ابزارهای هوش مصنوعی

پژوهشگران و متخصصان آموزش چند راهبرد عملی را پیشنهاد کرده‌اند که معلمان، مدارس و دانش‌آموزان می‌توانند برای مواجهه با این چالش به‌کار ببرند:

  1. آموزش «پرسشگری» و پذیرش عدم‌قطعیت
    گروه پژوهشی Digital Inquiry Group (DIG) در دانشگاه استنفورد تأکید می‌کند که باید به دانش‌آموزان نشان داده شود که گفتن «نمی‌دانم» یا «باید بررسی شود» خودش نشانه‌ای از دانش است. معلمان می‌توانند با طراحی فعالیت‌هایی که دانش‌آموزان را به یافتن مراجع، مقایسه منابع و مواجهه با سؤال «چرا؟» و «چه می‌شود اگر…؟» ترغیب می‌کنند، مهارت‌های تفکر انتقادی را تقویت کنند.

  2. درخواست از ابزار هوش مصنوعی برای ذکر منابع و شفافیت
    مقاله‌ای پیشنهاد می‌دهد که معلمان دانش‌آموزان را راهنمایی کنند تا هنگام کار با چت‌بات‌ها، از آنها بخواهند که منابع پاسخ را ارائه دهند یا در صورت عدم توانایی مدل، بگویند «منبع موجود نیست». این کار باعث می‌شود تعامل با هوش مصنوعی به‌صورت فرایند خلق دانش دیده شود، نه بازسازی سریع پاسخ‌های آماده.

  3. طراحی پرسش‌ها به‌گونه‌ای که ابزارها نتوانند صرفاً پاسخ ایمنی به آن بدهند
    یکی از اقدامات پیشنهادی طراحی پرسش‌هایی است که «تفکر سطحی» را به چالش می‌کشند. برای نمونه، سایت WestEd در مقاله‌ای توضیح داده که باید فضاهایی برای «مبارزهٔ مفید با چالش»، یعنی مشکل‌سازی و مواجهه با ابهام، در کلاس‌ها برقرار شود. پرسش‌هایی که دانش‌آموزان را وادار می‌کند چندین دیدگاه را بررسی کنند، یا استدلال موافق و مخالف را بنویسند، از وابستگی صرف به خروجی هوش مصنوعی می‌کاهند.

  4. تضمین نظارت انسانی و بازنگری معلم در خروجی‌های هوش مصنوعی
    پژوهشگران توصیه کرده‌اند که استفاده از هوش مصنوعی در کلاس نباید صرفاً به تکلیف دادن به ماشین بسنده کند، بلکه معلم باید نقشی فعال داشته باشد. به عبارت دیگر، خروجی هوش مصنوعی باید توسط معلم بررسی شود، بازخورد داده شود و دانش‌آموز در فرایند بازسازی دانش مشارکت داده شود.

  5. آگاه‌سازی دانش‌آموزان دربارهٔ محدودیت‌های ابزارهای هوش مصنوعی
    لازم است دانش‌آموزان بدانند که ولو ابزار «هوشمند» باشد، هنوز می‌تواند خطا کند، همه‌چیز را نمی‌داند، و باید نسبت به آن شک کنند. مقاله اصلی نیز اشاره می‌کند که یکی از عوامل خطا اعتماد به لحن مطمئن چت‌بات‌هاست. آموزش دربارهٔ منبع، زمینه، نویسندهٔ محتوا و محدودیت‌های دانش ماشینی از موارد کلیدی است.

منبع: edweek

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا