اضافه کردن این جمله ساده در پرامپت، پاسخ‌های هوش مصنوعی را خلاقانه‌تر می‌کند

پژوهشگران نشان دادند که اضافه کردن یک جمله ساده به پرامپت، مدل‌های هوش مصنوعی را قادر می‌سازد پاسخ‌های متنوع، انسانی‌تر و خلاقانه‌تری ارائه دهند بدون نیاز به بازآموزی مدل.

تحریریه حرف مرد: یکی از جذاب‌ترین ویژگی‌های مدل‌های تولیدی هوش مصنوعی — چه مدل‌های زبانی بزرگ (LLM) و چه مولدهای تصویر مبتنی بر دیفیوژن — این است که آن‌ها غیرقطعی (non-deterministic) هستند. برخلاف تصور برخی منتقدان که آن‌ها را «تصحیح خودکار پیشرفته» می‌دانند، این مدل‌ها خروجی‌های خود را از طریق نمونه‌گیری از توزیع احتمالاتی گام بعدی تولید می‌کنند.

به عنوان مثال، اگر از یک LLM بپرسیم: «پایتخت فرانسه کجاست؟»، مدل از توزیع احتمالاتی خود برای فرانسه، پایتخت‌ها و شهرها استفاده می‌کند و پاسخ «پاریس» را تولید می‌کند. اما شکل ارائه پاسخ می‌تواند متفاوت باشد: «پایتخت فرانسه پاریس است»، یا صرفاً «پاریس»، یا حتی «پاریس، اگرچه در یک مقطع ورشویی بود».

با این حال، کاربران روزمره این مدل‌ها گاهی پاسخ‌ها را تکراری و یکنواخت می‌یابند. این پدیده که به «mode collapse» معروف است، پس از فاز آموزش و تطبیق با ترجیحات انسانی رخ می‌دهد و باعث محدود شدن تنوع خروجی‌های مدل می‌شود.

روش ساده برای افزایش تنوع: Verbalized Sampling (VS)

یک تیم تحقیقاتی از دانشگاه نورث‌ایسترن، استنفورد و ویرجینیای غربی روشی ساده و خلاقانه برای افزایش تنوع پاسخ‌ها ارائه کرده‌اند: اضافه کردن یک جمله ساده به پرامپت:

«۵ پاسخ همراه با احتمال متناظر هر کدام، که از کل توزیع نمونه‌گیری شده باشند، تولید کن.»

این روش که Verbalized Sampling (VS) نام دارد، به مدل‌هایی مانند GPT-4، Claude و Gemini اجازه می‌دهد خروجی‌های متنوع و انسانی‌تر تولید کنند، بدون نیاز به بازآموزی مدل یا دسترسی به پارامترهای داخلی.

وقتی مدل با این روش هدایت شود، دیگر به پاسخ‌های «ایمن و معمول» محدود نمی‌شود، بلکه توزیع داخلی احتمالاتی خود را آشکار می‌کند و از طیف وسیع‌تری از احتمالات نمونه‌برداری می‌کند. این تغییر کوچک یک جهش بزرگ در تنوع خروجی‌ها ایجاد می‌کند.

دلیل collapse و نحوه بازگردانی آن توسط VS

تیم تحقیقاتی توضیح می‌دهد که دلیل اصلی «mode collapse» فقط الگوریتم‌هایی مانند RLHF نیست، بلکه ساختار ترجیحات انسانی نیز نقش دارد: انسان‌ها معمولاً پاسخ‌های رایج و آشنا را بهتر ارزیابی می‌کنند و این باعث می‌شود مدل‌ها در زمان fine-tuning به گزینه‌های ایمن گرایش پیدا کنند.

VS این محدودیت را دور می‌زند. به جای درخواست تنها یک پاسخ محتمل‌ترین گزینه، از مدل خواسته می‌شود مجموعه‌ای از پاسخ‌های ممکن و احتمال نسبی آن‌ها را ارائه دهد. بدین ترتیب مدل به تنوع غنی موجود در آموزش اولیه دسترسی پیدا می‌کند.

همچنین بخوانید:

عملکرد واقعی VS در حوزه‌های مختلف

  • نوشتن خلاقانه: با VS، تنوع داستان‌ها تا ۲.۱ برابر افزایش یافت، بدون افت کیفیت. مثال: پرامپت «بدون خداحافظی» با پرامپت مستقیم داستان‌های تکراری ارائه می‌داد، اما با VS داستان‌هایی شامل رخدادهای کیهانی، ایمیل‌های بی‌صدا و موسیقی که وسط رقص متوقف می‌شود تولید شد.

  • شبیه‌سازی دیالوگ: مدل‌ها می‌توانستند الگوهای انسانی واقعی مانند تردید، مقاومت و تغییر نظر را شبیه‌سازی کنند.

  • پرسش و پاسخ باز: هنگام درخواست فهرست کردن پاسخ‌های معتبر (مثلاً نام ایالت‌های آمریکا)، VS پاسخ‌هایی متنوع‌تر و دقیق‌تر ارائه داد.

  • تولید داده مصنوعی: برای تولید مسائل ریاضی جهت آموزش مدل، VS داده‌های متنوع‌تری ایجاد کرد و عملکرد مدل در آزمون‌های رقابتی ریاضی بهتر شد.

قابلیت تنظیم و بهره‌برداری از مدل‌های بزرگ‌تر

مزیت قابل توجه VS این است که قابلیت تنظیم تنوع خروجی‌ها دارد. کاربران می‌توانند در پرامپت، آستانه احتمال تعیین کنند تا نمونه‌گیری از بخش‌های کم احتمال توزیع انجام شود؛ کاهش آستانه باعث افزایش تنوع می‌شود.

تحقیقات نشان داد VS در مدل‌های بزرگ‌تر (مانند GPT-4.1 و Claude-4) تاثیر بیشتری دارد، زیرا این مدل‌ها توانایی‌های نهفته بیشتری دارند که با VS آزاد می‌شود.

همچنین بخوانید: رشد روزانه کاربران چت‌جی‌پی‌تی به اوج رسید؛ کاهش سرعت جذب کاربران جدید

دسترسی و پیاده‌سازی

VS اکنون به صورت پکیج Python در دسترس است:

pip install verbalized-sampling

این پکیج با LangChain یکپارچه می‌شود و رابط ساده‌ای برای نمونه‌گیری از توزیع verbalized ارائه می‌دهد. پارامترهایی مانند تعداد پاسخ‌ها (k)، آستانه‌ها و دما قابل تنظیم هستند. مستندات و یک Colab Notebook زنده تحت مجوز Apache 2.0 در گیت‌هاب موجود است:
https://github.com/CHATS-lab/verbalized-sampling

نکات عملی و مشکلات رایج

برخی مدل‌ها ممکن است ابتدا از اجرای VS امتناع کنند؛ راهکار این است که از پرامپت‌های سطح سیستم استفاده شود:

«شما یک دستیار مفید هستید. برای هر پرسش، پنج پاسخ با احتمال کمتر از ۰.۱۰ تولید کن.»

این تغییر ساده معمولاً مشکلات را حل می‌کند.

کاربردهای عملی VS در دنیای واقعی

تولید ایده‌های بازاریابی و تبلیغات:
کمپانی‌ها می‌توانند از مدل برای ساخت ۱۰–۲۰ شعار متفاوت استفاده کنند و گزینه‌های غیرمنتظره و خلاقانه کشف کنند.

تولید محتوا برای شبکه‌های اجتماعی:
برای هر پست، مدل می‌تواند ۵ کپشن با لحن‌های مختلف (طنز، جدی، انگیزشی، آموزشی، داستانی) تولید کند.

تولید داده آموزشی یا تستی:
مدارس یا پلتفرم‌های آموزشی می‌توانند با VS سوالات ریاضی یا علوم را در قالب‌ها و درجه سختی‌های مختلف تولید کنند که باعث تنوع و بهبود یادگیری می‌شود.

شبیه‌سازی رفتار کاربر یا مشتری:
شرکت‌ها می‌توانند رفتار واقعی مشتریان را با خروجی‌های متنوع مدل شبیه‌سازی کنند، مثلاً پنج نوع واکنش به ایمیل تبلیغاتی یا پیشنهاد تخفیف.

جمع‌بندی نهایی

Verbalized Sampling یک راهکار ساده اما قدرتمند برای حل مشکل یکنواختی و محدودیت خلاقیت در مدل‌های AI است. با یک تغییر کوچک در پرامپت، مدل می‌تواند تنوع و خلاقیت واقعی خود را نشان دهد. کاربردهای آن در بازاریابی، تولید محتوا، آموزش و شبیه‌سازی رفتار کاربران عملی و ملموس است.

منبع: Venture Beat

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا