عرضه اولین اسباب بازی مجهز به هوش مصنوعی: باید نگران باشیم؟

همکاری بین Mattel و OpenAI قرار است به عرضه اولین اسباب بازی مجهز به هوش مصنوعی منجر شود. اما مزایا و خطرات اسباب‌بازی‌های هوشمند چیست؟

بر اساس مفاد قرارداد همکاری بین Mattel و OpenAI قرار است به زودی شاهد عرضه اولین اسباب بازی مجهز به هوش مصنوعی باشیم. این محصولات نه فقط هوشمند هستند بلکه در سطحی بی‌سابقه تعامل شناختی دارند. اما آیا معماری مدل‌های زبانی بزرگ مناسب استفاده در اسباب بازی‌هاست؟ خطرات این تصمیم چیست؟

شاید در نظر اول شنیدن چنین چیزی هرکسی را به یاد فیلم‌های سینمایی مانند Chucky یا M3gan باشد. باید بگوییم که داستان به نوعی مشابه است ولی با شدت و حدت متفاوت و البته بسیار کمتر.

باربی دیگر فقط یک عروسک نیست. حالا او می‌تواند پاسخ دهد، سؤال بپرسد، داستان بگوید و حتی درباره‌ی کهکشان‌ها توضیح دهد. اما پشت این قابلیت‌ها، مدلی از هوش مصنوعی نهفته است که با میلیاردها پارامتر آموزش دیده است؛ سیستمی که روزی برای کمک به پژوهشگران و توسعه‌دهندگان طراحی شد، اکنون در دستان یک کودک قرار می‌گیرد. آیا زمان آن فرا رسیده که هوش مصنوعی به هم‌بازی بچه‌ها تبدیل شود؟ یا این هم یک «سرباز کوچک» دیگر است که از کنترل خارج می‌شود؟

اولین اسباب بازی هوشمند به زودی از راه می‌رسد

شرکت اسباب‌بازی‌سازی Mattel، که مالک برندهایی نظیر Barbie، Hot Wheels و UNO است، به‌تازگی همکاری رسمی خود را با OpenAI اعلام کرده تا نسخه‌هایی از اسباب‌بازی‌های محبوب خود را به فناوری گفت‌وگوگر GPT تجهیز کند. این پروژه با استفاده از مدل‌های زبان بزرگ (LLM) توسعه خواهد یافت که اساس آن‌ها شبکه‌های عصبی ترنسفورمر چند میلیارد پارامتری هستند. این همان فناوری‌ای است که قلب موتور زبانی ChatGPT (نسخه‌های GPT-3.5، GPT-4 و بالاتر) را تشکیل می‌دهد.

بنابر گزارش TechRadar، بر اساس اطلاعات رسمی منتشر شده توسط OpenAI، در این پروژه از نسخه‌های سفارشی‌شده ChatGPT بهره گرفته خواهد شد. این نسخه‌ها با استفاده از دستورالعمل‌های ایمن‌سازی (Safety Fine-Tuning) و ماژول‌های فیلترینگ محتوای متنی، صوتی و رفتاری توسعه داده می‌شوند.

شخصیت‌های سینمایی مگان و چاکی که البته فقط روی سیاه عروسک‌های هوشمند را نشان دادند
شخصیت‌های سینمایی مگان و چاکی که البته فقط روی سیاه عروسک‌های هوشمند را نشان دادند

با این حال، نکته کلیدی آنجاست که این مدل‌ها، حتی در نسخه مهار شده، همچنان براساس معماری زبانی مولد آموزش دیده‌اند که بر روی تریلیون‌ها کلمه و متن‌های اینترنتی، شامل منابع تأییدنشده، گفتگوهای فروم‌ها، و محتوای عمومی، آموزش یافته‌اند.

مشکل اسباب بازی هوشمند از کجا شروع می‌شود؟

مسئله اخلاقی و نگران‌کننده دقیقاً در ماهیت مدل‌های زبانی نهفته است. برخلاف سیستم‌های دیالوگ سنتی که با مجموعه‌ای محدود و قابل کنترل از قواعد و پاسخ‌ها کار می‌کردند، مدل‌های LLM مانند ChatGPT بر پایه پیش‌بینی احتمال وقوع کلمه بعدی در یک جمله کار می‌کنند؛ الگوریتمی آماری که به آن مدل مولد خودبازگشتی (Autoregressive Transformer) گفته می‌شود. این یعنی پاسخ‌ها «ساخته» می‌شوند، نه از بانک اطلاعاتی استخراج شوند.

در محیط‌هایی مانند کاربرد در بازی کودکانه، جایی که کودکان در سنین رشد زبانی، شناختی و اجتماعی قرار دارند، این تولید خودکار محتوا می‌تواند به نتایج پیش‌بینی‌ناپذیر منجر شود.

برای اینکه موضوع را بهتر درک کنید می‌توانید به تجربیات خود یا دیگران از صحبت با ChatGPT یا چت‌بات‌های دیگری رجوع کنید که به وضوح، هذیان‌گویی، تصورات غلط، بیان ناهنجار فرهنگی یا حتی ارائه اطلاعات نه چندان دقیق و حتی مضر را به کاربر می‌دهد؛ خطاهایی که یک کاربر بالغ ممکن است متوجه شده و اصلاح کند، اما کودک به‌سادگی ممکن است آن را حقیقت بداند.

آیا محدودسازی پاسخ‌ها کافی است؟

ماتل اعلام کرده که با بهره‌گیری از مکانیزم‌های بازبینی بلادرنگ و سامانه‌های گفتاری سفارشی‌سازی‌شده قصد دارد امنیت این اسباب‌بازی‌ها را تضمین کند. ولی از دید فنی، این نوع سامانه‌های محدودکننده، معمولاً بر پایه دستورالعمل‌های مهارکننده (RLHF) و فیلترهای مبتنی‌بر لیست‌های سیاه پیاده‌سازی می‌شوند. در نظر داشته باشید که این ساختارها به‌هیچ‌وجه عملکردی صددرصدی ندارند و تنها احتمال بروز خطا را کاهش می‌دهند؛ نه حذف کامل آن را.

ضمن اینکه در کاربردهایی مثل عروسک تعاملی یا اسباب‌بازی هوشمند، مدل باید در محیط اجرا شود؛ یا در قالب ماژول پردازشی داخلی (مانند تراشه‌هایی در داخل دستگاه برای پردازش‌های زبانی محلی)، یا به‌صورت اتصال از راه دور (Cloud API). در هر دو حالت، دسترسی و پایش لحظه‌ای مکالمه‌ها از سوی والدین تقریباً غیرممکن خواهد بود.

از سرگرمی تا شناخت: مرز باریکی که نباید نادیده گرفت

در ظاهر، افزودن قابلیت گفت‌وگو به عروسکی مانند Barbie ممکن است تجربه‌ای تعاملی و آموزشی به نظر برسد. مثلاً، کودک می‌تواند درباره فضاپیمای جیمز وب سؤال بپرسد و پاسخ‌هایی مناسب سن دریافت کند. یا در بازی UNO، کارت‌ها با کمک مدل زبانی نقش آموزشی در تقویت مهارت‌های تصمیم‌گیری و مدیریت احساسات پیدا کنند. اما فراموش نکنیم که مدل‌های LLM، حتی در نسخه‌های محدودشده، درون‌مایه‌ای خلاقانه اما غیرقابل پیش‌بینی دارند.

عرضه اولین اسباب بازی مجهز به هوش مصنوعی
عرضه اولین اسباب بازی مجهز به هوش مصنوعی

در روانشناسی رشد کودک، میان «اسباب‌بازی‌های غیرفعال» که تخیل را تحریک می‌کنند و «ابزارهای گفت‌وگومحور» که بر رشد زبان تأثیر می‌گذارند، تفاوت بنیادی وجود دارد.

ایجاد رابطه عاطفی با یک اسباب‌بازی که نه‌تنها پاسخ می‌دهد، بلکه ظاهراً «می‌فهمد»، می‌تواند منجر به دلبستگی شبه‌اجتماعی (parasocial bonding) شود؛ پدیده‌ای که تا امروز بیشتر در رابطه کودک با شخصیت‌های کارتونی یا مجری‌های تلویزیونی بررسی می‌شد، نه یک ماژول نرم‌افزاری در دل یک عروسک!

تجربه‌های پیشین از اسباب بازی هوشمند

این نخستین بار نیست که فناوری در حوزه اسباب‌بازی حاشیه‌ساز می‌شود. نمونه‌هایی مانند Furby با ضبط صدا، Barbie Interactive با جملات کلیشه‌ای و گاه جنسیت‌زده («ریاضی سخته!») یا حتی Elmoهای سخنگو با مشکلات امنیتی، پیش‌زمینه‌ای از نگرانی‌ها را ایجاد کرده‌اند. اما تفاوت اساسی در آن است که هیچ‌کدام از آن‌ها بر پایه مدل‌های مولد زبانی با قابلیت پاسخ‌دهی خلاقانه و مداخله‌گر نبودند.

با همکاری جدید مَتل و اوپن ای آی، عروسک یا ماشین بازی پیشرفته و هوشمند، به واحد پردازشی زبانی توزیع‌شده تبدیل می‌شود و برخلاف یک اپلیکیشن موبایل، نظارت لحظه‌ای و فیلترینگ محتوایی آن برای والدین تقریباً امکان‌ناپذیر است.

بالاخره اسباب بازی هوشمند خوب است یا بد؟

سؤال این نیست که آیا باید هوش مصنوعی در اسباب‌بازی‌ها حضور داشته باشد یا نه. بلکه باید بپرسیم چه نوع هوش مصنوعی، با چه سطح از استقلال رفتاری و در چه سناریویی؟ مانند آنچه در تولید برنامه‌های تلویزیونی برای خردسالان رعایت می‌شود (ساختارهایی با متن از پیش نوشته‌شده، بازبینی‌شده و آزموده‌شده) هوش مصنوعی در حوزه کودک نیز باید بسیار محدود، مهار‌شده و تخصصی‌شده باشد.

تا زمانی که زیرساختی طراحی‌نشده و مختص محیط‌های کودک‌محور برای LLMها مانند مدل‌هایی با دامنه دانشی محدود، واژگان کنترل‌شده، و ساختارهای متنی فاقد محتوای احتمالی مبهم یا آزاردهنده، وجود نداشته باشد باید نسبت به ادغام مستقیم آن‌ها در اسباب‌بازی‌هایی که توسط کودکان بی‌پناه ذهنی استفاده می‌شوند، با تردید نگاه کرد.

پیشنهاد اولیه به والدین

تا انتشار نسخه‌های آزمایش‌شده و معتبر، هوش مصنوعی را به‌عنوان ابزار جانبی در کنترل والدین نگاه کنید، نه همبازی مستقل کودک. اسباب‌بازی‌ها می‌توانند باهوش شوند، اما در هوشمند شدن، نباید از «آگاه بودن» فراتر بروند.

منبع: شهر سخت‌افزار

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا