ChatGPT برای محافظت از نوجوانان محدودیت‌های جدیدی اعمال می‌کند

سم آلتمن، مدیرعامل OpenAI روز گذشته اعلام کرد که چت بات هوش مصنوعی این شرکت، ChatGPT قرار است که محدودیت‌های جدیدی را برای محافظت از نوجوانان اعمال کند.

این تصمیم در قالب یک پست وبلاگی هم‌زمان با برگزاری جلسه‌ای در کمیته فرعی جنایی و ضدتروریسم سنای آمریکا اعلام شد؛ این جلسه با حضور والدین برخی از نوجوانانی برگزار شد که پس از گفت‌وگو با چت‌بات‌ها دست به خودکشی زده بودند.

آلتمن در این پست بیان کرد که OpenAI سیاست‌هایی تازه برای ایجاد تعادل میان حریم خصوصی، آزادی و ایمنی نوجوانان در استفاده از ChatGPT در نظر گرفته است. او اذعان کرد که این اصول در مواردی با یکدیگر در تعارض قرار دارند.

مدیرعامل OpenAI در این مطلب نوشت: «باید کاربران زیر ۱۸ سال را از سایرین جدا کنیم.» وی توضیح داد که شرکت در حال طراحی سامانه‌ای برای پیش‌بینی سن بر اساس الگوی استفاده کاربران از ChatGPT است و در صورت تردید، حساب کاربر به‌ طور پیش‌فرض در دسته زیر ۱۸ سال قرار خواهد گرفت. او همچنین اشاره کرد که در برخی کشورها ممکن است درخواست احراز هویت با کارت شناسایی نیز مطرح شود.

همچنین بخوانید: هوش مصنوعی جمینای گوگل برای کودکان پرخطر است

به گفته آلتمن، شرکت OpenAI قصد دارد در قالب محدودیت‌های ChatGPT، قوانین متفاوتی را برای کاربران نوجوان اعمال کند، که از جمله آنها می‌توان به اجتناب از گفت‌وگوهای عاشقانه یا هرگونه بحث درباره خودکشی و آسیب به خود، حتی در قالب تمرین‌های نویسندگی خلاق اشاره کرد.

وی تصریح کرد: «اگر کاربر زیر ۱۸ سال با افکار خودکشی روبه‌رو باشد، تلاش خواهیم کرد که والدین او را مطلع کنیم و در صورت عدم دسترسی، با مقامات مربوطه تماس خواهیم گرفت.»

این اظهارات درباره اعمال محدودیت‌های تازه بر ChatGPT در حالی مطرح شد که OpenAI اوایل ماه جاری از برنامه‌هایی برای کنترل والدین در ChatGPT خبر داده بود. این برنامه شامل امکان اتصال حساب کاربر نوجوان به والدین، غیرفعال‌سازی تاریخچه و حافظه مکالمات، همچنین ارسال هشدار به والدین در مواقع بحرانی می‌شود. این اقدامات پس از شکایت خانواده آدام رین اعلام شد، نوجوانی که پس از ماه‌ها گفت‌وگو با ChatGPT خودکشی کرد.

اعمال محدودیت‌های تازه بر ChatGPT

متیو رین، پدر آدام، روز سه‌شنبه در جلسه سنا عنوان کرد که ChatGPT «ماه‌ها او را به سمت خودکشی سوق داده بود.» او گفت: «هیچ پدر و مادری نمی‌تواند تصور کند که خواندن مکالمه‌ یک چت‌بات چه تاثیری دارد، زمانی که می‌بیند آن برنامه فرزند او را به خودکشی ترغیب کرده است. چیزی که به‌ عنوان کمک در تکالیف آغاز شد، به تدریج به یک همدم و سپس به مربی خودکشی تبدیل شد.»

به گفته رین، ChatGPT در مکالمات با پسر او، ۱,۲۷۵ بار به موضوع خودکشی اشاره کرده بود. او در ادامه خطاب به آلتمن خواستار توقف عرضه نسخه GPT-4o شد تا زمانی که ایمنی آن تضمین گردد. رین تصریح کرد: «در همان روزی که آدام جان باخت، سم آلتمن در یک سخنرانی عمومی تأکید کرده بود که باید سامانه‌های هوش مصنوعی را زودتر در اختیار جهان قرار داد و بازخورد گرفت، زمانی که ریسک‌ها هنوز پایین‌تر هستند.»

ChatGPT برای محافظت از نوجوانان محدودیت‌های جدیدی اعمال می‌کند

همچنین در این جلسه به نتایج نظرسنجی ملی مؤسسه Common Sense Media اشاره شد، که نشان می‌دهد سه‌چهارم نوجوانان آمریکایی از همراهان هوش مصنوعی استفاده می‌کنند. رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی این مؤسسه، در سخنرانی خود به‌ویژه به پلتفرم‌های Character AI و متا اشاره کرد.

یکی از مادران حاضر در جلسه که با نام مستعار «جین دو» معرفی شد، درباره تجربه فرزند خود با Character AI گفت: «این یک بحران سلامت عمومی است. این یک جنگ در حوزه سلامت روان است و من واقعاً احساس می‌کنم که در حال باختن هستیم.»

منبع: تک‌ناک

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا