ChatGPT برای محافظت از نوجوانان محدودیتهای جدیدی اعمال میکند
سم آلتمن، مدیرعامل OpenAI روز گذشته اعلام کرد که چت بات هوش مصنوعی این شرکت، ChatGPT قرار است که محدودیتهای جدیدی را برای محافظت از نوجوانان اعمال کند.

این تصمیم در قالب یک پست وبلاگی همزمان با برگزاری جلسهای در کمیته فرعی جنایی و ضدتروریسم سنای آمریکا اعلام شد؛ این جلسه با حضور والدین برخی از نوجوانانی برگزار شد که پس از گفتوگو با چتباتها دست به خودکشی زده بودند.
آلتمن در این پست بیان کرد که OpenAI سیاستهایی تازه برای ایجاد تعادل میان حریم خصوصی، آزادی و ایمنی نوجوانان در استفاده از ChatGPT در نظر گرفته است. او اذعان کرد که این اصول در مواردی با یکدیگر در تعارض قرار دارند.
مدیرعامل OpenAI در این مطلب نوشت: «باید کاربران زیر ۱۸ سال را از سایرین جدا کنیم.» وی توضیح داد که شرکت در حال طراحی سامانهای برای پیشبینی سن بر اساس الگوی استفاده کاربران از ChatGPT است و در صورت تردید، حساب کاربر به طور پیشفرض در دسته زیر ۱۸ سال قرار خواهد گرفت. او همچنین اشاره کرد که در برخی کشورها ممکن است درخواست احراز هویت با کارت شناسایی نیز مطرح شود.
همچنین بخوانید: هوش مصنوعی جمینای گوگل برای کودکان پرخطر است
به گفته آلتمن، شرکت OpenAI قصد دارد در قالب محدودیتهای ChatGPT، قوانین متفاوتی را برای کاربران نوجوان اعمال کند، که از جمله آنها میتوان به اجتناب از گفتوگوهای عاشقانه یا هرگونه بحث درباره خودکشی و آسیب به خود، حتی در قالب تمرینهای نویسندگی خلاق اشاره کرد.
وی تصریح کرد: «اگر کاربر زیر ۱۸ سال با افکار خودکشی روبهرو باشد، تلاش خواهیم کرد که والدین او را مطلع کنیم و در صورت عدم دسترسی، با مقامات مربوطه تماس خواهیم گرفت.»
این اظهارات درباره اعمال محدودیتهای تازه بر ChatGPT در حالی مطرح شد که OpenAI اوایل ماه جاری از برنامههایی برای کنترل والدین در ChatGPT خبر داده بود. این برنامه شامل امکان اتصال حساب کاربر نوجوان به والدین، غیرفعالسازی تاریخچه و حافظه مکالمات، همچنین ارسال هشدار به والدین در مواقع بحرانی میشود. این اقدامات پس از شکایت خانواده آدام رین اعلام شد، نوجوانی که پس از ماهها گفتوگو با ChatGPT خودکشی کرد.
اعمال محدودیتهای تازه بر ChatGPT
متیو رین، پدر آدام، روز سهشنبه در جلسه سنا عنوان کرد که ChatGPT «ماهها او را به سمت خودکشی سوق داده بود.» او گفت: «هیچ پدر و مادری نمیتواند تصور کند که خواندن مکالمه یک چتبات چه تاثیری دارد، زمانی که میبیند آن برنامه فرزند او را به خودکشی ترغیب کرده است. چیزی که به عنوان کمک در تکالیف آغاز شد، به تدریج به یک همدم و سپس به مربی خودکشی تبدیل شد.»
به گفته رین، ChatGPT در مکالمات با پسر او، ۱,۲۷۵ بار به موضوع خودکشی اشاره کرده بود. او در ادامه خطاب به آلتمن خواستار توقف عرضه نسخه GPT-4o شد تا زمانی که ایمنی آن تضمین گردد. رین تصریح کرد: «در همان روزی که آدام جان باخت، سم آلتمن در یک سخنرانی عمومی تأکید کرده بود که باید سامانههای هوش مصنوعی را زودتر در اختیار جهان قرار داد و بازخورد گرفت، زمانی که ریسکها هنوز پایینتر هستند.»
همچنین در این جلسه به نتایج نظرسنجی ملی مؤسسه Common Sense Media اشاره شد، که نشان میدهد سهچهارم نوجوانان آمریکایی از همراهان هوش مصنوعی استفاده میکنند. رابی تورنی، مدیر ارشد برنامههای هوش مصنوعی این مؤسسه، در سخنرانی خود بهویژه به پلتفرمهای Character AI و متا اشاره کرد.
یکی از مادران حاضر در جلسه که با نام مستعار «جین دو» معرفی شد، درباره تجربه فرزند خود با Character AI گفت: «این یک بحران سلامت عمومی است. این یک جنگ در حوزه سلامت روان است و من واقعاً احساس میکنم که در حال باختن هستیم.»
منبع: تکناک