OpenAI مدل‌های پیشرفته را محدود می‌کند: نیاز به احراز هویت برای استفاده

سیستم جدید احراز هویت سازمانی OpenAI دسترسی به مدل‌های پیشرفته را کنترل می‌کند. آیا این راهکار امنیتی مؤثر خواهد بود؟

OpenAI می‌خواهد روش جدیدی برای محافظت از مدل‌های پیشرفته‌اش ایجاد کند.

شرکت OpenAI در صفحه‌ی پشتیبانی وب‌سایت خود اعلام کرد که دسترسی به برخی مدل‌های هوش مصنوعی آینده‌ی این شرکت، احتمالاً فقط از طریق فرایند احراز هویت امکان‌پذیر باشد. روند مذکور با نام Verified Organization معرفی شده و هدفش فراهم‌کردن راهی جدید برای توسعه‌دهندگانی است که می‌خواهند به پیشرفته‌ترین مدل‌ها و قابلیت‌های پلتفرم OpenAI دسترسی داشته باشند.

سازمان‌ها در روند احراز هویت OpenAI باید مدرک شناسایی رسمی از کشورهایی که شرکت مذکور از آن‌ها پشتیبانی می‌کند، ارائه دهند. هر مدرک شناسایی فقط می‌تواند هر ۹۰ روز یک سازمان را تأیید کند و همه‌ی سازمان‌ها هم امکان دریافت تأییدیه را نخواهند داشت.

همچنین بخوانید: ترند جدید ChatGPT: ساخت اکشن فیگور شخصی با هوش مصنوعی

OpenAI می‌گوید: «ما مسئولیت خود را برای اطمینان از دسترسی گسترده و ایمن به هوش مصنوعی، جدی می‌گیریم. متأسفانه، اقلیتی از توسعه‌دهندگان عمداً از API ما برخلاف سیاست‌های استفاده سوءاستفاده می‌کنند. بنابراین، برای جلوگیری از استفاده‌ی ناایمن از هوش مصنوعی، فرایند احراز هویت را اضافه کرده‌ایم، درحالی‌که همچنان سعی داریم مدل‌های پیشرفته را در دسترس جامعه‌ی توسعه‌دهندگان نگه داریم.»

هدف دیگر فرایند احراز هویت OpenAI می‌تواند افزایش امنیت محصولات این شرکت باشد، زیرا مدل‌های OpenAI به‌مرور پیچیده‌تر و قدرتمندتر می‌شوند. سازنده‌ی ChatGPT تاکنون چندین گزارش درباره‌ی تلاش‌هایش برای شناسایی و جلوگیری از سوءاستفاده‌های احتمالی منتشر کرده است که ازجمله می‌توان به فعالیت گروه‌هایی با منشأ کره‌ی شمالی اشاره کرد.

منبع: زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا