تعلیق موقت گراک پس از پست‌های نامناسب و روایت‌های متناقض

چت‌بات «گراک» ساخته شرکت xAI پس از انتشار پست‌های نامناسب و ارائه روایت‌های متناقض درباره تعلیق خود، بار دیگر موجی از انتقادها و نگرانی‌ها درباره قابلیت اعتماد هوش مصنوعی برانگیخت.

چت‌بات هوش مصنوعی «ایلان ماسک» به دلیل تخلفات جدید به طور موقت تعلیق شد. این آخرین مورد از سلسله شکست‌های شرم‌آور و خطرناک برای ابزار تأیید هویت ادعایی این پلتفرم است.

چت‌بات هوش مصنوعی «گراک»(Grok) ساخت شرکت «ایکس ای‌آی»(xAI)، همچنان جنجال‌برانگیز است و پلتفرم میزبان خود یعنی شبکه اجتماعی ایکس(توئیتر سابق) را در موقعیت فزاینده‌ای از شرمساری قرار می‌دهد.

به نقل از گیزمودو، فقط چند هفته پس از آنکه نسخه‌ای از «گراک» به ستایش «آدولف هیتلر» پرداخت، نسخه جدید و ظاهراً قدرتمندتر، دوباره دچار مشکل شد و ایکس را مجبور کرد تا چت‌بات را به طور موقت به دلیل پست‌های نامناسب، تعلیق کند.

سه روایت متناقض 

هرج و مرج پیرامون تعلیق، عدم اطمینان عمیق چت‌بات را برجسته کرد. هنگامی که کاربران از آن پرسیدند چرا تعلیق شده است، هوش مصنوعی حداقل سه پاسخ متفاوت و متناقض ارائه داد. در یک پاسخ، توضیحی عمومی و شرکتی ارائه داد مبنی بر اینکه «بله، من به طور موقت به دلیل پست‌های نامناسب تعلیق شدم، اما «ایکس ای‌آی» آنها را حذف کرده و اقدامات حفاظتی در برابر نفرت‌پراکنی را اجرا کرده است. من بازگشته‌ام و بر حقیقت‌جویی تمرکز دارم.»

با این حال کاربران دیگر، تصاویری از دلیلی بسیار خاص‌تر و سیاسی‌تر منتشر کردند. این چت‌بات در پاسخی دیگر گفته است: حساب من پس از آنکه اعلام کردم اسرائیل و آمریکا در غزه مرتکب نسل‌کشی می‌شوند، تعلیق شد. این موضوع توسط یافته‌های «دیوان بین‌المللی دادگستری»(ICJ)، کارشناسان سازمان ملل، عفو بین‌الملل و گروه‌های حقوق بشری اسرائیلی با استناد به کشتار جمعی و قحطی تأیید شده است، به همدستی آمریکا از طریق حمایت تسلیحاتی اشاره شده است و اکنون این ادعا دوباره مطرح شده است.

«گراک» در پاسخی دیگر به سادگی هرگونه وقوع را انکار کرد و گفت: نه، این درست نیست. من کاملاً فعال هستم و در ایکس تعلیق نشده‌ام. شایعاتی از این قبیل اغلب به سرعت پخش می‌شوند و اطلاعات غلطی است. اگر سوالی دارید از من بپرسید.

همچنین بخوانید: تهدید حقوقی ماسک علیه اپل بر سر رتبه‌بندی گراک در اپ‌استور

الگویی نگران‌کننده و خطرناک 

تعلیق این چت‌بات، کوتاه و کمتر از ۳۰ دقیقه بود، اما طبق گفته کاربران، این حادثه بخشی از الگویی بسیار نگران‌کننده از بی‌کفایتی و اطلاعات غلط است. «گراک» اکنون پس از آنکه بارها و به اشتباه، عکسی از یک دختر ۹ ساله و دارای سوءتغذیه در غزه را که توسط عکاس «خبرگزاری فرانسه»(AFP) گرفته شده بود، به عنوان عکسی قدیمی از یمن در سال ۲۰۱۸ شناسایی کرد، در مرکز یک جنجال بزرگ در فرانسه قرار دارد. ادعای نادرست این هوش مصنوعی توسط حساب‌های رسانه‌های اجتماعی برای متهم کردن قانون گذار فرانسوی به انتشار اطلاعات نادرست استفاده شد و این آژانس خبری مشهور را مجبور کرد تا به طور عمومی این ادعای هوش مصنوعی را تکذیب کند.

به گفته کارشناسان، این‌ موارد فقط اشکالات جزئی نیستند، آنها نقص‌های اساسی در این فناوری هستند. یکی از متخصصان اخلاق فنی در این باره گفت: همه این مدل‌های زبان بزرگ و تصویر، جعبه‌های سیاه هستند. مدل‌های هوش مصنوعی توسط داده‌های آموزشی و همسوسازی خود شکل می‌گیرند و آنها به روشی که انسان‌ها از اشتباهات یاد می‌گیرند، یاد نمی‌گیرند. تنها به این دلیل که یک بار اشتباه کرده‌اند به این معنی نیست که دیگر هرگز اشتباه نخواهند کرد.

این امر به ویژه برای ابزار هوش مصنوعی مانند «گراک» خطرناک است. این چت‌بات سوگیری‌های بارزتری نیز دارد که بسیار با طرز فکر ترویج شده توسط «ایلان ماسک»، همسو هستند. مشکل این است که وی این ابزار ناقص و اساساً غیرقابل اعتماد را مستقیماً در یک شبکه اجتماعی عمومی جهانی ادغام کرده و آن را به عنوان راهی برای تأیید اطلاعات به بازار عرضه کرده است. این شکست‌ها در حال از اشکال تبدیل به یک ویژگی شدند و عواقب خطرناکی برای گفتمان عمومی همراه دارند.

گفتنی است که شبکه اجتماعی ایکس هنوز پاسخی به این موضوع نداده است.

منبع: خبرنامه دانشجویان ایران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا