تحریف اخبار توسط چت‌بات‌های هوش مصنوعی؛ BBC هشدار داد

یک بررسی جدید از سوی BBC نشان می‌دهد که چت‌بات‌های هوش مصنوعی در خلاصه‌سازی اخبار عملکرد قابل‌اعتمادی ندارند و اطلاعات نادرست یا تحریف‌شده ارائه می‌کنند. در این میان، جمینای گوگل بیشترین میزان خطا را داشته است.

در این تحقیق، کارشناسان BBC از چت‌بات‌های معروف مانند ChatGPT، جمینای، کوپایلت و Perplexity خواستند که ۱۰۰ خبر مختلف را خلاصه‌سازی کنند. نتایج بررسی نشان داد که:
۵۱ درصد پاسخ‌ها دارای خطاهای اساسی بودند.
۱۹ درصد پاسخ‌ها شامل اطلاعات تاریخی نادرست (مانند تاریخ‌ها، روزها و نقل‌قول‌های اشتباه) بودند.
۱۳ درصد نقل‌قول‌ها تحریف شده یا بدون ذکر در منبع اصلی بودند.

جمینای گوگل بیشترین خطا را داشته است

از بین چت‌بات‌های بررسی‌شده، جمینای گوگل ضعیف‌ترین عملکرد را داشت و ۴۶ درصد پاسخ‌های آن دارای خطاهای جدی در دقت اخبار بودند. با این حال، تاکنون هیچ‌یک از شرکت‌های مورد بررسی به این گزارش واکنشی نشان نداده‌اند.

نمونه‌هایی از تحریف اخبار توسط هوش مصنوعی

این اولین باری نیست که BBC از تحریف اخبار توسط چت‌بات‌های هوش مصنوعی خبر می‌دهد. برای مثال:
هوش مصنوعی Apple Intelligence دو بار تیترها و محتوای اخبار BBC را تغییر داده است.
در یک مورد، این هوش مصنوعی به‌اشتباه گزارش داده بود که مظنون به قتل مدیرعامل “یونایتد هلتکر” در زندان خودکشی کرده است.
در خبر دیگری، ادعا کرده بود که “لوک لیتلر”، بازیکن دارت، برنده مسابقات جهانی PDC شده است، درحالی‌که او فقط مسابقه نیمه‌نهایی را برده بود.

واکنش اپل و سایر شرکت‌ها

پس از انتشار این اشتباهات، اپل اعلام کرد که قابلیت خلاصه‌سازی اخبار هوش مصنوعی خود را اصلاح خواهد کرد. اما سایر شرکت‌های بررسی‌شده تاکنون موضع‌گیری خاصی درباره این تحقیق نداشته‌اند.

این تحقیق نشان می‌دهد که چت‌بات‌های هوش مصنوعی هنوز برای خلاصه‌سازی اخبار قابل‌اعتماد نیستند و می‌توانند اطلاعات نادرست منتشر کنند. این موضوع می‌تواند بر اعتماد عمومی به فناوری هوش مصنوعی و رسانه‌های خبری تأثیر منفی بگذارد.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا