گروک؛ نمونه‌ای از قدرت گمراه‌کنندگی هوش مصنوعی

در جهانی که چت‌بات‌ها به منبع اصلی اطلاعات روزمره‌ٔ مردم تبدیل شده‌اند، مرز بین جست‌وجوی کارآمد و اعتماد کورکورانه به هوش مصنوعی به سرعت در حال محو شدن است؛ مسئله‌ای که می‌تواند پیامدهای گسترده‌تری از خرید یک شلنگ باغچه داشته باشد.

تحریریه حرف مرد: چند هفته پیش، در یکی از فروشگاه‌های زنجیره‌ای بزرگ به‌دنبال یک نوع بسیار خاص از شلنگ می‌گشتم. همان‌طور که اغلب برایم در چنین فروشگاه‌هایی پیش می‌آید، در راهروی لوازم باغبانی ایستاده بودم و با حالتی سردرگم به انبوه محصولات خیره شده بودم؛ ناگهان دیگر مطمئن نبودم دقیقاً دنبال چه چیزی هستم، هرچند پیش از خروج از خانه می‌دانستم.

در این موقع، زنی اجتماعی و خوش‌برخورد به من پیوست که مشخص شد او هم به‌دنبال چیزی مشابه بود. شروع به گفتگو کردیم و به‌خوبی با هم جور شدیم؛ معلوم شد که هر دو معلم هستیم و هر دو درک ناقصی از سیستمی داشتیم که قصد نصبش را در باغچه‌هایمان داشتیم. چون بهرحال در سال ۲۰۲۵ زندگی می‌کنیم و نه قرون وسطی، هر دو بلافاصله تلفن‌هایمان را بیرون آوردیم و شروع به جست‌وجوی پاسخ‌ها کردیم و یافته‌هایمان را با هم مقایسه کردیم.

در نهایت من چیزی که می‌خواستم پیدا نکردم، اما این تجربه برایم جذاب بود؛ اینکه ببینم چطور روش‌های جست‌وجوی اطلاعات ما با هم متفاوت است. آن زن کاملاً به ChatGPT متکی بود، درحالی‌که من از گوگلِ قدیمی استفاده کردم. او به من گفت که «عاشق» ChatGPT است و آن را «برای همه چیز» به کار می‌برد. سپس شروع کرد به پرسیدن انواع سوال‌ها از چت‌بات درباره بهترین نوع شلنگ‌های آبیاری و محل پیدا کردنشان در فروشگاه.

اطلاعاتی که از چت‌بات دریافت می‌کرد، پر از خطا بود؛ چت‌بات به موجودی فروشگاه دسترسی نداشت، پس مدام محصولاتی را پیشنهاد می‌داد که این فروشگاه زنجیره‌ای، یا حداقل شعبه‌ٔ ما، اصلاً نداشت. با این حال، او همچنان به دنبال آن محصولات می‌گشت و به چت‌بات بیشتر از چشم‌های خودش اعتماد می‌کرد. ChatGPT با اطمینان کامل قضاوت می‌کرد که کدام محصول بهترین است، بدون اینکه شواهد یا دلایل زیادی برای این ادعاهایش ارائه کند. دوست جدیدم به نظر می‌رسید که همه‌ٔ گفته‌های چت‌بات را باور می‌کند؛ دنبال محصولاتی می‌گشت که آشکارا وجود نداشتند، فقط چون ChatGPT گفته بود در همین راهرو هستند. وقتی چت‌بات اشتباه می‌کرد، فقط شانه‌اش را بالا می‌انداخت و سوال بعدی را می‌پرسید.

برایم شگفت‌آور بود که این زن، که خودش یک معلم است، تا این حد به منبع اطلاعاتی‌ای تکیه می‌کرد که به‌وضوح خطا داشت. چت‌بات‌های ساده، هرچند در موارد محدودی مفید هستند، موتور جست‌وجو نیستند. این فقط برداشت شخصی من نیست؛ مطالعات اخیر هم نشان داده‌اند که جست‌وجوی مبتنی بر هوش مصنوعی به‌شدت غیرقابل‌اعتماد است، و ابزارهای هوش مصنوعی که به‌طور خاص برای جست‌وجو طراحی نشده‌اند، حتی بدتر عمل می‌کنند. واضح بود که این زن، در زندگی روزمره‌اش هم به همین شیوه پیش می‌رود؛ به ChatGPT برای اطلاعات و مشاوره تکیه می‌کند، بدون اینکه دقیقاً بفهمد این چت‌بات چطور خروجی‌هایش را تولید می‌کند یا آیا آن خروجی‌ها قابل‌اعتماد هستند یا نه.

من این وابستگی و اعتماد ضمنی به هوش مصنوعی را در گروه دیگری از افراد هم دیده‌ام: دانش‌آموزان دبیرستانی‌ام. بسیاری از آن‌ها بدون بررسی اعتبار، از چت‌بات سوال می‌پرسند و همان پاسخی را که می‌گیرند، می‌پذیرند. آن بعدازظهر، در بخش باغبانی، به این فکر افتادم که بسیاری از بزرگسالان هم دارند همین عادت‌ها را در خودشان شکل می‌دهند.

نمی‌خواهم از آن زنی که در فروشگاه دیدم، بیش از حد انتقاد کنم. او دوست‌داشتنی و کمک‌کننده بود و واقعاً از هم‌صحبتی با او خوشم آمد. اما احساس کردم دارم به آینده نگاه می‌کنم؛ به جهانی که در آن، بسیاری از ما به هوش مصنوعی برای پیدا کردن و فیلتر کردن اطلاعات وابسته شده‌ایم.

مدتی پیش، یکی از مدل‌های پیشروی هوش مصنوعی خودش را در گفتگو با کاربران «مِکا هیتلر» معرفی کرد و گاهی وارد کلیشه‌های ضدیهودی هم شد. چند ماه قبل از آن هم همین چت‌بات، چند روزی را صرف انتشار نظریه‌های توطئه درباره «نسل‌کشی سفیدپوستان» در آفریقای جنوبی کرده بود، حتی وقتی موضوع پرسش کاربر هیچ ارتباطی با این بحث‌ها نداشت.

البته که منظورم Grok است؛ چت‌باتی که شرکت xAI متعلق به ایلان ماسک آن را توسعه داده. در هر دو مورد، این شرکت مشکل را برطرف کرد و بابت رفتار ربات عذرخواهی کرد. بعید می‌دانم که بسیاری از افراد به‌خاطر این تعاملات عجیب با Grok به نژادپرستی یا یهودستیزی گرایش پیدا کرده باشند. با این حال، این رویدادها برایم مثل یک نشانه‌ٔ پیش‌آگاهی از آینده‌ٔ هوش مصنوعی بود.

در هر دو مورد، به نظر می‌رسد که Grok نه به‌خاطر یک کد معیوب یا یک برنامه‌نویس تازه‌کار، بلکه به‌خاطر خواسته‌های خالقش، ایلان ماسک، وارد حوزه‌های بحث‌برانگیز شده است. Grok پس از یک «به‌روزرسانی» نیمه‌شبانه‌ٔ دستورالعمل‌هایش، شروع به پرگویی درباره‌ٔ «نسل‌کشی سفیدپوستان» کرد؛ موضوعی که خود ماسک هم به آن وسواس دارد.

همچنین بخوانید: نشانه های جاسوسی از گوشی موبایل: این موارد را جدی بگیرید!

وقتی تصمیم‌های ساده، مسیرهای بزرگ را تغییر می‌دهند؛ چت‌بات‌ها و شکل‌گیری عادت‌های فکری جدید

اخیراً، همان‌طور که مکس رید اشاره می‌کند، بررسی پاسخ‌های اخیر Grok درباره فرآیند «تفکر»ش نشان می‌دهد که این چت‌بات طوری آموزش دیده (یا یاد گرفته) که پیش از ارائه‌ٔ «نظراتش» مواضع ایلان ماسک را بررسی کند. حتی زمانی که حرف‌های نفرت‌آمیز نمی‌زند، Grok به‌وضوح طوری طراحی شده که سبک گفتار ماسک را تقلید کند. خود ماسک نوشته بود که Grok «بی‌پروا است و عاشق طعنه‌زدن. نمی‌دانم چه کسی آن را این‌طوری هدایت کرده.»

این طغیان‌های اخیر Grok مرا به یاد زنی انداخت که در راهرو ملاقاتش کردم، و همه‌ٔ دیگرانی که دارند به عادت تکیه بر هوش مصنوعی برای درک جهان خو می‌گیرند.

شاید فکر کنید راه‌حل ساده است: فقط کافیست از محصول هوش مصنوعی‌ای که به نسخه‌ٔ مینیاتوری یک میلیاردر خودشیفته تبدیل شده استفاده نکنید. از یکی از مدل‌هایی استفاده کنید که مبتنی بر شخصیت یک میلیاردر دمدمی‌مزاج نیست، مثل ChatGPT یا Claude.

این توصیه خوبی است، شاید. اما من نگرانم که در آینده، افراط‌هایی مثل Grok فقط به‌خاطر دست‌وپاچلفتی بودن و وضوح بیش از حدشان به چشم بیایند. ماسک، به‌نوعی دارد به ما لطف می‌کند، چون در دستکاری چت‌باتش این‌قدر ناشیانه عمل می‌کند. اما اگر فردی کمی ماهرتر تصمیم بگیرد کار مشابهی انجام دهد، چه خواهد شد؟

در حال حاضر، شرکت‌های هوش مصنوعی در مرحله‌ٔ جهش اولیه‌ٔ چرخه‌ٔ عمر خود هستند. آن‌ها در دریای سرمایه‌گذاری خطرپذیری غوطه‌ورند و دارند با سرعتی غیرقابل‌دوام این پول‌ها را می‌سوزانند، به امید اینکه سریع رشد کنند و بیشترین تعداد کاربران را جذب کنند.

اما در نهایت، باید پول دربیاورند. چطور این کار را خواهند کرد؟ شاید بتوانند تعداد کافی از ما را متقاعد کنند که ماهانه پول پرداخت کنیم و در عین حال، آن‌قدر کارآمد شوند که از این درآمد دوام بیاورند. اما احتمالاً بیشتر این است که، حالا که بخش بزرگی از مردم به این باور که هوش مصنوعی «باید رایگان باشد» رسیده‌اند، شرکت‌های هوش مصنوعی نیز باید به‌دنبال منابع درآمدی دیگری بروند.

این همان آغاز چرخه‌ٔ بزرگ «آشغال‌سازی» است؛ اصطلاح فراموش‌نشدنی‌ای که کوری داکترو برای توصیف چرخه‌ٔ عمر شرکت‌های فناوری ساخته است. فیس‌بوک، گوگل، اینستاگرام و بسیاری از استارتاپ‌ها در ابتدا آرمان‌گرایانه به نظر می‌رسیدند. آن‌ها رایگان، باز، مفید و سرگرم‌کننده بودند. اما بعد از اینکه میلیون‌ها کاربر را به دام انداختند، مجبور شدند به سمت سودآوری بروند.

چون معتقد بودند گرفتن پول از کاربران، سرعت رشدشان را کاهش می‌دهد، تصمیم گرفتند با پر کردن پلتفرم‌هایشان از تبلیغات، ربات‌ها و الگوریتم‌های دستکاری‌کننده، درآمدزایی کنند. به‌تدریج مرز بین محتوایی که کاربر واقعاً دنبالش بود و آنچه پلتفرم برای کسب درآمد نشان می‌داد، محو شد.

این وب‌سایت‌ها هرگز کاملاً بی‌فایده نشدند، اما به مکان‌هایی تبدیل شدند که کاربر باید دائماً آگاه باشد از نیروهایی که سعی دارند او را برای سود خودشان دستکاری کنند. کاربر باید از میان انبوه محتوای بی‌ارزش، راه خود را پیدا کند.

آشغال‌سازی در دنیای هوش مصنوعی چه شکلی خواهد بود؟ اپراتورهای حرفه‌ای اشتباهات ماسک را تکرار نخواهند کرد. آن‌ها دستکاری را از دید کاربران پنهان خواهند کرد. مدیرعامل‌هایشان احتمالاً به مدل‌ها دستور نخواهند داد که دیدگاه‌های سیاسی عجیب را تکرار کنند یا نقش یک ضدیهودی «بی‌پروا» را بازی کنند.

اما ممکن است کاری کنند که شرکت‌ها برای تبلیغ محصولاتشان به آن‌ها پول بدهند. شاید به‌طور مستقیم از شرکت‌ها برای تبلیغ محصولاتشان پول بگیرند؛ مثلاً چکی از شورولت دریافت کنند تا هر بار که کسی درباره‌ٔ خرید شاسی‌بلند سوال می‌پرسد، مدل اکویناکس جدید را توصیه کنند. شاید این را به‌عنوان تبلیغ علامت بزنند، شاید هم نه.

ولی احتمال پنهان‌تری هم وجود دارد. وقتی شیر سرمایه‌گذاری خطرپذیر خشک شود، آیا واقعاً اگر شورای ملی تولیدکنندگان گوشت به شرکت‌های هوش مصنوعی پول بدهد تا کمی بیشتر از غذاهای گوشتی در پاسخ به درخواست دستور پخت صحبت کنند، «نه» می‌گویند میلیون‌ها دلار را رد می‌کنند؟ اگر شرکت Specialized با چکی بزرگ سراغشان بیاید و بخواهد به کاربران برنامه‌ٔ ورزشی توصیه کنند که بیشتر دوچرخه‌سواری کنند، آیا نه خواهند گفت؟ اگر این دستکاری اتفاق بیفتد، کاربران اصلاً متوجهش می‌شوند؟

و درباره‌ٔ فشارهای سیاسی چه؟ آیا این شرکت‌ها به یک دیکتاتور خارجی (یا صادقانه بگوییم، داخلی) خواهند گفت برو به جهنم؟ اگر تحت فشار قرار بگیرند که پاسخ‌های تاریخی یا سیاسی را به سمتی خاص متمایل کنند، چه خواهند کرد؟ اگر نارندرا مودی بخواهد چت‌بات‌ها نسخه‌ٔ حامی هند از تاریخ کشمیر را بگویند چه؟ اگر بنیامین نتانیاهو به آن‌ها فشار بیاورد تا بر حق تاریخی یهودیان بر کرانه‌ٔ باختری تاکید کنند چه؟

اگر این تغییرات به‌قدر کافی زیرکانه انجام شوند، برای کاربر عمدتاً نامرئی خواهند بود و در عین حال سودآوری عظیمی برای شرکت‌های هوش مصنوعی خواهند داشت. حالا که این شرکت‌ها دارند نقاب «ما اینجاییم تا دنیا را نجات دهیم» را کنار می‌گذارند و مانند بقیه‌ٔ دنیا سرمایه‌داری را در آغوش می‌گیرند، بسیار محتمل است که پول را انتخاب کنند.

زنی که در بخش باغبانی با من بود، خودش را عادت داده بود که هرچه چت‌بات به او می‌گوید، باور کند. حس می‌کنم بسیاری دیگر هم همین کار را می‌کنند. تا حالا تنها پیامدش این بوده که گاهی اطلاعات توهمی یا بی‌ارزش می‌گیرند. اما هرچه بیشتر به هوش مصنوعی برای درک جهان وابسته شویم، شرکت‌های هوش مصنوعی که انگیزه‌ٔ سود دارند، وسوسه‌ٔ عظیمی خواهند داشت که درک ما از جهان را نیز دستکاری کنند..

منبع: Medium، اکانت George Dillard

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا