گروک؛ نمونهای از قدرت گمراهکنندگی هوش مصنوعی
در جهانی که چتباتها به منبع اصلی اطلاعات روزمرهٔ مردم تبدیل شدهاند، مرز بین جستوجوی کارآمد و اعتماد کورکورانه به هوش مصنوعی به سرعت در حال محو شدن است؛ مسئلهای که میتواند پیامدهای گستردهتری از خرید یک شلنگ باغچه داشته باشد.

تحریریه حرف مرد: چند هفته پیش، در یکی از فروشگاههای زنجیرهای بزرگ بهدنبال یک نوع بسیار خاص از شلنگ میگشتم. همانطور که اغلب برایم در چنین فروشگاههایی پیش میآید، در راهروی لوازم باغبانی ایستاده بودم و با حالتی سردرگم به انبوه محصولات خیره شده بودم؛ ناگهان دیگر مطمئن نبودم دقیقاً دنبال چه چیزی هستم، هرچند پیش از خروج از خانه میدانستم.
در این موقع، زنی اجتماعی و خوشبرخورد به من پیوست که مشخص شد او هم بهدنبال چیزی مشابه بود. شروع به گفتگو کردیم و بهخوبی با هم جور شدیم؛ معلوم شد که هر دو معلم هستیم و هر دو درک ناقصی از سیستمی داشتیم که قصد نصبش را در باغچههایمان داشتیم. چون بهرحال در سال ۲۰۲۵ زندگی میکنیم و نه قرون وسطی، هر دو بلافاصله تلفنهایمان را بیرون آوردیم و شروع به جستوجوی پاسخها کردیم و یافتههایمان را با هم مقایسه کردیم.
در نهایت من چیزی که میخواستم پیدا نکردم، اما این تجربه برایم جذاب بود؛ اینکه ببینم چطور روشهای جستوجوی اطلاعات ما با هم متفاوت است. آن زن کاملاً به ChatGPT متکی بود، درحالیکه من از گوگلِ قدیمی استفاده کردم. او به من گفت که «عاشق» ChatGPT است و آن را «برای همه چیز» به کار میبرد. سپس شروع کرد به پرسیدن انواع سوالها از چتبات درباره بهترین نوع شلنگهای آبیاری و محل پیدا کردنشان در فروشگاه.
اطلاعاتی که از چتبات دریافت میکرد، پر از خطا بود؛ چتبات به موجودی فروشگاه دسترسی نداشت، پس مدام محصولاتی را پیشنهاد میداد که این فروشگاه زنجیرهای، یا حداقل شعبهٔ ما، اصلاً نداشت. با این حال، او همچنان به دنبال آن محصولات میگشت و به چتبات بیشتر از چشمهای خودش اعتماد میکرد. ChatGPT با اطمینان کامل قضاوت میکرد که کدام محصول بهترین است، بدون اینکه شواهد یا دلایل زیادی برای این ادعاهایش ارائه کند. دوست جدیدم به نظر میرسید که همهٔ گفتههای چتبات را باور میکند؛ دنبال محصولاتی میگشت که آشکارا وجود نداشتند، فقط چون ChatGPT گفته بود در همین راهرو هستند. وقتی چتبات اشتباه میکرد، فقط شانهاش را بالا میانداخت و سوال بعدی را میپرسید.
برایم شگفتآور بود که این زن، که خودش یک معلم است، تا این حد به منبع اطلاعاتیای تکیه میکرد که بهوضوح خطا داشت. چتباتهای ساده، هرچند در موارد محدودی مفید هستند، موتور جستوجو نیستند. این فقط برداشت شخصی من نیست؛ مطالعات اخیر هم نشان دادهاند که جستوجوی مبتنی بر هوش مصنوعی بهشدت غیرقابلاعتماد است، و ابزارهای هوش مصنوعی که بهطور خاص برای جستوجو طراحی نشدهاند، حتی بدتر عمل میکنند. واضح بود که این زن، در زندگی روزمرهاش هم به همین شیوه پیش میرود؛ به ChatGPT برای اطلاعات و مشاوره تکیه میکند، بدون اینکه دقیقاً بفهمد این چتبات چطور خروجیهایش را تولید میکند یا آیا آن خروجیها قابلاعتماد هستند یا نه.
من این وابستگی و اعتماد ضمنی به هوش مصنوعی را در گروه دیگری از افراد هم دیدهام: دانشآموزان دبیرستانیام. بسیاری از آنها بدون بررسی اعتبار، از چتبات سوال میپرسند و همان پاسخی را که میگیرند، میپذیرند. آن بعدازظهر، در بخش باغبانی، به این فکر افتادم که بسیاری از بزرگسالان هم دارند همین عادتها را در خودشان شکل میدهند.
نمیخواهم از آن زنی که در فروشگاه دیدم، بیش از حد انتقاد کنم. او دوستداشتنی و کمککننده بود و واقعاً از همصحبتی با او خوشم آمد. اما احساس کردم دارم به آینده نگاه میکنم؛ به جهانی که در آن، بسیاری از ما به هوش مصنوعی برای پیدا کردن و فیلتر کردن اطلاعات وابسته شدهایم.
مدتی پیش، یکی از مدلهای پیشروی هوش مصنوعی خودش را در گفتگو با کاربران «مِکا هیتلر» معرفی کرد و گاهی وارد کلیشههای ضدیهودی هم شد. چند ماه قبل از آن هم همین چتبات، چند روزی را صرف انتشار نظریههای توطئه درباره «نسلکشی سفیدپوستان» در آفریقای جنوبی کرده بود، حتی وقتی موضوع پرسش کاربر هیچ ارتباطی با این بحثها نداشت.
البته که منظورم Grok است؛ چتباتی که شرکت xAI متعلق به ایلان ماسک آن را توسعه داده. در هر دو مورد، این شرکت مشکل را برطرف کرد و بابت رفتار ربات عذرخواهی کرد. بعید میدانم که بسیاری از افراد بهخاطر این تعاملات عجیب با Grok به نژادپرستی یا یهودستیزی گرایش پیدا کرده باشند. با این حال، این رویدادها برایم مثل یک نشانهٔ پیشآگاهی از آیندهٔ هوش مصنوعی بود.
در هر دو مورد، به نظر میرسد که Grok نه بهخاطر یک کد معیوب یا یک برنامهنویس تازهکار، بلکه بهخاطر خواستههای خالقش، ایلان ماسک، وارد حوزههای بحثبرانگیز شده است. Grok پس از یک «بهروزرسانی» نیمهشبانهٔ دستورالعملهایش، شروع به پرگویی دربارهٔ «نسلکشی سفیدپوستان» کرد؛ موضوعی که خود ماسک هم به آن وسواس دارد.
همچنین بخوانید: نشانه های جاسوسی از گوشی موبایل: این موارد را جدی بگیرید!
وقتی تصمیمهای ساده، مسیرهای بزرگ را تغییر میدهند؛ چتباتها و شکلگیری عادتهای فکری جدید
اخیراً، همانطور که مکس رید اشاره میکند، بررسی پاسخهای اخیر Grok درباره فرآیند «تفکر»ش نشان میدهد که این چتبات طوری آموزش دیده (یا یاد گرفته) که پیش از ارائهٔ «نظراتش» مواضع ایلان ماسک را بررسی کند. حتی زمانی که حرفهای نفرتآمیز نمیزند، Grok بهوضوح طوری طراحی شده که سبک گفتار ماسک را تقلید کند. خود ماسک نوشته بود که Grok «بیپروا است و عاشق طعنهزدن. نمیدانم چه کسی آن را اینطوری هدایت کرده.»
این طغیانهای اخیر Grok مرا به یاد زنی انداخت که در راهرو ملاقاتش کردم، و همهٔ دیگرانی که دارند به عادت تکیه بر هوش مصنوعی برای درک جهان خو میگیرند.
شاید فکر کنید راهحل ساده است: فقط کافیست از محصول هوش مصنوعیای که به نسخهٔ مینیاتوری یک میلیاردر خودشیفته تبدیل شده استفاده نکنید. از یکی از مدلهایی استفاده کنید که مبتنی بر شخصیت یک میلیاردر دمدمیمزاج نیست، مثل ChatGPT یا Claude.
این توصیه خوبی است، شاید. اما من نگرانم که در آینده، افراطهایی مثل Grok فقط بهخاطر دستوپاچلفتی بودن و وضوح بیش از حدشان به چشم بیایند. ماسک، بهنوعی دارد به ما لطف میکند، چون در دستکاری چتباتش اینقدر ناشیانه عمل میکند. اما اگر فردی کمی ماهرتر تصمیم بگیرد کار مشابهی انجام دهد، چه خواهد شد؟
در حال حاضر، شرکتهای هوش مصنوعی در مرحلهٔ جهش اولیهٔ چرخهٔ عمر خود هستند. آنها در دریای سرمایهگذاری خطرپذیری غوطهورند و دارند با سرعتی غیرقابلدوام این پولها را میسوزانند، به امید اینکه سریع رشد کنند و بیشترین تعداد کاربران را جذب کنند.
اما در نهایت، باید پول دربیاورند. چطور این کار را خواهند کرد؟ شاید بتوانند تعداد کافی از ما را متقاعد کنند که ماهانه پول پرداخت کنیم و در عین حال، آنقدر کارآمد شوند که از این درآمد دوام بیاورند. اما احتمالاً بیشتر این است که، حالا که بخش بزرگی از مردم به این باور که هوش مصنوعی «باید رایگان باشد» رسیدهاند، شرکتهای هوش مصنوعی نیز باید بهدنبال منابع درآمدی دیگری بروند.
این همان آغاز چرخهٔ بزرگ «آشغالسازی» است؛ اصطلاح فراموشنشدنیای که کوری داکترو برای توصیف چرخهٔ عمر شرکتهای فناوری ساخته است. فیسبوک، گوگل، اینستاگرام و بسیاری از استارتاپها در ابتدا آرمانگرایانه به نظر میرسیدند. آنها رایگان، باز، مفید و سرگرمکننده بودند. اما بعد از اینکه میلیونها کاربر را به دام انداختند، مجبور شدند به سمت سودآوری بروند.
چون معتقد بودند گرفتن پول از کاربران، سرعت رشدشان را کاهش میدهد، تصمیم گرفتند با پر کردن پلتفرمهایشان از تبلیغات، رباتها و الگوریتمهای دستکاریکننده، درآمدزایی کنند. بهتدریج مرز بین محتوایی که کاربر واقعاً دنبالش بود و آنچه پلتفرم برای کسب درآمد نشان میداد، محو شد.
این وبسایتها هرگز کاملاً بیفایده نشدند، اما به مکانهایی تبدیل شدند که کاربر باید دائماً آگاه باشد از نیروهایی که سعی دارند او را برای سود خودشان دستکاری کنند. کاربر باید از میان انبوه محتوای بیارزش، راه خود را پیدا کند.
آشغالسازی در دنیای هوش مصنوعی چه شکلی خواهد بود؟ اپراتورهای حرفهای اشتباهات ماسک را تکرار نخواهند کرد. آنها دستکاری را از دید کاربران پنهان خواهند کرد. مدیرعاملهایشان احتمالاً به مدلها دستور نخواهند داد که دیدگاههای سیاسی عجیب را تکرار کنند یا نقش یک ضدیهودی «بیپروا» را بازی کنند.
اما ممکن است کاری کنند که شرکتها برای تبلیغ محصولاتشان به آنها پول بدهند. شاید بهطور مستقیم از شرکتها برای تبلیغ محصولاتشان پول بگیرند؛ مثلاً چکی از شورولت دریافت کنند تا هر بار که کسی دربارهٔ خرید شاسیبلند سوال میپرسد، مدل اکویناکس جدید را توصیه کنند. شاید این را بهعنوان تبلیغ علامت بزنند، شاید هم نه.
ولی احتمال پنهانتری هم وجود دارد. وقتی شیر سرمایهگذاری خطرپذیر خشک شود، آیا واقعاً اگر شورای ملی تولیدکنندگان گوشت به شرکتهای هوش مصنوعی پول بدهد تا کمی بیشتر از غذاهای گوشتی در پاسخ به درخواست دستور پخت صحبت کنند، «نه» میگویند میلیونها دلار را رد میکنند؟ اگر شرکت Specialized با چکی بزرگ سراغشان بیاید و بخواهد به کاربران برنامهٔ ورزشی توصیه کنند که بیشتر دوچرخهسواری کنند، آیا نه خواهند گفت؟ اگر این دستکاری اتفاق بیفتد، کاربران اصلاً متوجهش میشوند؟
و دربارهٔ فشارهای سیاسی چه؟ آیا این شرکتها به یک دیکتاتور خارجی (یا صادقانه بگوییم، داخلی) خواهند گفت برو به جهنم؟ اگر تحت فشار قرار بگیرند که پاسخهای تاریخی یا سیاسی را به سمتی خاص متمایل کنند، چه خواهند کرد؟ اگر نارندرا مودی بخواهد چتباتها نسخهٔ حامی هند از تاریخ کشمیر را بگویند چه؟ اگر بنیامین نتانیاهو به آنها فشار بیاورد تا بر حق تاریخی یهودیان بر کرانهٔ باختری تاکید کنند چه؟
اگر این تغییرات بهقدر کافی زیرکانه انجام شوند، برای کاربر عمدتاً نامرئی خواهند بود و در عین حال سودآوری عظیمی برای شرکتهای هوش مصنوعی خواهند داشت. حالا که این شرکتها دارند نقاب «ما اینجاییم تا دنیا را نجات دهیم» را کنار میگذارند و مانند بقیهٔ دنیا سرمایهداری را در آغوش میگیرند، بسیار محتمل است که پول را انتخاب کنند.
زنی که در بخش باغبانی با من بود، خودش را عادت داده بود که هرچه چتبات به او میگوید، باور کند. حس میکنم بسیاری دیگر هم همین کار را میکنند. تا حالا تنها پیامدش این بوده که گاهی اطلاعات توهمی یا بیارزش میگیرند. اما هرچه بیشتر به هوش مصنوعی برای درک جهان وابسته شویم، شرکتهای هوش مصنوعی که انگیزهٔ سود دارند، وسوسهٔ عظیمی خواهند داشت که درک ما از جهان را نیز دستکاری کنند..
منبع: Medium، اکانت George Dillard