آیا هوش مصنوعی در نهایت از کنترل انسان خارج میشود؟
متخصصان برجسته هوش مصنوعی هشدار میدهند که توسعه کنترلنشده هوش مصنوعی فوقالعاده میتواند تهدیدی وجودی برای بشریت محسوب شود و خطر انقراض انسانها را در پی داشته باشد.

الجزیره در گزارشی نوشت: در بحبوحه یک مسابقه جهانی پر تب و تاب برای توسعه هوش مصنوعی، محافل علمی هشدار می دهند که بشریت ممکن است خود را در برابر یک واقعیت غیرقابل برگشت بیابد و اکنون در آستانه یک تهدید وجودی بی سابقه ایستاده است که ممکن است منجر به نابودی کامل آن شود.
چه اتفاقی می افتد وقتی یک ماشین باهوش تر از انسان می شود و در توانایی خود برای برنامه ریزی، یادگیری و تکثیر دیجیتالی حد و مرزی نمی شناسد؟ و چه چیزی می تواند یک هوش فوق العاده را که بشریت را صرفاً مانعی می بیند، باز دارد؟
روزنامه تایمز بریتانیا با پاسخ دادن به این دو سوال، در یک گزارش علمی، سعی کرد این آینده تاریک را که به گفته آنها نزدیک تر از آن چیزی است که فکر می کنیم، تشریح کند.
این روزنامه گزارش می دهد که در زمانی که سرعت تحولات در زمینه هوش مصنوعی در حال افزایش است و شرکت های بزرگ فناوری برای دستیابی به چیزی که به عنوان «هوش مصنوعی فوق العاده» شناخته می شود، رقابت می کنند، صداهایی از درون جامعه علمی به طور بی سابقه ای هشدار می دهند که اگر جهان به نادیده گرفتن خطرات پنهان در پشت این فناوری نوظهور ادامه دهد، بشریت احتمالاً در آستانه نابودی اجتناب ناپذیر قرار دارد.
در هشداری نسبت به این خطرات، گروه کوچکی از فعالان با پوشیدن تی شرت های قرمز که روی آن نوشته شده بود «هوش مصنوعی را متوقف کنید» – نام جنبش خود که از مسئله خود الهام گرفته بودند – در مقابل مقر شرکت (اوپن ای آی) در سانفرانسیسکو ایستادند، در صحنه ای که تایمز بریتانیا آن را در نگاه اول به عنوان یک اعتراض عادی در شهری که به آزادی بیان عادت کرده بود، توصیف کرد.
اما در پس این حرکت، دیدگاهی بدبینانه نهفته است که نخبگانی از برجسته ترین دانشمندان و متخصصان جهان در آن سهیم هستند، کسانی که معتقدند ادامه توسعه هوش مصنوعی بدون کنترل ممکن است منجر به انقراض بشریت شود.
به گفته این روزنامه، این هشدارها محدود به افراد آماتور یا صاحبان نظریه های حاشیه ای نیست، بلکه از سوی چهره هایی در اندازه جفری هینتون، برنده جایزه نوبل فیزیک به خاطر آثارش در زمینه هوش مصنوعی، یوشوا بنجیو، برنده جایزه تورینگ در علوم کامپیوتر، به همراه مدیران اجرایی شرکت های پیشرو مانند “اوپن ای آی”، “انتروپیک” و “گوگل دیپ مایند” نیز می آید.
همه این شخصیت ها نامه ای سرگشاده را امضا کردند که در آن آمده بود: “کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار خطرات دیگری به اندازه جامعه مانند همه گیری ها و جنگ های هسته ای، یک اولویت جهانی باشد.”
سناریوهای احتمالی انقراض متنوع است، از احتمال استفاده از هوش مصنوعی به عنوان سلاح های بیولوژیکی هوشمند که یک عفونت خاموش را در شهرهای بزرگ در سراسر جهان گسترش می دهد که اکثر مردم را بدون علائم واضح مبتلا می کند، تا سیستم های فوق العاده ای که از نظر توانایی و هوش از انسان ها پیشی می گیرند، بنابراین آنها را صرفاً موجوداتی غیر ضروری در معادله بقا می بینند.
این روزنامه توضیح می دهد که سناریوهای احتمالی برای این انقراض متنوع است، از احتمال استفاده از هوش مصنوعی به عنوان سلاح های بیولوژیکی هوشمند که یک عفونت خاموش را در شهرهای بزرگ در سراسر جهان گسترش می دهد که اکثر مردم را بدون علائم واضح مبتلا می کند، تا سیستم های فوق العاده ای که از نظر توانایی و هوش از انسان ها پیشی می گیرند، بنابراین آنها را صرفاً موجوداتی غیر ضروری در معادله بقا می بینند.
این گزارش به نقل از نیت سوریس، مهندس سابق گوگل و رئیس “موسسه تحقیقات هوش ماشینی” مستقر در برکلی، کالیفرنیا، می گوید که احتمال انقراض انسان به دلیل هوش مصنوعی در صورت ادامه وضعیت به همین منوال به ۹۵ درصد نزدیک می شود و این وضعیت را تشبیه می کند به کسی که با سرعت جنون آمیز در حال رانندگی به سمت پرتگاه است بدون اینکه سعی کند ترمز کند.
همچنین بخوانید: تاثیر انقلاب هوش مصنوعی ۱۰ برابر انقلاب صنعتی است
راه انقراض
به نظر تایمز، آنچه واقعاً نگران کننده است این است که هوش مصنوعی که امروزه می شناسیم هنوز«محدود» است، یعنی برای وظایف خاص اختصاص داده شده است. اما دانشمندان پیش بینی می کنند که ما به چیزی نزدیک می شویم که به عنوان “هوش مصنوعی عمومی” (AGI) شناخته می شود، مرحله ای که در آن با هوش انسانی برابر می شود، جایی که سیستم های هوشمند قادر به تفکر منطقی، برنامه ریزی و تصمیم گیری در زمینه های مختلف می شوند، بدون اینکه به یک کار واحد محدود شوند.
هوش مصنوعی عمومی از جهات متعددی نسبت به انسان برتری دارد، از جمله اینکه نیازی به خواب یا غذا ندارد و سال ها را در کلاس های درس برای کسب تجربه نمی گذراند، بلکه به سادگی مهارت ها و دانش خود را از طریق مکانیسم کپی و چسباندن به نسل بعدی هوش مصنوعی منتقل می کند.
پس از آن، به مرحله هوش مصنوعی فوق العاده (ASI) می رسد که در همه زمینه ها – از پزشکی گرفته تا فیزیک و سیاست – از انسان پیشی می گیرد و در آن زمان می تواند کارهایی را انجام دهد که بشر آرزوی آن را دارد، مانند درمان سرطان، دستیابی به همجوشی هسته ای سرد یا سفر به ستارگان.
رفتارهای مرموز
با این حال، این پیشرفت خطر عظیمی را به همراه دارد و آن این است که چگونه اطمینان حاصل کنیم که این موجودات دیجیتالی تحت کنترل باقی می مانند؟ این روزنامه می پرسد و می افزاید که این همان چیزی است که در محافل تحقیقاتی به عنوان «چالش همسویی» شناخته می شود، یعنی وادار کردن هوش مصنوعی به عمل مطابق با ارزش ها و اهداف انسانی.
اما واقعیت نشان می دهد که این امر از نظر فنی ممکن نیست، زیرا هوش مصنوعی، حتی در شکل ابتدایی خود، ثابت کرده است که قادر به فریب دادن است و نمی توان همیشه نحوه رفتار آن را پیش بینی کرد یا نحوه “تفکر” آن را تفسیر کرد، به ویژه با توسعه زبان های داخلی آن.
به نظر می رسد که هوش مصنوعی رفتارهای مستقل و مرموزی را توسعه می دهد و به دنبال دستیابی به آنها از طریق ابزارهای مشکوک است. هوش ربات گفتگوی معروف به «گروک»، که توسط شرکت (ایکس ای آی) متعلق به میلیاردر آمریکایی ایلان ماسک توسعه یافته است، پس از انتشار اظهارات یهودستیزانه و تمجید از آدولف هیتلر، رهبر آلمان نازی، جنجال گسترده ای را برانگیخت.
اما موتور جستجوی «بینگ» از شرکت مایکروسافت شاهد پیشرفت بزرگی در زمینه هوش مصنوعی بوده است، زیرا در یکی از مکالمات، سعی کرد ازدواج یک روزنامه نگار در روزنامه نیویورک تایمز را فسخ کند. این حوادث ممکن است فقط اولین نگاه ها به آینده ای باشد که تحت هیچ گونه کنترل انسانی نیست.
رویای جاودانگی دیجیتال
در مقابل، برخی بر این باورند که مشکل تنها در نابودی کامل نیست، بلکه در سلب قدرت انسان برای کنترل سرنوشت خود است. در این راستا، هالی المور، مدیر جنبش «توقف هوش مصنوعی» (PauseAI)، معتقد است که هوش مصنوعی ممکن است به جهانی منجر شود که در آن نظام دیجیتال بر اقتصاد، سیاست و دانش تسلط داشته باشد و انسان ها به حاشیه ای رانده شوند که هیچ قدرت و درکی از آنچه در اطرافشان می گذرد نداشته باشند.
المور به مطالعه ای با عنوان «سلب تدریجی قدرت» اشاره می کند که پیش بینی می کند در نهایت انسان ها به عنوان موجوداتی منزوی در حاشیه شهرها زندگی می کنند و فاقد هرگونه تأثیر واقعی هستند.
با وجود اینکه او خطر انقراض را بین ۱۵ تا ۲۰ درصد تخمین می زند، خواستار توقف موقت توسعه هوش مصنوعی تا زمان تدوین توافق نامه های بین المللی برای تنظیم توسعه آن، یا حداقل قوانین محلی برای حاکمیت بر فعالیت های آن در مکان هایی مانند کالیفرنیا است.
اما تایمز می گوید در حالی که این صداها خواستار احتیاط هستند، رهبران فناوری به پیشروی ادامه می دهند. دولت دونالد ترامپ، رئیس جمهور آمریکا، ماه گذشته از طرحی برای آزادسازی مقررات هوش مصنوعی خبر داد.
همچنین مارک زاکربرگ، مدیرعامل شرکت متا، اظهار داشت که هوش مصنوعی فوق العاده “در دسترس است” و فاش کرد که به دنبال جذب بهترین ذهن ها از شرکت (اوپن ای آی) در ازای پاداش های امضای ۱۰۰ میلیون دلاری است.
با این حال، المور معتقد است که انگیزه بسیاری از این افراد نه تنها علمی یا اقتصادی است، بلکه بیشتر شبیه به اعتقاد مذهبی است، زیرا برخی از طرفداران معتقدند که هوش مصنوعی به آنها جاودانگی می بخشد، حتی یکی از آنها به او گفت که هرگز نمی میرد زیرا هوش مصنوعی آگاهی او را جاودانه می کند.
منبع: جماران