نوروساینس توضیح می‌دهد: چطور با شنیدن چند نوت اول موسیقی، کل آن در حافظۀ ما تداعی می‌شود؟

محققان با ارائه مدلی جدید که بازیابی حافظه را به صورت پویا و وابسته به ورودی‌های محیطی شبیه‌سازی می‌کند، نحوه عملکرد حافظه تداعی‌گر در مغز را بهتر توضیح داده‌اند.

تحریریه حرف مرد: به اولین نوت‌های یک آهنگ قدیمی و دوست‌داشتنی گوش دهید. آیا می‌توانید نام آن را حدس بزنید؟

اگر موفق شدید، تبریک می‌گوییم! این پیروزی حافظه تداعی‌گر شماست، یعنی یک قطعه اطلاعات (چند نت اول) خاطره الگوی کامل (آهنگ) را زنده می‌کند، بدون آن‌که لازم باشد بقیه آهنگ را دوباره بشنوید.

ما از این مکانیسم عصبی کاربردی برای یادگیری، به‌خاطر سپردن، حل مسئله و به‌طور کلی درک واقعیت اطرافمان استفاده می‌کنیم.

پروفسور فرانچسکو بولو، استاد مهندسی مکانیک در دانشگاه کالیفرنیا سانتا باربارا، توضیح می‌دهد که خاطرات تداعی‌گر در سلول‌های منفرد مغز ذخیره نمی‌شوند:

این موضوع یک اثر شبکه‌ای است، ذخیره و بازیابی حافظه فرآیندهای پویایی هستند که در کل شبکه‌های عصبی رخ می‌دهند.

در سال ۱۹۸۲، جان هاپفیلد فیزیکدان این مفهوم نظری علوم اعصاب را به حوزه هوش مصنوعی منتقل کرد و با فرمول‌بندی شبکه هاپفیلد، نه‌تنها چارچوبی ریاضی برای درک ذخیره و بازیابی حافظه در مغز انسان ارائه داد، بلکه یکی از اولین شبکه‌های عصبی مصنوعی را نیز توسعه داد که به‌خاطر توانایی بازیابی الگوهای کامل از ورودی‌های ناقص یا پرنویز شناخته می‌شود. هاپفیلد در سال ۲۰۲۴ جایزه نوبل را برای این کار دریافت کرد.

بااین‌حال، به گفته بولو و همکارانش — سیمونه بتتی، جاکومو باجیو و ساندرو زامپیری از دانشگاه پادووا در ایتالیا — مدل سنتی شبکه هاپفیلد قدرتمند است، اما داستان کامل چگونگی بازیابی حافظه توسط اطلاعات جدید را بیان نمی‌کند. به عبارتی، کاملاً توضیح نمی‌دهد که چرا با شنیدن چند نت اول موسیقی، کل آن را به خاطر می‌آوریم.

آن‌ها در مقاله‌ای که در مجله Science Advances منتشر شده، می‌گویند:

نکته قابل توجه، نقش ورودی‌های خارجی عمدتاً ناشناس مانده است، از تأثیرات آن‌ها بر دینامیک عصبی تا نحوه تسهیل بازیابی مؤثر حافظه.

مدلی پویا و ورودی‌محور؛ کلید تازه‌ای برای رمزگشایی حافظه تداعی‌گر در مغز

محققان مدلی از بازیابی حافظه پیشنهاد می‌کنند که به گفته آن‌ها، توصیف بهتری از تجربه ما از حافظه ارائه می‌دهد. بولو توضیح می‌دهد:

«نسخه مدرن سیستم‌های یادگیری ماشین، مثل مدل‌های زبانی بزرگ، واقعاً حافظه را مدل نمی‌کنند. شما یک درخواست وارد می‌کنید و یک خروجی دریافت می‌کنید. اما این با شیوه درک و پردازش خاطرات در دنیای حیوانات متفاوت است.»

اگرچه مدل‌های زبانی بزرگ می‌توانند پاسخ‌هایی به‌ظاهر هوشمندانه ارائه دهند که از الگوهای زبانی تغذیه شده در آن‌ها استفاده می‌کنند، اما هنوز فاقد استدلال زیربنایی و تجربه جهان فیزیکی واقعی هستند که حیوانات دارند.

بتتی، نویسنده اصلی مقاله اضافه می‌کند که بیشتر تحلیل‌های مدل هاپفیلد تمایل دارند مغز را مانند یک کامپیوتر با دیدگاهی بسیار مکانیکی در نظر بگیرند:

نحوه تجربه ما از جهان چیزی پیوسته است، نه چیزی که مدام قطع و وصل می‌شود!  پس از آنجا که ما روی یک مدل حافظه کار می‌کنیم، می‌خواهیم از دیدگاه انسانی شروع کنیم.»

سوال اصلی الهام‌بخش این نظریه‌پردازان این بود: در همان حین که جهان اطرافمان را تجربه می‌کنیم، چگونه سیگنال‌های دریافتی، بازیابی خاطرات را برای ما ممکن می‌سازند؟

همان‌طور که هاپفیلد تصور کرد، درک بازیابی حافظه در قالب یک چشم‌انداز انرژی مفید است، یعنی به این شکل تصور کنید که مثلاً دره‌ها حداقل‌های انرژی هستند که نشان‌دهنده خاطرات هستند. بازیابی حافظه مانند کاوش در این چشم‌انداز است؛ زمانی اتفاق می‌افتد که شما به یکی از این دره‌ها سقوط می‌کنید. در این مثال، موقعیت اولیه شما در این چشم‌انداز، شرایط اولیه شماست.

بولو می‌گوید:

تصور کنید دم یک گربه را می‌بینید، نه کل گربه، فقط دم آن. یک سیستم حافظه تداعی‌گر باید بتواند خاطره کل گربه را بازیابی کند.

طبق مدل سنتی هاپفیلد، دم گربه (محرک) کافی است تا شما را به دره مربوط به «گربه» نزدیک کند. اما چگونه در وهله اول به آن نقطه رسیدید؟

بولو می‌گوید:

مدل کلاسیک هاپفیلد به‌دقت توضیح نمی‌دهد که چگونه دیدن دم گربه شما را در موقعیت مناسبی قرار می‌دهد تا به سمت حداقل انرژی مربوط به گربه سقوط کنید[یعنی گربه را در حافظه‌تان بخاطر بیاورید]. چگونه در فضایی که این خاطرات را ذخیره می‌کنید حرکت می‌کنید؟ این موضوع کمی نامشخص است.

مدل پلاستیسیته ورودی‌محور (IDP) که محققان ارائه کرده‌اند، هدف دارد این ابهام را با توضیح مکانیسمی برطرف کند که وقتی فعال می‌شود، به‌تدریج اطلاعات گذشته و جدید را ادغام می‌کند و فرآیند بازیابی حافظه را به سمت خاطره صحیح هدایت می‌نماید.

همچنین بخوانید: کشف قورباغه‌ای با پاهای طلایی در دل آمازون

به‌جای اینکه طبق مدل هاپفیلد برای حافظه یک حالت دومرحله‌ای تعریف کنیم، در این نظریه محققان مکانیسمی پویا و ورودی‌محور را توصیف می‌کنند.

بولو می‌گوید:

ما از این ایده دفاع می‌کنیم که با دریافت محرک از جهان خارج (مثلاً تصویر دم گربه)، چشم‌انداز انرژی هم همزمان تغییر می‌کند. محرک، چشم‌انداز انرژی را ساده می‌کند تا بدون توجه به موقعیت اولیه شما، به سمت خاطره صحیح گربه هدایت شوید.

علاوه‌براین، محققان می‌گویند مدل IDP در برابر نویز — موقعیت‌هایی که ورودی مبهم، نامشخص یا ناقص است — مقاوم است و در واقع از نویز به‌عنوان ابزاری برای فیلتر کردن خاطرات کمتر پایدار (دره‌های کم‌عمق‌تر این چشم‌انداز انرژی) به نفع خاطرات پایدارتر استفاده می‌کند.

بتتی می‌گوید”

بیایید با این مثال شروع کنیم که وقتی به یک صحنه نگاه می‌کنید، نگاه شما بین اجزای مختلف صحنه جابه‌جا می‌شود[مثلاً یک تابلوی نقاشی]. بنابراین در هر لحظه، شما انتخاب می‌کنید روی چه چیزی تمرکز کنید، اما در اطراف شما نویز زیادی وجود دارد. به محض قفل شدن روی یک ورودی خاص، شبکه شما خود را برای اولویت‌دهی به آن تنظیم می‌کند.

انتخاب محرکی که روی آن توجه می‌کنیم، مکانیسم اصلی معماری نوع دیگری از شبکه‌های عصبی به نام ترنسفورمر نیز هست که اکنون قلب مدل‌های زبانی بزرگ مانند ChatGPT محسوب می‌شود.

طبق گفته بولو؛ هرچند مدل IDP که محققان پیشنهاد می‌کنند از جایگاه بسیار متفاوت با هدفی متفاوت شروع می‌کند، اما پتانسیل زیادی وجود دارد که این مدل در طراحی سیستم‌های آیندۀ یادگیری ماشین مفید باشد.

بولو می‌گوید:

ما ارتباط خاصی را بین این مدل و سیستم‌های یادگیری ماشین می‌بینیم، و مقاله این ارتباط را توصیف می‌کند. این تمرکز اصلی مقاله نیست، اما این امید وجود دارد که سیستم‌های حافظه تداعی‌گر و مدل‌های زبانی بزرگ ممکن است جایی به همدیگر برسند.

منبع: neuroscience news

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا