نوروساینس توضیح میدهد: چطور با شنیدن چند نوت اول موسیقی، کل آن در حافظۀ ما تداعی میشود؟
محققان با ارائه مدلی جدید که بازیابی حافظه را به صورت پویا و وابسته به ورودیهای محیطی شبیهسازی میکند، نحوه عملکرد حافظه تداعیگر در مغز را بهتر توضیح دادهاند.

تحریریه حرف مرد: به اولین نوتهای یک آهنگ قدیمی و دوستداشتنی گوش دهید. آیا میتوانید نام آن را حدس بزنید؟
اگر موفق شدید، تبریک میگوییم! این پیروزی حافظه تداعیگر شماست، یعنی یک قطعه اطلاعات (چند نت اول) خاطره الگوی کامل (آهنگ) را زنده میکند، بدون آنکه لازم باشد بقیه آهنگ را دوباره بشنوید.
ما از این مکانیسم عصبی کاربردی برای یادگیری، بهخاطر سپردن، حل مسئله و بهطور کلی درک واقعیت اطرافمان استفاده میکنیم.
پروفسور فرانچسکو بولو، استاد مهندسی مکانیک در دانشگاه کالیفرنیا سانتا باربارا، توضیح میدهد که خاطرات تداعیگر در سلولهای منفرد مغز ذخیره نمیشوند:
این موضوع یک اثر شبکهای است، ذخیره و بازیابی حافظه فرآیندهای پویایی هستند که در کل شبکههای عصبی رخ میدهند.
در سال ۱۹۸۲، جان هاپفیلد فیزیکدان این مفهوم نظری علوم اعصاب را به حوزه هوش مصنوعی منتقل کرد و با فرمولبندی شبکه هاپفیلد، نهتنها چارچوبی ریاضی برای درک ذخیره و بازیابی حافظه در مغز انسان ارائه داد، بلکه یکی از اولین شبکههای عصبی مصنوعی را نیز توسعه داد که بهخاطر توانایی بازیابی الگوهای کامل از ورودیهای ناقص یا پرنویز شناخته میشود. هاپفیلد در سال ۲۰۲۴ جایزه نوبل را برای این کار دریافت کرد.
بااینحال، به گفته بولو و همکارانش — سیمونه بتتی، جاکومو باجیو و ساندرو زامپیری از دانشگاه پادووا در ایتالیا — مدل سنتی شبکه هاپفیلد قدرتمند است، اما داستان کامل چگونگی بازیابی حافظه توسط اطلاعات جدید را بیان نمیکند. به عبارتی، کاملاً توضیح نمیدهد که چرا با شنیدن چند نت اول موسیقی، کل آن را به خاطر میآوریم.
آنها در مقالهای که در مجله Science Advances منتشر شده، میگویند:
نکته قابل توجه، نقش ورودیهای خارجی عمدتاً ناشناس مانده است، از تأثیرات آنها بر دینامیک عصبی تا نحوه تسهیل بازیابی مؤثر حافظه.
مدلی پویا و ورودیمحور؛ کلید تازهای برای رمزگشایی حافظه تداعیگر در مغز
محققان مدلی از بازیابی حافظه پیشنهاد میکنند که به گفته آنها، توصیف بهتری از تجربه ما از حافظه ارائه میدهد. بولو توضیح میدهد:
«نسخه مدرن سیستمهای یادگیری ماشین، مثل مدلهای زبانی بزرگ، واقعاً حافظه را مدل نمیکنند. شما یک درخواست وارد میکنید و یک خروجی دریافت میکنید. اما این با شیوه درک و پردازش خاطرات در دنیای حیوانات متفاوت است.»
اگرچه مدلهای زبانی بزرگ میتوانند پاسخهایی بهظاهر هوشمندانه ارائه دهند که از الگوهای زبانی تغذیه شده در آنها استفاده میکنند، اما هنوز فاقد استدلال زیربنایی و تجربه جهان فیزیکی واقعی هستند که حیوانات دارند.
بتتی، نویسنده اصلی مقاله اضافه میکند که بیشتر تحلیلهای مدل هاپفیلد تمایل دارند مغز را مانند یک کامپیوتر با دیدگاهی بسیار مکانیکی در نظر بگیرند:
نحوه تجربه ما از جهان چیزی پیوسته است، نه چیزی که مدام قطع و وصل میشود! پس از آنجا که ما روی یک مدل حافظه کار میکنیم، میخواهیم از دیدگاه انسانی شروع کنیم.»
سوال اصلی الهامبخش این نظریهپردازان این بود: در همان حین که جهان اطرافمان را تجربه میکنیم، چگونه سیگنالهای دریافتی، بازیابی خاطرات را برای ما ممکن میسازند؟
همانطور که هاپفیلد تصور کرد، درک بازیابی حافظه در قالب یک چشمانداز انرژی مفید است، یعنی به این شکل تصور کنید که مثلاً درهها حداقلهای انرژی هستند که نشاندهنده خاطرات هستند. بازیابی حافظه مانند کاوش در این چشمانداز است؛ زمانی اتفاق میافتد که شما به یکی از این درهها سقوط میکنید. در این مثال، موقعیت اولیه شما در این چشمانداز، شرایط اولیه شماست.
بولو میگوید:
تصور کنید دم یک گربه را میبینید، نه کل گربه، فقط دم آن. یک سیستم حافظه تداعیگر باید بتواند خاطره کل گربه را بازیابی کند.
طبق مدل سنتی هاپفیلد، دم گربه (محرک) کافی است تا شما را به دره مربوط به «گربه» نزدیک کند. اما چگونه در وهله اول به آن نقطه رسیدید؟
بولو میگوید:
مدل کلاسیک هاپفیلد بهدقت توضیح نمیدهد که چگونه دیدن دم گربه شما را در موقعیت مناسبی قرار میدهد تا به سمت حداقل انرژی مربوط به گربه سقوط کنید[یعنی گربه را در حافظهتان بخاطر بیاورید]. چگونه در فضایی که این خاطرات را ذخیره میکنید حرکت میکنید؟ این موضوع کمی نامشخص است.
مدل پلاستیسیته ورودیمحور (IDP) که محققان ارائه کردهاند، هدف دارد این ابهام را با توضیح مکانیسمی برطرف کند که وقتی فعال میشود، بهتدریج اطلاعات گذشته و جدید را ادغام میکند و فرآیند بازیابی حافظه را به سمت خاطره صحیح هدایت مینماید.
همچنین بخوانید: کشف قورباغهای با پاهای طلایی در دل آمازون
بهجای اینکه طبق مدل هاپفیلد برای حافظه یک حالت دومرحلهای تعریف کنیم، در این نظریه محققان مکانیسمی پویا و ورودیمحور را توصیف میکنند.
بولو میگوید:
ما از این ایده دفاع میکنیم که با دریافت محرک از جهان خارج (مثلاً تصویر دم گربه)، چشمانداز انرژی هم همزمان تغییر میکند. محرک، چشمانداز انرژی را ساده میکند تا بدون توجه به موقعیت اولیه شما، به سمت خاطره صحیح گربه هدایت شوید.
علاوهبراین، محققان میگویند مدل IDP در برابر نویز — موقعیتهایی که ورودی مبهم، نامشخص یا ناقص است — مقاوم است و در واقع از نویز بهعنوان ابزاری برای فیلتر کردن خاطرات کمتر پایدار (درههای کمعمقتر این چشمانداز انرژی) به نفع خاطرات پایدارتر استفاده میکند.
بتتی میگوید”
بیایید با این مثال شروع کنیم که وقتی به یک صحنه نگاه میکنید، نگاه شما بین اجزای مختلف صحنه جابهجا میشود[مثلاً یک تابلوی نقاشی]. بنابراین در هر لحظه، شما انتخاب میکنید روی چه چیزی تمرکز کنید، اما در اطراف شما نویز زیادی وجود دارد. به محض قفل شدن روی یک ورودی خاص، شبکه شما خود را برای اولویتدهی به آن تنظیم میکند.
انتخاب محرکی که روی آن توجه میکنیم، مکانیسم اصلی معماری نوع دیگری از شبکههای عصبی به نام ترنسفورمر نیز هست که اکنون قلب مدلهای زبانی بزرگ مانند ChatGPT محسوب میشود.
طبق گفته بولو؛ هرچند مدل IDP که محققان پیشنهاد میکنند از جایگاه بسیار متفاوت با هدفی متفاوت شروع میکند، اما پتانسیل زیادی وجود دارد که این مدل در طراحی سیستمهای آیندۀ یادگیری ماشین مفید باشد.
بولو میگوید:
ما ارتباط خاصی را بین این مدل و سیستمهای یادگیری ماشین میبینیم، و مقاله این ارتباط را توصیف میکند. این تمرکز اصلی مقاله نیست، اما این امید وجود دارد که سیستمهای حافظه تداعیگر و مدلهای زبانی بزرگ ممکن است جایی به همدیگر برسند.
منبع: neuroscience news