Məlumat

'Hardware' termalizasiyası yaddaşın çürüməsini izah edə bilərmi?

'Hardware' termalizasiyası yaddaşın çürüməsini izah edə bilərmi?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Çox vaxt çox dəqiq məlumatları (dəqiq ünvanlar, qanunsuzların doğum günləri, yatağın altındakı çirkli corabların sayı) yadda saxlaya bilirik, ancaq zaman keçdikcə xatirələrimiz qeyri -səlis olmağa meyllidir. Müəyyən bir prezidentin öldürüldüyü günü və ayı artıq xatırlamırıq, yalnız bir il və ya bəlkə onillik (birbaşa orta məktəbdə A tələbəsi olmasına baxmayaraq). İstilik tənliyi altında delta funksiyasının hamarlanması kimi, kəskin dəyər əvəzinə biz düzgün olanın yerləşdiyi bir sıra dəyərlərlə qalırıq. Bununla belə, biz çox vaxt bu cür təxmini məlumatdan tam razıyıq və onlarla yaxşı işləyə bilərik (Alzheimer xəstəliyi və ya həddindən artıq içki qəbulundan sonra bəzi ekstremal funksiya pozğunluqları istisna olmaqla).

Diskret məlumatlar beyində, zaman keçdikcə daha yüksək bir entropiya vəziyyətinə keçən aşağı entropiya strukturlarında saxlanılmalıdır. Eyni zamanda, biologiyamız enerji sərf edərək çürüməni yavaşlatmağa çalışır (tez -tez istifadə olunan sinir yolları tərk edilmiş yollardan daha yaxşı saxlanılır). Hətta səhvlərin korreksiyasına bənzər proseslər baş verir, məs. lateral düşünərək və mövcud məlumatları bir yerə yığaraq müəyyən itirilmiş məlumat parçasına çatdıqda.

Mənim sualım, yaddaş dəqiqliyinin azalmasının diskret məlumatların saxlandığı rəqəmsal quruluşların istiləşməsi ilə izah oluna bilərmi və əgər kimsə məni bu istiqamətdə araşdırmalara yönəldə bilərsə.


Maraqlı məqam, amma məncə xatirələrin çürüməsinin daha sadə və bəlkə də daha geniş yayılmış bir səbəbi var. Məhz, eyni neyron şəbəkələrində yeni yaddaşların saxlanması lazım olduğundan, şəbəkə əlaqələrinin çəkiləri, vaxtları və digər xüsusiyyətləri daim dəyişir. Başqa sözlə, məhdud sayda yaddaş üçün rəqabət var. Eyni şəbəkələrin çoxsaylı funksiyalar və xatirələr üçün bu şəkildə təkrar istifadəsi beynimizdə artıqlığın olmasının eyni səbəbidir - bu, həm də onların yadda saxlamada olduğu qədər qeyri-səlis olmasının səbəbidir. Xatirələr assosiativ olaraq xatırlandığından, fərqli xatirələri kodlayan iki şəbəkə nə qədər çox bağlı olsa, birinin aktivləşməsinin digərini aktivləşdirmə ehtimalı daha yüksəkdir. Ancaq bu, saxlanılan məlumatların müəyyən hissələri arasındakı sərhədləri də pozur. Bu, yadda saxlanılan və geri alınan sadiqlik ilə mümkün olan geri çağırma və birləşmələr arasında bir ticarətdir.


Diskret məlumatlar beyində zamanla kortəbii olaraq daha yüksək entropiya vəziyyətinə keçən aşağı entropiya strukturlarında saxlanmalıdır.

Bunu Yer üzündə necə bilərdiniz? Fizikanı beynin işinə çox uzadırsınız və bunun mütləq belə olduğunu söyləyən bir şey yoxdur. Yaddaşın tənəzzülü tam başa düşülməmişdir, lakin məlumdur ki, yaddaşı formalaşdırarkən nə qədər çox xüsusiyyətdən (yəni, səs, dad) istifadə edilərsə və o, mövcud bilik çərçivəsi ilə nə qədər çox əlaqələndirilirsə, yaddaşın qalması şansı bir o qədər yüksəkdir.


Mən başa düşürəm ki, corablarınızın harada olduğunu və ya yubileyinizin nə vaxt olduğunu xatırlaya bilməməyin iki əsas səbəbi var:

  1. Məlumat ilk dəfə qarşılaşdığınız zaman qısa müddətli yaddaşa aid deyildi, buna görə də heç vaxt xatırlamağa heç bir şey olmadı.
  2. Məlumat toxunulmazdır, lakin siz onu effektiv şəkildə bərpa edə bilmirsiniz, çünki siz müəyyən bir konkreti xatırlamağa çalışdığınız zaman digər xatirələr rəqabət aparır və səs-küy kimi çıxış edir.

Bu ssenarilərin heç biri daha çox beyin sarsıntıları və ya digər ciddi beyin zədələnmələri nəticəsində yaranan uzun müddətli yaddaşın əsl itkisini ehtiva etmir.


Sinesteziya

Sinesteziya (Amerika İngilis dili) və ya sinesteziya (British English) bir sensor və ya koqnitiv yolun stimullaşdırılmasının ikinci sensor və ya idrak yolunda qeyri-iradi təcrübələrə səbəb olduğu bir qavrayış hadisəsidir. [3] [4] [5] [6] Ömür boyu bu cür təcrübələr haqqında məlumat verən insanlar kimi tanınır sinestetlar. Sintetik qavrayışların fərqində olması insandan insana dəyişir. [7] Qrafame-rəng sinesteziyası və ya rəng-qrafemik sinesteziya kimi tanınan sinesteziyanın ümumi bir formasında hərflər və ya rəqəmlər təbii olaraq rəngli kimi qəbul edilir. [8] [9] Məkan ardıcıllığı və ya rəqəm forması sinesteziyasında rəqəmlər, ilin ayları və ya həftənin günləri kosmosda dəqiq yerləri ortaya qoyur (məsələn, 1980 1990-cı ildən “daha ​​uzaqda” ola bilər) və ya ola bilər. üçölçülü xəritə kimi görünür (saat əqrəbi və ya əksinə). [10] [11] Sinestetik assosiasiyalar istənilən birləşmədə və istənilən sayda hiss və ya idrak yollarında baş verə bilər. [12]

Sinesteziya
Başqa adlarSinesteziya [1] [2]
Sinesteziyalı bir adam müəyyən hərfləri və rəqəmləri necə qəbul edə bilər. Sinesthetes personajları başqaları kimi görür (həqiqətən hansı rəngdə göstərilirsə), lakin eyni zamanda rəngləri hər biri ilə əlaqəli və ya oyandıran kimi qəbul edə bilər.
İxtisasPsixiatriya, nevrologiya

Sinesteziyanın necə inkişaf etdiyi haqqında az şey məlumdur. Uşaqların ilk dəfə mücərrəd anlayışlarla intensiv şəkildə məşğul olduqları uşaqlıq dövründə sinesteziyanın inkişaf etdiyi irəli sürülür. [13] Bu fərziyyə – kimi istinad edilir semantik vakuum hipotezi - Sinesteziyanın ən çox yayılmış formalarının niyə qrafik - rəng, məkan ardıcıllığı və ədəd forması olduğunu izah edir. Bunlar adətən təhsil sistemlərinin uşaqların öyrənməsini tələb etdiyi ilk mücərrəd anlayışlardır.

Sinesteziyanı adekvat şəkildə təyin etməkdə çətinliklər tanınmışdır. [14] [15] Sinesteziya (“hisslərin birliyi”) termininə çoxlu müxtəlif hadisələr daxil edilmişdir və bir çox hallarda terminologiyanın qeyri-dəqiq olduğu görünür. Daha dəqiq, lakin daha az yayılmış bir termin ideasteziya ola bilər.

İlk sinesteziya hadisəsi, Oksford Universitetinin akademiki və filosofu John Locke -ə aiddir, o, 1690 -cı ildə trompet səsini eşidəndə qırmızı rənglə qarşılaşdığını söyləyən bir kor adam haqqında bir hesabat hazırladı. [16] Bununla birlikdə, Lokkun bir sinesteziya nümunəsini təsvir etməsi və ya bir məcazdan istifadə etməsi ilə bağlı fikir ayrılığı var. [17] İlk tibbi hesab 1812-ci ildə alman həkimi Georg Tobias Ludwig Sachs tərəfindən verilmişdir. [17] [18] [19] Termin Qədim Yunan σύν sözündəndir. sin, 'birlikdə' və αἴσθησις aistizis, 'sensasiya'. [16]


Bunun bir həqiqət elementi var - təcavüzkarın RAM -dan bir maşında məlumat tutmasına imkan verən RAM -dakı məlumatların saxlanmasından istifadə edən bir hücum aşkar edildi. Bunu etmək üçün çox qısa bir müddət (bir neçə saniyə və ya dəqiqə) var idi, ancaq bu, PC -nin hack edilməməsi idi.

Və burada McGrew linki daha ətraflı məlumat verir

Bəli, ancaq "söndürmə" termini çaşdırıcı ola bilər.

Kompüter işləmək üçün güc tələb edir, bunu bilirsiniz. Bir kompüter divardan AC (alternativ cərəyan) ilə təchiz edilmişdir, lakin kompüter hissələri DC (Direkt Cərəyan) tələb edir. Masaüstü kompüterin içərisində AC-ni DC-yə çevirən enerji təchizatı bloku var. Masaüstü kompüter divara qoşulduqca həmişə AC gücünü alır.

İlk günlərdə bir kompüterin ön tərəfində açarı olan 'AT' enerji təchizatı var idi. 'AT' tipli enerji təchizatı, DC gücünü dayandıran bir düymə açarına sahib idi. Bunun problemi, istifadəçilərin sabit diski yazarkən kompüteri söndürmələri idi. Sabit disk yazarkən gücün söndürülməsi sabit diskin zədələnməsinə səbəb olar.

Beləliklə, PC dizaynının növbəti təkrarlanması ATX enerji təchizatına sahib idi. Bu dizaynda anakarta qoşulmuş enerji təchizatı və PC -nin ön hissəsindəki anakarta qoşulmuşdur. ATX dizaynı üçün söndürmə düyməsini basaraq ana plata siqnal göndərir, Əməliyyat sistemi anakartdakı siqnalı oxuyur və enerji təchizatına siqnal göndərir.

Enerji təchizatı birdən çox DC çıxışına malikdir. Sabit disk (və disket) 12 Volt istifadə etdi. CPU 5 Volt və daha sonra 3,3 Volt aldı. Fərqli gərginliklər müstəqildir, ona görə də kompüterin müxtəlif hissələri digər hissələr aktiv olduqda dəyişdirilə bilər.

Kompüterin ön hissəsindəki güc düyməsini basdığınızda və ya Əməliyyat Sistemindən söndürmə seçdiyiniz zaman həmişə ən azı bir və ya iki güclü komponent var. Ən azından anakartdakı güc düyməsinin siqnalını alan və onu enerji təchizatına ötürən dövrə elektriklə təchiz olunmalı və PC divara qoşulduğu müddətdə olmalıdır.

Sözügedən komponent RAMdır (əslində DRAM) və RAM -ın gücünün söndüyünü və ya kompüteri söndürməyin hansı üsulunun RAM -a enerji verilməsini dayandıracağını söyləmək asan deyil.

RAM-a heç bir güc olmadığına tam əmin olmağın yeganə yolu PC-ni divardan ayırmaqdır.

RAM -a enerji verildiyi müddətcə RAM, içərisində olanların hamısını saxlayacaq.

RAM enerjidən çıxarıldıqda məzmunlar çürüməyə başlayır və müəyyən bir nöqtədə oxunmaz olur. İstilik, RAM -dakı məlumatların nə qədər tez parçalanmasına təsir göstərir. Temperaturun aşağı salınması məlumatların çürüməsini yavaşlatacaq. Tərs çevrilmiş sadə "konservləşdirilmiş hava" tozsoranı təcavüzkarın RAM-i RAM-ın məzmununu çıxarmaq üçün hazırlanmış xüsusi Əməliyyat Sistemi ilə maşını yenidən işə salmağa imkan verən temperatura qədər soyutmağa imkan verəcək.

Bu hücum üçün yalnız önyüklenebilir bir CD/DVD və ya USB Flash Sürücü və konservləşdirilmiş hava tozsoranı lazımdır.


İçindəkilər

Kvant mexanikası fiziki sistemlərin xassələrini və davranışlarını hesablamağa imkan verir. Tipik olaraq mikroskopik sistemlərə tətbiq olunur: molekullar, atomlar və atomaltı hissəciklər. Onun minlərlə atomlu mürəkkəb molekullar üçün uyğun olduğu sübut edilmişdir [4], lakin onun insanlara tətbiqi Wignerin dostu kimi fəlsəfi problemlər yaradır və bütövlükdə kainata tətbiqi spekulyativ olaraq qalır. [5] Kvant mexanikasının proqnozları son dərəcə yüksək dərəcədə dəqiqliklə eksperimental olaraq təsdiq edilmişdir. [qeyd 1]

Teorinin əsas xüsusiyyəti odur ki, nə olacağını dəqiqliklə proqnozlaşdıra bilmir, ancaq ehtimallar verir. Riyazi olaraq bir ehtimal, ehtimal amplitudu olaraq bilinən kompleks ədədin mütləq dəyərinin kvadratını alaraq tapılır. Bu fizik Maks Bornun adını daşıyan Born qaydası olaraq bilinir. Məsələn, elektron kimi kvant hissəciyi kosmosdakı hər bir nöqtəyə ehtimal amplitudasını birləşdirən dalğa funksiyası ilə təsvir edilə bilər. Born qaydasının bu amplitüdlərə tətbiqi elektronun ölçülməsi üçün təcrübə aparıldıqda tapılacağı mövqe üçün ehtimal sıxlığı funksiyasını verir. Bu nəzəriyyənin edə biləcəyi ən yaxşısıdır ki, elektronun harada tapılacağını dəqiq deyə bilmərəm. Schrödinger tənliyi, zamanın bir anına aid olan ehtimal amplitüdlərinin toplanmasını digərinə aid olan ehtimal amplitüdlərinin toplusu ilə əlaqələndirir.

Kvant mexanikasının riyazi qaydalarının bir nəticəsi, fərqli ölçülə bilən kəmiyyətlər arasında proqnozlaşdırıla bilər. Bu qeyri-müəyyənlik prinsipinin ən məşhur forması deyir ki, kvant zərrəciyinin necə hazırlanmasından və ya üzərində təcrübələrin nə qədər diqqətlə təşkil edilməsindən asılı olmayaraq, onun mövqeyinin ölçülməsi və eyni zamanda bir ölçmə üçün dəqiq proqnoz vermək mümkün deyil. onun sürətindən.

Kvant mexanikasının riyazi qaydalarının digər nəticəsi kvant müdaxiləsi fenomenidir ki, bu da tez-tez ikiqat yarıq təcrübəsi ilə təsvir olunur. Bu təcrübənin əsas versiyasında, lazer şüası kimi əlaqəli bir işıq mənbəyi, iki paralel yarıqla deşilmiş bir lövhəni işıqlandırır və yarıqlardan keçən işıq lövhənin arxasındakı bir ekranda müşahidə olunur. [6] : 102–111 [2] : 1.1–1.8 İşığın dalğa təbiəti iki yarıqdan keçən işıq dalğalarının müdaxilə etməsinə səbəb olur və ekranda parlaq və qaranlıq zolaqlar əmələ gətirir – əgər işıqdan ibarət olsaydı bu nəticə gözlənilməzdi. klassik hissəciklər. [6] Bununla belə, işığın həmişə ekranda diskret nöqtələrdə udulduğu aşkar edilir, çünki dalğalar deyil, ayrı-ayrı hissəciklər kimi müdaxilə nümunəsi ekranda bu hissəciklərin müxtəlif sıxlığı vasitəsilə görünür. Bundan əlavə, yarıqlardakı detektorları ehtiva edən sınaq versiyaları, aşkarlanan hər bir fotonun hər iki yarıqdan (bir dalğa kimi) deyil, bir yarıqdan (klassik bir hissəcik kimi) keçdiyini tapır. [6] : 109 [7] [8] Bununla belə, bu cür təcrübələr göstərir ki, hissəciklər hansı yarıqdan keçdikləri aşkar edilərsə, onların müdaxilə nümunəsi əmələ gəlmir. Elektron kimi digər atom miqyaslı varlıqların ikiqat yarığa doğru atəş edildikdə eyni davranış nümayiş etdirdikləri aşkar edilmişdir. [2] Bu davranış dalğa-hissəcik ikililiyi olaraq bilinir.

Kvant mexanikasının proqnozlaşdırdığı başqa bir əks-intuitiv fenomen kvant tünellənməsidir: kinetik enerjisi potensialın maksimumundan kiçik olsa da, potensial maneəyə qalxan bir hissəcik onu keçə bilər. [9] Klassik mexanikada bu hissəcik tələyə düşərdi. Kvant tünellənməsinin radioaktiv çürüməyə, ulduzlarda nüvə birləşməsini və tunel mikroskopiyası və tunel diodunu tarama kimi tətbiqlərə imkan verən bir neçə əhəmiyyətli nəticəsi vardır. [10]

Kvant sistemləri qarşılıqlı əlaqədə olduqda, nəticədə kvant dolaşıqlığı yarana bilər: xassələri o qədər bir -birinə qarışar ki, bütövlüyü yalnız ayrı -ayrı hissələr baxımından təsvir etmək mümkün olmaz. Erwin Schrödinger dolaşıqlıq adlandırdı. the Klassik düşüncə xətlərindən tamamilə uzaqlaşmasını təmin edən kvant mexanikasının xarakterik xüsusiyyəti ". [11] Quantum dolaşıqlığı, kvant yalançı telepatiyanın əks-intuitiv xüsusiyyətlərini təmin edir və kvant kimi ünsiyyət protokollarında dəyərli bir qaynaq ola bilər. açar paylanması və super sıx kodlaşdırma [12] Məşhur yanlış təsəvvürün əksinə olaraq, dolaşıqlıq rabitəsiz teorem tərəfindən nümayiş etdirildiyi kimi işıqdan daha sürətli siqnal göndərməyə imkan vermir [12].

Dolaşıqlığın açdığı başqa bir ehtimal, kvant nəzəriyyəsinin təmin edə biləcəyindən daha dəqiq proqnozlara imkan verən, kvant nəzəriyyəsinin özündə ifadə olunan kəmiyyətlərdən daha əsaslı hipotetik xüsusiyyətlərin "gizli dəyişənlərin" sınanmasıdır. Nəticələr toplusu, ən əsası Bell teoremi, bu cür gizli dəyişən nəzəriyyələrin geniş siniflərinin əslində kvant fizikası ilə uyğun olmadığını göstərdi. Bell teoreminə görə təbiət əslində hər hansı bir nəzəriyyəyə uyğun fəaliyyət göstərirsə yerli gizli dəyişənlər, sonra Bell testinin nəticələri xüsusi, ölçülə bilən bir şəkildə məhdudlaşdırılacaq. Bir çox Bell testləri, dolaşıq hissəciklərdən istifadə edilməklə həyata keçirildi və yerli gizli dəyişənlərin tətbiq etdiyi məhdudiyyətlərə uyğun olmayan nəticələr göstərdi. [13] [14]

Kvant mexanikasının başa düşülməsi təkcə mürəkkəb ədədlərin manipulyasiyasını deyil, həm də xətti cəbri, diferensial tənlikləri, qrup nəzəriyyəsini və digər daha təkmil mövzuları tələb edən faktiki riyaziyyatı təqdim etmədən bu anlayışları səthi şəkildə təqdim etmək mümkün deyil. [Qeyd 2] Müvafiq olaraq, bu məqalə kvant mexanikasının riyazi formalaşdırılmasını təqdim edəcək və onun bəzi faydalı və tez-tez öyrənilən nümunələrə tətbiqini araşdıracaq.

Fiziki maraq kəmiyyətləri-mövqe, momentum, enerji, spin-Hilbert məkanında hərəkət edən Hermit (daha doğrusu, öz-özünə birləşən) xətti operatorları olan müşahidəçilərlə təmsil olunur. Kvant halı müşahidə olunanın xüsusi vektoru ola bilər, bu halda o, özəl vəziyyət adlanır və əlaqəli xüsusi dəyər həmin xüsusi vəziyyətdə müşahidə olunanın qiymətinə uyğun gəlir. Daha ümumi olaraq, kvant vəziyyəti kvant superpozisiya kimi tanınan öz hallarının xətti kombinasiyası olacaqdır. Müşahidə edilə bilən bir şey ölçüldükdə, nəticə Born qayda ilə verilən öz dəyərlərindən biri olacaq: ən sadə halda igen < displaystyle lambda> öz dəyəri qeyri-degenerativdir və ehtimal | ⟨ λ → , ψ ⟩ | 2 >,psi angle |^<2>> , burada λ → >> onun əlaqəli xüsusi vektorudur. Daha ümumi olaraq, öz dəyər degenerativdir və ehtimal ⟨ ψ , P λ ψ ⟩ psi angle > ilə verilir, burada P λ > əlaqədar eigenspace üzərində proyektordur. Davamlı vəziyyətdə bu düsturlar əvəzinə ehtimal sıxlığını verir.

Ölçmədən sonra, əgər nəticə λ < displaystyle lambda> alınarsa, kvant vəziyyəti λ → < displaystyle < vec < lambda >>>, dejenerasiya olunmamış vəziyyətdə və ya P λ -ə çökəcək. ψ / ⟨ ψ , P λ ψ ⟩ psi /psi angle >>> , ümumi halda. Kvant mexanikasının ehtimal olunan təbiəti ölçmə hərəkətindən qaynaqlanır. Bu, kvant sistemlərinin başa düşülməsi ən çətin aspektlərindən biridir. İki elm adamının düşüncə təcrübələri ilə bu əsas prinsipləri aydınlaşdırmağa çalışdıqları məşhur Bohr -Einstein mübahisələrində əsas mövzu idi. Kvant mexanikasının formalaşmasından sonrakı onilliklər ərzində "ölçü" nədən ibarət olduğu məsələsi geniş şəkildə tədqiq edilmişdir. "Dalğa funksiyasının çökməsi" anlayışını ortadan qaldıran kvant mexanikasının daha yeni təfsirləri hazırlanmışdır (məsələn, bir çox dünyanın şərhinə baxın). Əsas fikir budur ki, kvant sistemi bir ölçü aparatı ilə qarşılıqlı əlaqədə olduqda, onların müvafiq dalğa funksiyaları dolaşır və orijinal kvant sistemi müstəqil bir varlıq olaraq mövcud olmağı dayandırır. Ətraflı məlumat üçün kvant mexanikasında ölçmə haqqında məqaləyə baxın. [17]

Kvant vəziyyətinin zaman təkamülü Schrödinger tənliyi ilə izah olunur:

Burada H < displaystyle H> sistemin ümumi enerjisinə uyğun olan Hamiltonianı ifadə edir və ℏ < displaystyle hbar> azalmış Planck sabitidir. i ℏ sabiti elə təqdim edilir ki, Hamiltonian klassik Hamiltoniana endirilsin, əgər kvant sistemi klassik sistem tərəfindən müəyyən hədlərdə belə yaxınlaşma etmək qabiliyyətinə uyğunluq adlanır. prinsip

Bu diferensial tənliyin həlli ilə verilir

Bəzi dalğa funksiyaları, zamandan asılı olmayan ehtimal paylamaları yaradır, məsələn, Hamiltonun öz dövlətləri. Klassik mexanikada dinamik şəkildə işlənən bir çox sistem bu cür "statik" dalğa funksiyaları ilə təsvir edilmişdir. Məsələn, həyəcanlanmamış bir atomdakı tək bir elektron klassik olaraq atom nüvəsi ətrafında dairəvi trayektoriya ilə hərəkət edən hissəcik kimi təsvir edilir, kvant mexanikasında isə nüvəni əhatə edən statik dalğa funksiyası ilə təsvir edilir. Məsələn, həyəcanlanmayan bir hidrogen atomu üçün elektron dalğa funksiyası bir olaraq bilinən sferik simmetrik bir funksiyadır s orbital (Şəkil 1).

Schrödinger tənliyinin analitik həlləri, kvant harmonik osilatoru, qutudakı hissəcik, dihidrogen kationu və hidrogen atomu da daxil olmaqla çox az nisbətən sadə model Hamiltonçular üçün məlumdur. Hətta iki elektrondan ibarət olan helyum atomu da tam analitik müalicə cəhdlərinə rədd cavabı verdi.

Bununla birlikdə, təxmini həll yolları tapmaq üçün üsullar var. Narahatlıq nəzəriyyəsi adlanan bir üsul, zəif bir potensial enerjinin əlavə edilməsi ilə əlaqəli, lakin daha mürəkkəb bir model üçün bir nəticə yaratmaq üçün sadə bir kvant mexaniki modelin analitik nəticəsini istifadə edir. Başqa bir üsul kvant mexanikasının klassik davranışdan yalnız kiçik sapmalar yaratdığı sistemlərə şamil edilən "yarı klassik hərəkət tənliyi" adlanır. Bu sapmalar klassik hərəkət əsasında hesablana bilər. Bu yanaşma kvant xaosu sahəsində xüsusilə vacibdir.

Qeyri-müəyyənlik prinsipi

Əsas kvant formalizminin nəticələrindən biri qeyri -müəyyənlik prinsipidir. Ən tanış formada bu, heç bir kvant hissəciyinin hazırlanmasının həm mövqeyinin ölçülməsi, həm də momentumunun ölçülməsi üçün eyni zamanda dəqiq proqnozlar verə bilməyəcəyini bildirir. [19] [20] Həm mövqe, həm də impuls müşahidə edilə biləndir, yəni onlar Hermit operatorları ilə təmsil olunur. Mövqe operatoru X ^ >> və momentum operatoru P ^ < displaystyle < hat

>> gediş-gəliş etməyin, əksinə, kanonik kommutasiya əlaqəsini təmin edin:

və eyni şəkildə təcil üçün:

Qeyri -müəyyənlik prinsipi bunu bildirir

İstənilən standart sapma özbaşına kiçik ola bilər, amma hər ikisi eyni vaxtda deyil. [21] Bu bərabərsizlik A və B öz-özünə bitişik operatorların ixtiyari cütlərinə ümumiləşir. Bu iki operatorun kommutatoru

və bu standart sapmaların məhsulunun aşağı həddini təmin edir:

Kanonik kommutasiya əlaqəsinin başqa bir nəticəsi, mövqe və momentum operatorlarının bir -birinin Fourier çevrilmələridir, buna görə də bir cismin təcilinə görə təsviri mövqeyinə görə təsvirinin Fourier çevrilməsidir. İmpulsdan asılılığın mövqedəki asılılığın Furye çevrilməsi olması o deməkdir ki, impuls operatoru mövqeyə görə törəmə götürməyə ekvivalentdir (bir i / ℏ amilə qədər), çünki burada Fourier təhlili fərqliliyi ikili məkanda vurulmaya uyğundur. Bu səbəbdən mövqe məkanındakı kvant tənliklərində momentum p i < displaystyle p_> ilə əvəz olunur-i ℏ ∂ ∂ x < displaystyle -i hbar < frac < partial> < partial x >>> və xüsusən də mövqe məkanındakı nisbi olmayan Schrödinger tənliyində momentum-kvadrat termin Laplas dövrü ilə əvəz olunur -ℏ 2 < displaystyle - hbar ^<2>>. [19]

Kompozit sistemlər və qarışıqlıq

İki fərqli kvant sistemi birlikdə nəzərdən keçirildikdə, birləşdirilmiş sistemin Hilbert məkanı iki komponentin Hilbert boşluqlarının tensor məhsuludur. Məsələn, A və B iki kvant sistemi olsun, Hilbert fəzaları H A >_> və H B >_> , müvafiq olaraq. Kompozit sistemin Hilbert məkanı bundan ibarətdir

ayrılmayan etibarlı bir ortaq dövlətdir. Ayrılmayan dövlətlərə dolaşıq deyilir. [22] [23]

Kompozit sistemin vəziyyəti dolaşırsa, A komponent sistemini və ya B sistemini vəziyyət vektoru ilə təsvir etmək mümkün deyil. Bunun əvəzinə hər hansı bir komponent sistemində ölçmə aparmaqla əldə edilə bilən statistikanı təsvir edən azaldılmış sıxlıq matrisləri müəyyən edilə bilər. Bu, mütləq məlumat itkisinə səbəb olur: fərdi sistemlərin azalmış sıxlıq matrislərini bilmək, kompozit sistemin vəziyyətini yenidən qurmaq üçün kifayət deyil. [22] [23] Sıxlıq matrisləri daha böyük bir sistemin alt sisteminin vəziyyətini göstərdiyi kimi, analoji olaraq, müsbət operator dəyərli ölçülər (POVMs) daha böyük bir sistemdə yerinə yetirilən bir ölçmənin alt sisteminə təsirini təsvir edir. POVM-lər kvant məlumat nəzəriyyəsində geniş istifadə olunur. [22] [24]

Yuxarıda təsvir edildiyi kimi, dolaşıqlıq bir cihazın ölçülən sistemlə dolaşdığı ölçü prosesləri modellərinin əsas xüsusiyyətidir. Yaşadıqları mühitlə qarşılıqlı əlaqədə olan sistemlər, ümumiyyətlə, ətraf mühitlə dolaşır, bu fenomen kvant ayrılma adlanır. Bu, praktikada mikroskopikdən daha böyük sistemlərdə kvant effektlərinin müşahidə olunmasının niyə çətin olduğunu izah edə bilər. [25]

Formulalar arasındakı ekvivalentlik

Kvant mexanikasının bir çox riyazi ekvivalent formulaları var. Ən qədim və ən çox yayılmışlardan biri, kvant mexanikasının iki ən erkən formulunu - matris mexanikasını (Verner Heyzenberq tərəfindən icad edilmişdir) və dalğa mexanikasını (Ervin Şrödinger tərəfindən icad edilmişdir) birləşdirən və ümumiləşdirən Paul Dirak tərəfindən təklif olunan "çevrilmə nəzəriyyəsidir". [26] Kvant mexanikasının alternativ formulası Feynmanın yolu inteqral tənzimləməsidir ki, burada kvant-mexaniki amplituda başlanğıc və son vəziyyətlər arasında bütün mümkün klassik və qeyri-klassik yolların cəmi kimi qəbul edilir. Bu, klassik mexanikada fəaliyyət prinsipinin kvant-mexaniki qarşılığıdır.


Termodinamik Bit (kT-bit)

Termodinamik bitlər enerji yayan bölünmə nöqtələridir. Ağaclar, yarpaqlar, işıqlandırma, çaylar, beyinlər və qan dövranı sistemləri kT-bitlərdən qurulmuş bir quruluş nümunəsidir, lakin daha çoxu var. Əslində, termodinamik biti görə bilməyəcəyiniz yeganə vaxt bir binanın və ya şəhərin içində, təbiətdən uzaqda olduğunuz və güzgüyə və ya digər canlılara baxmamağınızdır. Açıq olmayan nümunələr, iki rəqabət aparan enerjiniz varsa, ancaq ağaca bənzəmir. Vücudunuzdakı orqanlar, hüceyrələrimizdəki orqanoidlər və iqtisadiyyatımızdakı şirkətlər açıq-aydın olmayan nümunələrdir. Ağaclara bənzəməsələr də, buna baxmayaraq adaptiv enerji yayma axını quruluşları ilə rəqabət aparırlar. Bütün hallarda, sərbəst enerji yayılmasının birbaşa daşıyıcısı olan təşkilat vasitəsilə axan bir hissəcik var (məsələn, elektron) və ya başqa bir şəkildə enerji yayılmasına (qan, ATP, pul və s.) Təbii sistemlərdə, sistem (axının konteyneri) enerji sərfini maksimum dərəcədə artırmaq üçün bu rəqabət edən axınları tənzimləmək üçün avtomatik olaraq inkişaf edir. Hər bir qovşaqda iki dissipasiya yolu keçirici resurslar üçün yarışır. Bu bina bloku termodinamik bit dediyimiz şeydir və bunun universal uyğunlaşan hesablama tikinti bloku olduğunu kəşf etdik.

Təbiətdəki termodinamik bitlər canlı strukturlara axını maksimuma çatdırmaq üçün dinamik şəkildə uyğunlaşmağa imkan verir və bununla da termodinamikanın ikinci qanununa uyğun olaraq ümumi entropiya istehsalını artırır. Bir cüt memristor ilə sintetik termodinamik bit yarada bilərik.

Zaman və məkanda inkişaf edən bir termodinamik bitə qısa bir nümunə vermək üçün bir simmetrik çəngəl ilə bir ağac budağı götürün. Çəkənin bir tərəfindəki bütün yarpaqların günəş işığını maneə törədən başqa bir ağacın budağın qarşısında böyüdüyünü düşünün. Daha çox işıq alan tərəf, kölgədəki tərəfə nisbətən daha çox artacaq. Əvvəllər simmetrik olan çəngəl indi köklər tərəfindən götürülən suyun göyə buxarlana biləcəyi günəşə aparan istiqamətdə qalınlaşacaq. Bu şəkildə ağac, axını maksimuma çatdırmaq üçün optimal konfiqurasiyaya uyğun olaraq böyüyür (4 -cü qanun) və bununla termodinamikanın ikinci qanununa uyğun olaraq entropiyanı artırır.


Nəticələr

Sinaptik konsolidasiyanın əsasını təşkil edən neyronal və sinaptik dinamikanın biofiziki cəhətdən inandırıcı bir şəbəkə modelini qurmağı qarşımıza məqsəd qoyduq. Bunun üçün, əvvəlki tədqiqatlar 13,15,20 əsasında, biz sinaptik plastisiya tetiklemek üçün yerli kalsium dinamikası inteqrasiya sinaptik model istifadə, və STC mexanizmləri (Şəkil. 1a). Biz bu sinaptik modeli eksperimental tapıntılara əsaslanan parametrlərlə neyron şəbəkələrində siqnalın yaradılması və ötürülməsinin ən mühüm aspektlərini əhatə etmək üçün sızan inteqrasiya və atəş modeli, aksonal gecikmə və sonlu sinaptik zaman sabiti ilə birlikdə istifadə etdik (bax: " Metodlar ”bölməsi, istinadlar 45,46). Şəbəkənin özü seyrək birləşdi və girişi elə qəbul etdi ki, o, kəşfiyyat oyanma vəziyyətində hipokampusda mövcud olan əlaqə və atəş sürətlərinə bənzəyirdi (istinadlar. 47,48,49,50, həmçinin Əlavə Şəkil S3-ə baxın). Həyəcanlandırıcı neyronların müəyyən bir hissəsinə əlavə, güclü bir giriş stimulu tətbiq etməklə hüceyrə birləşmələri meydana gəldi (Şəkil 1b). Aşağıda, şəbəkə modelinin xüsusiyyətlərini təqdim etməzdən əvvəl əvvəlcə sinaps modelinin əsas prinsiplərini təqdim edəcəyik və dinamikasını eksperimental məlumatlarla müqayisə edəcəyik.

a Sinaptik model, kalsiumdan asılı sinaptik plastisiyanın müxtəlif mexanizmləri ilə STC hipotezi arasındakı qarşılıqlı əlaqəni birləşdirir. Daha ətraflı məlumat üçün əsas mətnə ​​baxın. b Sinir şəbəkəsinin həyəcanverici (mavi və tünd mavi dairələr) və inhibitor neyronlardan (qırmızı dairələr) ibarət olan və beynin digər bölgələrindən (yaşıl oxlar) xarici girişi qəbul edən bir hissəsinin sxemi. Yalnız həyəcanverici neyronlar arasındakı sinapslar (mavi və tünd mavi oxlar) aşağıda göstərilən proseslərlə plastik dəyişikliklərə məruz qalır. a. Bir Hebbian hüceyrə quruluşu bir yaddaşı təmsil edir və bir -biri ilə sıx bağlı olan neyronlardan (tünd mavi) ibarətdir.

Sinaps modelinin eksperimental məlumatlarla müqayisəsi

Ümumiyyətlə, model bir neyron membran potensialının postsinaptik kalsium konsentrasiyasının presinaptik sıçrayışla birlikdə hərəkət edən spiking dinamikasını təyin etdiyini güman edir (Şəkil 1a). Kalsium konsentrasiyası sinaptik effektivliyin erkən faza komponentində (və ya çəkisində) dəyişikliklərlə təmsil olunan erkən fazalı LTP və erkən fazalı LTD-nin meydana gəlməsini təyin edir. Erkən faza çəkisinin böyük dəyişiklikləri sinapsa xüsusi etiketin formalaşmasına səbəb olur. Postsinaptik neyronun bir çox sinapslarında kifayət qədər erkən faza dəyişiklikləri protein sintezini tetikler. Kifayət qədər miqdarda zülal əldə edildikdə və sinaps etiketləndikdə, sinaptik effektivliyin gec fazalı komponenti dəyişir və sinaps zülalları "tutur". Erkən və gec faza çəkisinin cəmi, sinir membran potensialına təsir edərək, neyrona gələn postsinaptik potensialın böyüklüyünü təyin edən ümumi sinaptik effekt verir. Bu müxtəlif proseslər arasında qarşılıqlı əlaqə standart plastiklik induksiya təcrübələrində tədqiq edilir 19,35,51,52. Bu təcrübələrdə gec tetanoz stimullaşdırılması (STET) gec fazalı potensiyanı induksiya etmək üçün, zəif tetanoz stimullaşdırılması (WTET) isə yalnız erkən faza potensiyasını induksiya etmək üçün istifadə olunur. Gec mərhələli depressiya üçün güclü aşağı tezlikli stimul (SLFS) istifadə olunur, erkən mərhələdə isə zəif aşağı tezlikli stimul (WLFS) kifayətdir. Sinaptik modelimizin konsepsiyasının sübutu olaraq, iki neyron arasında bir plastik sinapsı nəzərə alaraq və presinaptik neyron üçün oxşar stimullaşdırma protokollarını tətbiq etməklə bu təcrübələrin nəticəsini təkrarladıq (ətraflı məlumat üçün Əlavə Şəkil S1-ə baxın). Dörd induksiya protokoluna cavab olaraq sinaptik effektivliyin əldə edilən vaxt izləri (Şəkil 2) yuxarıda müzakirə edildiyi kimi və əvvəlki nəzəri tədqiqatların 15,20,27,28-də müzakirə edildiyi kimi, təcrübələrin nəticələrinə uyğun gəlir. STET və SLFS simulyasiyalarımızdakı dalğalanmalar və lokal maksimumlar, gec fazalı plastiklik paradiqmaları üçün ortaq diapazondadır (bax. Refs. 35,51,52). Nəticələr göstərir ki, sinaptik modelimiz əsas biomolekulyar dinamikanın ağlabatan təsvirini təqdim edir. Beləliklə, bu sinaptik modelə əsaslanaraq, növbəti addımda, təkrarlanan bir sinir şəbəkəsində sinaptik və neyronal dinamikanı təhlil edəcəyik.

Hər bir protokol (ətraflı məlumat üçün Əlavə Şəkil S1 -ə baxın) fərqli bir tip sinaptik plastisiyanın induksiyasına səbəb olur: a gec faza potensiyası, b erkən mərhələdə potensiya, c gec faza depressiya və d erkən mərhələdə depressiya. Gec faza çəkisi (mavi xətt) yalnız güclü stimullaşdırma (STET, SLFS) ilə dəyişir. The early-phase weight (red line) is affected by all protocols. Weak stimulation protocols (WTET, WLFS) suffice to drive the early-phase weight across the threshold of tag formation (θetiket, dashed red line), but not across the threshold of triggering protein synthesis (θpro, dashed green line). The total weight or synaptic efficacy (orange) is the sum of early- and late-phase weight. Averaged over 100 trials error bands show the standard deviation. The late-phase weight has been shifted for graphical reasons (cf. “Methods” section).

Network model with synaptic consolidation enables functional memory representations

Employing our synaptic model, we simulated a patch of tissue with hippocampal network characteristics, consisting of 2000 neurons with 20% being inhibitory and a 0.1 average probability of two neurons being connected by a synapse (Fig. 1b). Synapses between excitatory neurons (blue, dark blue) feature plasticity mechanisms, as described above. Inhibitory neurons provide feedback inhibition their connections are nonplastic (purple, red). All neurons in the patch received additional inputs from outside the network, which have particular characteristics for the encoding and recalling of a memory. During learning, a specific stimulus is provided to a group of neurons and should trigger the formation of particularly strong connections between these neurons, which then represent a Hebbian cell assembly or memory (Fig. 1b, dark blue). During recall, only a subset of the group of neurons that received the learning stimulus received specific external stimulation.

To investigate the synaptic and neuronal dynamics implied by the STC mechanisms, throughout this study, we focused on two time spans. We evaluated the state of the neural network

10 s after the learning stimulus to analyze the short-term dynamics and after

8 h to investigate the long-term effects of the STC mechanisms.

The learning stimulus consisted of three subsequent pulses of 0.1 s each, strongly activating a random subset of neurons. In experiments, strong tetanus stimuli of

100 Hz are used to evoke late-phase synaptic potentiation 18,35,51 . To resemble this, we applied stimulation of similar strength via 25 putative input neurons. A necessary consequence of this strong input is the fact that during stimulation, the stimulated neurons spike at their maximum. As expected, the stimulus caused tremendous changes of the synaptic efficacy of diverse synapses in the network (compare Fig. 3a, b). Synapses associated with the stimulated neurons (first 150 neurons Fig. 3a–c) mainly experienced LTP (red). The synapses between stimulated neurons (black box in Fig. 3a–c) are strengthened particularly, indicating the correct formation of a cell assembly. By contrast, synapses between non-stimulated neurons underwent LTP as well as LTD (blue). After 8 h, the synaptic changes between non-stimulated neurons fade, such that mainly changes associated with the stimulated neurons and, thus, with the cell assembly remain (Fig. 3c). To validate that the formed cell assembly encodes a memory, next, we tested the ability of recall. For this, we applied a recall stimulus that activates for 0.1 s 50% of the neurons that were stimulated by the learning signal, and analyzed the resulting spread of activation within the network (Fig. 3d, e). The externally stimulated neurons (“as”) have the highest activity. By the strong recurrent connections in the cell assembly, the average activity of the non-stimulated neurons in the cell assembly (“ans”) is significantly higher than the activity of the remaining non-stimulated neurons (“ctrl”). This is not the case for control stimulation applied before learning. In other words, the activity of the recall stimulus spreads via the stimulated neurons to the other cell assembly neurons and yields a type of pattern completion or recall (in the literature sometimes also called retrieval). Please note that, under basal/standby conditions, the mean firing rate of all excitatory neurons resembles the average value of 0.5–1.0 Hz for pyramidal cells in the hippocampus during exploratory wake states (refs. 49,50 see also Supplementary Fig. S3). We further analyzed the spread of activity by considering the mean firing rate correlations between the neuronal subpopulations (Fig. 3f). The correlations generally increase with learning and consolidation, which is in line with the previous finding of increased mean firing rates. Furthermore, we found that correlations within the cell assembly (“as” and “ans”) are larger than correlations with control neurons (“ctrl”), which again indicates functional memory recall and further leads to the expectation of more LTP for connections involving “as” and “ans” neurons. This already suggests an “active improvement” of the cell assembly, which we will investigate in a later section. On the other hand, the fact that correlations between cell assembly neurons and control neurons are also increased by recall stimulation shows that control neurons indirectly contribute to recall. This is corroborated by previous work 53 and by the distribution of synaptic weights, which exhibits tremendously increased weights from control to cell assembly neurons (“incoming” weights in Fig. 3b, c and Supplementary Figs. S4 and S5). In summary, the results presented in this section show that calcium-dependent synaptic plasticity and the STC mechanisms enable the encoding of memory and its maintenance for several hours in a recurrent neural network. Thereby, our findings support the idea that the STC mechanisms account for the synaptic consolidation of memories. In the next section, specific measures for memory recall will be presented.

ac The matrix of total (early- plus late-phase) synaptic weights sorted by the stimulated neurons (first 150): a before learning, b

10 s after learning, and c

8 h after learning. The insets show the spiking during recall stimulation of the neurons in the cell assembly (colors as in d, e) and of a random 5% fraction of the neurons in the remaining excitatory (blue) and inhibitory (red) populations. d Schematic of the three subpopulations during recall stimulation: the fraction of externally stimulated cell assembly neurons (“as”), the fraction of cell assembly neurons that are not stimulated (“ans”), and the remaining excitatory neurons acting as control group (“ctrl”). e The mean firing rates of the three subpopulations defined in d, before learning and without recall (standby), before learning during control recall stimulation, upon recall 10 s after learning, and upon recall 8 h after learning. f Mean firing rate correlations (presynaptic multiplied by postsynaptic firing rate, averaged over neuron pairs) within and between subpopulations for the same protocols as in e. Synaptic weights, mean firing rates and mean correlations were averaged over ten trials. Səhv çubuqları standart sapmanı göstərir. Parametrlər: wie/h0 = 4, wii/h0 = 4.

Memory functionality depends on network inhibition and size of the representation

In the following, we investigate the influence of different parameters, such as inhibition and cell assembly size on the learning, recall, and consolidation of memory representations.

In general, one role of inhibition in neural networks is to prevent the network activity from runaway or epileptiform dynamics. This kind of dynamics is characterized by neurons constantly exciting each other and firing at the maximum possible rate. On the other hand, if inhibition is excessively strong, neuronal activity is confined, resulting in a more or less silent network. We adjusted the level of inhibition in our network by varying the coupling strength from inhibitory neurons to excitatory neurons (wie) and the coupling strength from inhibitory to inhibitory neurons (wii). For every set of these parameter values, we simulated the network dynamics during learning and recall, as described before. At two different points in time (10 s and 8 h after learning), we evaluated the memory functionality that consists of learning, consolidation, and recall of a memory by measuring the recall quality. To measure the recall quality, we used two different quantities (cf. “Methods” section): on the one hand, the pattern completion coefficient Q describes by how much the activity in the non-stimulated part of the input-defined cell assembly is raised during recall, as compared to the activity of the control neurons on the other hand, the mutual information MIν describes how similar the network activity state during recall is to the network activity state during learning. We quantitatively defined memory functionality by an average pattern completion coefficient of Q ≥ 0.03. This criterion demands that, upon stimulation of half of the assembly neurons, the other half of the assembly be activated much stronger than the background neurons, which remain at a low activity level (cf. Fig. 3e). Please note that the values of the pattern completion coefficient appear small because we normalize by the activity of the stimulated neurons (cf. Eq. (17)).

High values of the I → I coupling strength together with low values of the I → E coupling strength imply a low level of inhibition, which impedes memory functionality in our network model (see Fig. 4a, c for the recall performance 10 s after learning and Fig. 4b, d for 8 h after learning). This impairment goes along with the runaway dynamics discussed before, as indicated by the extreme level of population activity in this parameter regime (Fig. 4e, f). In general, if a network is in such an “epileptiform” state, a recall stimulus does not exclusively activate the neurons that belong to the cell assembly - it also activates a large fraction of control neurons, overshadowing memory recall. On the other hand, low values of the I → I coupling strength together with high values of the I → E coupling strength lead to extensive levels of inhibition, suppressing the neuronal activity during recall. In other words, the activity induced by a recall stimulus will immediately be suppressed by the high level of inhibition, also impeding memory recall. As a result, the level of inhibition has to be within a specific regime to enable learning, consolidation, and successful recall of memories (indicated by the red box Q(10s-recall) ≥ 0.03). This regime is characterized by medium levels of population activity. The functionality is relatively stable given variations in the mean background current Mən0 (Supplementary Fig. S6), while also the mean firing rate only weakly depends on the mean background current (Supplementary Fig. S3b). Furthermore, the recall quality remains relatively high at low learning and recall stimulus frequencies, except for very low frequencies, where the memory functionality ceases (Supplementary Fig. 7). This resilience is partially due to the number of 25 putative input neurons. In summary, the level of inhibition within the described regime of functionality seems to be sufficient to prevent the overly activation of control neurons, while it remains low enough to allow the desired activation of the non-stimulated neurons within the cell assembly. Please note that such a regime is related to the network state of loosely balanced excitation and inhibition (ref. 54 also see “Discussion” section).

Sufficient memory functionality is found within a certain regime, marked by a red box (Q(10s-recall) ≥ 0.03). Two measures of recall quality are shown: a, b the pattern completion coefficient Q (with nonsignificant values set to zero, see “Methods” section) c, d the mutual information MIν between the neuronal activities in the network during learning and during recall. e, f For comparison, the neuronal activity averaged over the whole excitatory population is shown. All three observables were averaged over ten trials. Parametrlər: nCA = 150, Mən0 = 0.15 nA.

The regime of memory functionality is the same either 10 s or 8 h after providing the learning stimulus. However, the higher values of Q and MIν after 8 h compared to the 10 s case indicate a positive influence of long-term dynamics on the memory functionality. We further investigate and discuss this result in the next section.

As further parameter, we examined the influence of the size of the cell assembly on the memory functionality (Fig. 5a, b). We controlled the size by varying the number of neurons being the subgroup that is stimulated by the learning stimulus. Following our definition of memory functionality, requiring that the coefficient Q ≥ 0.03, we found that learning and recall is only possible if the cell assembly is large enough. In the following, we will focus on a particular set of parameter values for the inhibition (wie/h0 = 4, wii/h0 = 4). All derived conclusions apply to all sets within the specific regime of inhibition discussed before (red box in Fig. 4). For small cell assemblies (here

100 neurons), the group of neurons is too small to exhibit functional pattern completion (threshold indicated by the dotted red line in Fig. 5a, b). For large cell assemblies (here >500 neurons), the activity of the cell assembly becomes self-sustained. This means that after learning the neurons within the cell assembly stay active, preventing the typical dynamics of memories we are looking for. Moreover, the measures of the recall quality exhibit local maxima. The occurrence of these maxima cannot be explained by the relationship between the mean firing rate and the cell assembly size, because this relationship is strictly monotonic and does not feature any maximum (Supplementary Fig. S3a). Therefore, we reason that the maxima emerge from the additional stimulation by the recall cue. Finally, similar to Fig. 4, the pattern completion coefficient and mutual information become higher 8 h after learning compared to 10 s after learning for a large range of cell assembly sizes, which will be examined further in the next section.

a Pattern completion coefficient 10 s (orange) and 8 h (purple) after learning. The dotted red line indicates the threshold for memory functionality (Q ≥ 0.03). b Mutual information of the neuronal activities 10 s (yellow) and 8 h (green) after learning. c Relative gain in pattern completion coefficient between 10 s and 8 h after learning. d Relative gain in mutual information of the neuronal activities between 10 s and 8 h after learning. ad Averaged over ten trials parameter values: wie/h0 = 4, wii/h0 = 4. e Relative gain in pattern completion coefficient, f relative gain in mutual information, averaged over the mean gain values (from ten trials) of all inhibition parameter sets that yielded functional memory for the respective cell assembly size (i.e., the sets with Q(10s-recall) ≥ 0.03, for size 150 cf. the red boxes in Fig. 4). Error bars indicate in a, b, the standard deviation across ten trials, in c, d, the error propagated from a, bvə daxilində e, f, the error propagated from the standard deviations (from ten trials) of the functional parameter sets.

Consolidation improves memory recall

Comparing the recall quality of the cell assembly 10 s after learning with the recall quality 8 h after learning for different paradigms (Figs. 4 and 5a, b), we found that 8 h after learning the system generally exhibits an improved recall quality. In other words, the specific state of the cell assembly after 8 h, resulting from the interplay between calcium-dependent synaptic plasticity and the STC mechanisms, seems to facilitate recall. To elucidate the magnitude of the improvement effect, we computed the relative gain in recall quality between the state 10 s after learning and the state 8 h after learning, and present results for the particular inhibition setting that we chose before (Fig. 5c, d). It becomes obvious that improvement in recall quality can occur by >200% with respect to the pattern completion coefficient, and by as much as 30% with respect to the mutual information.

To test the robustness of the improvement effect across the specific inhibition regime identified before, we averaged MIνQ over the range of parameter settings of this regime and calculated the relative gain in recall quality (Fig. 5e, f). For the chosen inhibition setting wie/h0 = 4, wii/h0 = 4 (Fig. 5c, d), as well as for the averaged results (Fig. 5e, f), we observed a positive gain across all cell assembly sizes. Positive gain means that 8 h after learning the performance was better than 10 s after learning. Thus, for a wide range of parameter settings, the passage of time yields an improvement of the recall quality.

What are the underlying principles that lead to this improvement of the recall quality? We could identify two processes, both being related to the STC mechanisms: an active and a passive improvement.

The active improvement is related to the dynamics of the early-phase weights. The recall stimulus provided 10 s after learning only leads to minor variations of the average early-phase weight in the cell assembly (dashed red line at “R” in Fig. 6a). By contrast, 8 h after learning the recall stimulus triggers a substantial increase of the average early-phase weight which in turn results in a stronger total synaptic weight (dashed red and orange line at “R” in Fig. 6b). Thus, 8 h after learning the average total synaptic weight of the cell assembly increases during the recall, which improves the recall performance (Fig. 5). By comparing the state of the neural network between both time points, we find that the average early-phase weight before the 10s-recall resides on a much higher level than before the 8h-recall (Fig. 6c). This difference in early-phase weight before recall stimulation could explain the different dynamics of the early-phase weights during the recall. Considering the mathematical formulation of the model, one can see that the change of the early-phase weight depends on the distance of the actual early-phase weight h from its initial or equilibrium value h0. Hence, larger changes occur if the early-phase weight is closer to the equilibrium state, while the changes remain smaller if the early-phase weight is close to its maximum value. Thus, the learning stimulus “pushes” the early-phase synaptic weight into a regime in which the subsequent recall cannot trigger further strengthening. However, with the passage of time the early-phase weight decays (while the late-phase weight increases) until it reaches the vicinity of its initial value (Fig. 6b, c). In this regime, a recall stimulus can again trigger an increase of the early-phase weight, supporting pattern completion. The detailed weight distributions for all cases presented in Fig. 6c and additional data revealing the weights between subpopulations of the network are shown in Supplementary Figs. S4 and S5. To further scrutinize the relation between the early-phase dynamics during recall and the improved recall quality, we performed simulations in which we switched off or blocked early-phase plasticity after learning. Comparing the resulting recall performances with the simulations with early-phase plasticity (Fig. 7), for both measures Q and MIν, we did not find an influence of the blockage during 10s-recall but during 8h-recall. These results further support our finding that the dynamics of the early-phase weights within the cell assembly are one essential part underlying the improvement of the recall quality.

a During the first seconds after the learning stimulus (“L”), the average early-phase weight (red) of the synapses connecting the stimulated neurons increases, while the average late-phase weight remains constant (blue). A recall stimulus (“R”), provided 10 s after the learning stimulus, does not exert a substantial effect on the synaptic weights. b Several hours after learning, the average early-phase weight decays, while the late-phase increases such that the average total synaptic weight remains on a high level. Providing a recall stimulus 8 h after learning triggers an increase of the average early-phase weight and, thus, of the total synaptic weight. a, b Averaged over ten trials the error bands (representing the standard deviation) are too small to be visible. c Mean early- and late-phase weights within the assembly and within the non-assembly (control) population immediately before and immediately after the 10s and 8h-recall. A.i. active improvement component (difference between solid blue and blue hatches) P.i. passive improvement component (difference between orange grating and blue hatches). Data from one sample network. Error bars show the standard deviation across the subpopulation. See Supplementary Figs. S4 and S5 for detailed distributions of the underlying data. Parameter setting: wie/h0 = 4, wii/h0 = 4, nCA = 150.

The effect of early-phase synaptic plasticity on the total improvement is significant (compare 8h-recall with 8h-recall no pl.: A.i. active improvement), but it does not cover the complete level of improvement (compare 10s-recall with 8-h recall no pl.: P.i. passive improvement). a Pattern completion coefficient Q b mutual information MIνc relative gain in Q and MIν from 10s-recall to 8h-recall. All observables averaged across ten trials. Error bars indicate standard deviation across the ten trials in a, b and the propagated error in c. Parameter setting: wie/h0 = 4, wii/h0 = 4, nCA = 350 (value of the maximum in Fig. 5c, d).

The other part of the improvement of the recall quality is related to the dynamics of the late-phase weights within the cell assembly. We refer to this part as passive improvement. As expected, 8 h after learning the STC mechanisms yield a decrease of the average early-phase weight (red line in Fig. 6b) accompanied by an increase of the average late-phase synaptic weight in the assembly (blue line) that indicates the process of synaptic consolidation. However, if we compare the average total synaptic weight within the assembly before the 10s-recall with the one before the 8h-recall (Fig. 6), we identify an increase that suggests a second component underlying the improvement of recall quality. This is also indicated by the relative gain in Q and MIν without early-phase plasticity (Fig. 7). Hence, although the dynamics of the early-phase weights (active improvement) explains the gain in recall quality to a large extent, there is a remaining part that is related to the dynamics of the late-phase weights (passive improvement).

Parameter dependency of the passive improvement

We have found that the mean total weight of a cell assembly can increase over time, and refer to this phenomenon as passive improvement (cf. Fig. 6c). This effect is elicited by the mechanisms of STC and occurs if the mean normalized late-phase weight ( ildecdot _<0>) after 8 h becomes higher than the mean early-phase weight ( ilde) after learning. To investigate and predict the circumstances under which this effect occurs, namely, different settings of late-phase-related constants, we considered an analytical approach that we present in the following.

To investigate the parameter dependency of consolidation and improvement of a cell assembly, we analytically solve the linear first-order differential equation describing the dynamics of late-phase LTP (cf. Eq. (14)) with a variable coefficient introduced by the time-dependent amount of proteins (Eq. (15)). Since L-LTP is vastly predominant between cell assembly neurons, we neglect here the L-LTD dynamics.

Thus, the analytical expression for the mean late-phase weight after time t after learning in the case of persistent tags and protein synthesis is:

depending on the protein time constant τsəh, the late-phase time constant τz, the initial protein amount səh0, the initial late-phase weight z0, and the protein synthesis rate α. Note that this equation only holds if tags have been set and as long as they have not vanished, which we will address later. This solution can be further simplified under the condition that the initial late-phase weight z0 and the initial protein amount səh0 are zero. The mean increase in late-phase weight due to the STC mechanisms is then:

For Eq. (2), we considered that the synapses within the cell assembly are always tagged, triggering changes of the late-phase weights. However, after learning the early-phase weight decays (Fig. 6b) and falls at a certain point in time below the tag-sufficient threshold. Thus, first, we have to calculate the decay of the mean early-phase weight and, then, use it to determine at what time the tag will have vanished. The average decaying early-phase weight follows

depending on the mean early-phase weight after learning ( ilde) , the time after learning tal, the initial weight h0, and the early-phase time constant τh. The time tal is a time after learning (for instance, 10 s) at which ( ilde) , the mean learning-induced increase in early-phase weight, is measured. Setting hd(t) to the value of the tagging threshold θetiket + h0 yields the point in time tetiket at which the synaptic tags will have vanished on average:

The synaptic tags typically vanish before the synthesis of new proteins stops and, thus, tetiket determines the end of late-phase changes, such that the average late-phase weight is described by

Hence, for parameter sets yielding tetiket < 8 h (cf. Eq. (4)), the mean late-phase weight before the 8h-recall is the same as by the time the tags vanished (see also Fig. 6b, blue line):

In Fig. 8a, we plot the mean weights within the cell assembly, using our numerical results for early-phase LTP during learning and recall to compute the late phase via the analytical function in Eq. (5) and the decay of the early-phase weight as detailed in Eq. (3). As expected, we find that this analytical approach predicts very well the mean weight dynamics of our numerical simulations (dashed gray line in Fig. 8a, cf. Fig. 6b).

a The early-phase values immediately after learning (“L”) and after recall (“R”) were taken from the average over numerical simulations (Fig. 6b) and inserted into the analytical equations for the late-phase dynamics (Eq. (5)) and the early-phase decay (Eq. (3)). The curves are in very good match with the simulated results, the total weight of which is shown here for comparison by the dashed gray line (cf. Fig. 6b). b, c Varying the time constants for late-phase dynamics τz and protein amount τsəh (b), as well as the protein synthesis rate α (c), shows that for slower time scales and lower synthesis rate, the passive weight change becomes negative, i.e., there is a passive deterioration instead of improvement. The black separatrix line demarcates the two regimes of improvement and deterioration. The red boxes indicate the parameter values used in our numerical studies.

When we compare the mean total weight 8 h after learning w(t = 8 h) with the mean total weight 10 s after learning w(t = 10 s), we obtain an expression for the passive weight change realized by the STC mechanisms, thus, of the passive improvement:

If Δw > 0, the system shows a passive improvement with the passage of time, which is given for a wide range of parameter values. For instance, by considering different values of the protein synthesis parameters, namely the time constant of the protein amount τsəh (Fig. 8b) and protein synthesis rate α (Fig. 8c), depending on the time scale of the late-phase dynamics τz, we can determine the influence of protein synthesis on the passive improvement. We find that, if the protein time scale becomes too high or the synthesis rate becomes too low, the passive weight change switches from improvement to deterioration. However, the protein dynamics can be much slower than in our numerical simulations (red box) and still the STC mechanisms yield an improvement. For the protein synthesis rate, there is just as well a wide range of values that gives rise to improvement. Thus, the encountered improvement effect is robust to parameter variations.

Our analytical results lead to the following predictions: if the time scale of the protein dynamics is manipulated, the resulting memory behavior should switch between passive improvement and deterioration. In addition, manipulating the speed of signaling cascades that are involved in late-phase LTP should have a similar effect. Taking this into account, our predictions can be useful to narrow down the set of possible proteins and processes involved in STC.

Intermediate recall further amplifies memory improvement

There are several psychological studies that investigate hypermnesia/improvement by considering the memory strength after multiple recalls 55,56,57 . Therefore, we also investigated the impact of an intermediate recall on the memory dynamics. For this, we computed the gain in the pattern completion coefficient Q and in the mutual information MIν between 10s-recall and 8h-recall after applying an additional, intermediate recall stimulus to randomly drawn neurons.

We varied the time of occurrence of this intermediate stimulus (Fig. 9). The gain in recall quality for early intermediate recall (minutes after learning) shows little difference to the gain without intermediate recall (data point at time zero). For late intermediate recall, the gain reaches values that are much higher compared to the case without intermediate recall. Hence, additional recall improves the recall quality even further, which is consistent with the experimental findings 55,56,57 .

a Gain in pattern completion coefficient Q b gain in mutual information MIν. Parameter values: wie/h0 = 4, wii/h0 = 4, nCA = 150. Averaged over ten trials. Error bars indicate the error propagated from the standard deviations across ten trials for both 10s-recall and 8h-recall. The data points at time zero show the case without intermediate recall (as in Fig. 5c, d).


Elm

Engineering is the discipline of design and construction of mechanical devices, equipment, structures and public works systems. Topics include aircraft technologies, buildings, bridges, robotics and heavy machinery.

Blocky and Raw: Is Brutalism Architecture Making a Comeback?

Crumple Theory: We Can Learn a Lot From How Paper Crumples

Vietnam's Rong Dragon Bridge Actually Breathes Fire

The Lost Art of True Damascus Steel

Environmental Science

The environment is truly a thing of beauty and should be protected whenever possible. What can we do to save the environment, and what new technology is available to help us?

How the Mohs Scale Ranks Hardness

Malachite Is the Gorgeous Green Gemstone Cleopatra Wore

Tanzanite Is Africa's Real Blue Diamond

France's Mysterious Fosse Dionne Spring Stubbornly Keeps Its Secrets

Forces of Nature

We see the destruction that the Earth can unleash in the news on a regular basis. Here you can learn about hurricanes, tornadoes, earthquakes and other forces of nature.

Why the Mount Nyiragongo Volcano in the Congo Is so Dangerous

Here's How Scientists Predict the Next Hurricane Season

What's the Coldest Place on Earth?

Scientists Detected a Space Hurricane for the First Time. What's That?

Yenilik

Do you know how common everyday items, such as mirrors, fireworks or sunglasses work? This collection of Innovation articles explores the workings of objects you may come into contact with on a regular basis.

Graphene: 200 Times Stronger Than Steel, 1,000 Times Lighter Than Paper

Jerry Lawson Forever Changed the Video Game Industry

How Hollywood Screen Siren Hedy Lamarr Helped Pioneer WiFi and GPS

Video Software System Syncs Lips to Other Languages

Life Science

From the smallest microbe to the largest mammal, Life Science explores the origins, evolution and expansion of life in all its forms. Explore a wide range of topics from biology to genetics and evolution.

Batesian Mimicry: How Copycats Protect Themselves

Brainless, Footless Slime Molds Are Weirdly Intelligent and Mobile

What Is the Marshmallow Test and Can Animals Pass It?

How Bad Is Black Mold, Really?

Hərbi

Explore the weapons and combat systems used by the armed services. A broad range of topics in the Military Channel includes tanks, aircraft, biological warfare and stealth technologies.

What Are the Mysterious 'Havana Syndrome' Attacks in D.C.?

How Israel's Iron Dome Defense System Works

Tsar Bomba: The Most Powerful Nuclear Weapon Ever Built

How You Can Help Veterans Every Day

Physical Science

Physical science is the study of the physical world around you. Learn about everything from electricity to magnetism in this section.

A Kid-friendly Introduction to Magnets and Magnetism

National Chlorine Shortage Could Spoil the U.S. Summer

Gravitational Constant Is the "G" in Newton's Law of Universal Gravitation

How to Use the Unit Circle in Trig

Science Dictionary

Do you know what a meteor is, or what scientists mean when they are talking about cryogenics? Our collection of science terms explains the meaning of some of the most common scientific ideas.

5 Facts About Marie Curie and the Winningest Nobel Prize Family in History

What Is Planck's Constant, and Why Does the Universe Depend on It?

Can You Nominate Yourself for a Nobel Prize?

Science Vs. Mif

Are vampires real? What is an out-of-body experience? Are crop circles proof that aliens exist? HowStuffWorks explores what is real and what is urban legend with this collection of Science Versus Myth articles.

Are Jackalopes Really Roaming the State of Wyoming?

Astral Projection: An Intentional Out-of-body Experience

Are Chewbacca and Bigfoot Related?

What's the Difference Between Sasquatch and Bigfoot?

Space

Explore the vast reaches of space and mankind’s continuing efforts to conquer the stars, including theories such as the Big Bang, the International Space Station, plus what the future holds for space travel and exploration.

4 Ways to Experience Outer Space Right Here on Earth

Here's Why NASA Is Returning to Venus After 40 Years

Are Pentagon-confirmed UFOs a National Security Threat?

NASA Moon Trees Still Stand as Testament to Apollo 14

Nəqliyyat

Many of us take public transportation or fly in airplanes on a regular basis, but have you ever wondered how all of these things work? This collection of transportation articles help explain how people get from place to place.


4 Cavablar 4

"But a itself is not pointing to another region of memory, it IS the region of memory itself.

"So when the compiler converts it to a pointer, does it save it (like p ) somewhere in memory or it's an implicit conversion?"

It is an implicit conversion. The compiler does not implement the creation of a separate pointer object in memory (which you can f.e. assign in any manner with a different memory address) to hold the address of the first element.

The standard states (emphasize mine):

"Except when it is the operand of the sizeof operator, or the unary & operator, or is a string literal used to initialize an array, an expression that has type "array of type" is converted to an expression with type "pointer to type" that points to the initial element of the array object and is not an lvalue. If the array object has register storage class, the behavior is undefined."

Source: ISO/IEC 9899:2018 (C18), 6.3.2.1/4

The array is converted to an expression of pointer type, it is not an lvalue .

The compiler just evaluates a to &a[0] (pointer to a[0] ).

"I understand that array names are converted to pointers."

An array does not always convert to a pointer to its first element. Look at the first part of the quote above. F.e. when used as &a , a does not decay to a pointer to its first element. Rather it gains a pointer to the whole array int (*)[3] .

A value is an abstract concept—it is some meaning, often mathematical. Numbers have values like 4, 19.5, or −3. Addresses have values that are locations in memory. Structures have values that are the values of their members considered as an aggregate.

Values can be used in expressions, such as 3 + 4*5 . When values are used in expressions, they do not have any memory locations in the computing model that C uses. This includes values that are addresses, such as &x in &x + 3 .

Objects are regions of memory whose contents can represent values. The declaration int *p = &x defines p to be an object. Memory is reserved for it, and it is assigned the value &x .

For an array declared with int a[10] , a is an object it is all the memory reserved for 10 int elements.

When a is used in an expression, other than as the operand of sizeof or unary & , the a used in the expression is automatically converted to the address of its first element, &a[0] . This is a value. No memory is reserved for it it is not an object. It may be used in expressions as a value without any memory ever being reserved for it. Note that the actual a is not converted in any way when we say a is converted to a pointer, we mean only that an address is produced for use in the expression.

All of the above describes semantics in the computing model C uses, which is that of some abstract computer. In practice, when a compiler works with expressions, it often uses processor registers to manipulate the values in those expressions. Processor registers are a form of memory (they are things in a device that retain values), but they are not the “main memory” we often mean when we speak of “memory” without qualification. However, a compiler may also not have the values in any memory at all because it calculates the expression in part or in full during compilation, so the expression that is actually computed when the program is executing might not include all the values that are nominally in the expression as it is written in C. And a compiler might also have the values in main memory because computing a complicated expression might overflow what is feasible in the processor registers, so that parts of the expression have to be temporarily stored in main memory (often on a hardware stack).


6 CONCLUSIONS

A quantum computer can store and manipulate states which, if represented classically, would correspond to vast amounts of information, and execute some algorithms that are exponentially faster than any classical alternative. The potential of even small quantum computers to outperform the best supercomputers on certain tasks may prove transformative to computational biology, promising to make impossible problems difficult, and difficult problems routine. Early quantum processors that can solve useful problems are expected to arise within the next decade. Understanding what quantum computers can and cannot do is therefore a priority for every computational scientist. In this review, we have attempted to give an overview of the technology that may soon revolutionize computational biology. Although we have been unable to cover every topic, we have introduced the principles of quantum information processing and discussed three areas of importance.

Although we are just entering the era of practical quantum computation, it is already possible to glimpse an emerging quantum computational biology within the next decades [ 29 ]. We hope that this review will arouse the interest of the computational biologist in the technologies that may soon disrupt their field, and attract the quantum information practitioner to the fertile field of computational biology, from where many meaningful applications are expected to arise.


10.1.2. Queries, Keys, and Values¶

Inspired by the nonvolitional and volitional attention cues that explain the attentional deployment, in the following we will describe a framework for designing attention mechanisms by incorporating these two attention cues.

To begin with, consider the simpler case where only nonvolitional cues are available. To bias selection over sensory inputs, we can simply use a parameterized fully-connected layer or even non-parameterized max or average pooling.

Therefore, what sets attention mechanisms apart from those fully-connected layers or pooling layers is the inclusion of the volitional cues. In the context of attention mechanisms, we refer to volitional cues as queries. Given any query, attention mechanisms bias selection over sensory inputs (e.g., intermediate feature representations) via attention pooling. These sensory inputs are called dəyərlər in the context of attention mechanisms. More generally, every value is paired with a key, which can be thought of the nonvolitional cue of that sensory input. As shown in fig_qkv , we can design attention pooling so that the given query (volitional cue) can interact with keys (nonvolitional cues), which guides bias selection over values (sensory inputs).

Note that there are many alternatives for the design of attention mechanisms. For instance, we can design a non-differentiable attention model that can be trained using reinforcement learning methods [Mnih.Heess.Graves.ea.2014] . Given the dominance of the framework in fig_qkv , models under this framework will be the center of our attention in this chapter.


Videoya baxın: Yaddaş zəifliyi - Dr Günel Ümid (Oktyabr 2022).