АДАПТИВНАЯ ДАП
В версиях ДАП, рассматриваемых до сих пор, весовая матрица вычисляется в виде суммы произведений пар векторов. Эти вычисления полезны, поскольку они демонстрируют функции, которые может выполнять ДАП. Однако это определенно не тот способ, посредством которого производится определение весов нейронов мозга.
Адаптивная ДАП изменяет свои веса в процессе функционирования. Это означает, что подача на вход сети обучающего набора входных векторов заставляет ее изменять энергетическое состояние до получения резонанса. Постепенно кратковременная память превращается в долговременную память, настраивая сеть в результате ее функционирования. В процессе обучения векторы подаются на слой А, а ассоциированные векторы на слой В. Один из них или оба вектора могут быть зашумленными версиями эталона; сеть обучается исходным векторам, свободным от шума. В этом случае она извлекает сущность ассоциаций, обучаясь эталонам, хотя «видела» только зашумленные аппроксимации.
Так как доказано, что непрерывная ДАП является стабильной независимо от значения весов, ожидается, что медленное изменение ее весов не должно нарушить этой стабильности. В работе [10] доказано это правило.
Слава Україні!
Адмін сайту, який є громадянином України та безвиїзно перебуває в Україні на протязі всього часу повномасштабної російської агресії, зичить щастя та мирного неба всім українським хлопцям та дівчатам! Також він рекомендує українським трейдерам кращих біржових та бінарних брокерів, що мають приємні торгові умови та не співпрацюють з російською федерацією. А саме:
Exness – для доступу до валютного ринку;
RoboForex – для роботи з CFD-контрактами на акції;
Deriv – для опціонної торгівлі.
Ну, і звичайно ж, заборонену в росії компанію Альпарі, через яку Ви маєте можливість долучитися як до валютного ринку, так і до торгівлі акціями та бінарними опціонами (Fix-Contracts). Крім того, Альпарі ще цікава своїми інвестиційними можливостями. Дивіться, наприклад:
рейтинг ПАММ-рахунків;
рейтинг ПАММ-портфелів.
Все буде Україна!
Простейший обучающий алгоритм использует правило Хэбба [8], в котором изменение веса пропорционально уровню активации его нейрона-источника и уровню активации нейрона-приемника. Символически это можно представить следующим образом:
?wij = ?*(OUTi OUTj), (7.5)
где ?wij – изменение веса связи нейрона i с нейроном j в матрицах W или Wt, OUTi – выход нейрона i слоя 1 или 2; ? – положительный нормирующий коэффициент обучения, меньший 1.
|