62
невроните са сложни. В модела, показан на фиг. 2.17,
а е представен общият резултат от всички синаптически контакти между дендритните неврони на входния слой и отговарящите аксони на невроните на изходния слой биха се използвали като идеално съединение. Нивото на активност на невроните на входния слой може да укаже влияние на степента на активност на невроните от изходния слой. а) Компонентен модел на асоциативната памет на невронна система б) Модел на асоциативната памет с изкуствени неврони
Фиг.2.17. Модели на асоциативната памет
Аналогична е ситуацията за
изкуствените невронни мрежи, показани на фиг.
2.17,
б. В дадения случай възлите на източника на входния слой и невроните на изходния слой работят като изчислителни елементи. Синаптическите тегла се интегрират в невроните на изходния слой. Връзките между двата слоя на мрежата представляват сбор от съединения.
Изображенията на фиг.2.17, се считат за
линейни. В резултат на това се предполага, че всички неврони се представят като линейни суматори на граф за предаване на сигнали. (фиг.2.18). За анализа предполагаме, че във входния слой се предава образа , а в изходния слой възниква образа
63
Фиг.2.18. Граф за предаване на сигнала на
i-я неврон
Ще разгледаме въпроса за обучение основано на асоциациите между образите и
. Образите и
са представени като вектори, разгърната форма на които има следния вид:
За удобство предполагаме, че размерността на входните и изходните сигнали съвпада и е равна на
т, т.е. размерностите на векторите и са еднакви. Нека
т се нарича
размерност на мрежата (network dimensionality) или просто
размерност. И нека
т е равно на количеството възли на източника на входния слой и числото на изчисляване на неврона на изходния слой. В реалните невронни мрежи размерността
т може да бъде достатъчно голяма.
Елемнтите на векторите и могат да приемат както положителни, така и отрицателни стойности. В изкуствените невронни мрежи тези допускания се явяват естествени. Такава ситуация е
характерна за невронна система, ако разглеждаме пороменлива равна на разликата между фактическото ниво на активност (т.е. степентта на възбуждане на неврона) и произволно ненулево ниво на активност.
Отчитайки линейната мрежа, показана на фиг. 2.17, асоциира между ключовия вектор и запомнения вектор може да предсатви в матричен вид:
Където
- матрица на теглата, определяща двойката „вход-изход” ( ,
). За да опишем матрицата на тегловите коефициенти
, използваме фиг.2.18, на която е представена схема на
i-я неврон на изходния слой. Изхода на този неврон се изчислява като претеглена сума на елементите на ключовия образ по следващата формула:
64
Където
- синаптически тегла на неврона
i, съответстващ на
к- та двойка на асоциативните образи. Използваме матрично представяне на елементите
, която може да се запише в следния еквивалентен вид:
Векторът-стълб в дясната част на равенството (2.29)
представлява ключов вектор Заместваме израза (2.29) в вектора с размерности
, получаваме:
Съотношението (2.30) описва матричното преобразование (2.27) в разгърнат вид. В частност матрицата с размерност се определя от:
Отделните представяния на q двойки на асоциативните образи формират стойностите на елементите на отделните матрици
. Отчитайки факта, че тази асоциация на образите се представя от матрицата на теглата
,
матрицата на паметта (memory matrix) с размерност може да се определи като сума от матрици на тегловите коефициенти на цялата асоциация:
Матрицата М определя връзките между входните и изходните слоеве на асоциативните памети. Тя представлява
опит (experience), натрупан в резултат на подаване на q образа, представени във вида на двойките „вход-изход”. С
други думи в М се съдържат данни за всички двойки „вход-изход”, представени за запис в паметта.
Описанта матрица на паметта (2.32) може да бъде записана в рекурсивна форма:
Където
- изходната матрица се явява нулева (т.е. всички синаптически тегла напаметта са равни на нула), а окончателната матрица съвпада с матрицата
М, определена от израза (2.32). В съответсвие с рекурсивната формула (2.33) под обозначението се разбира матрица, получена на к + 1 стъпка на асоциация, а под се разбира обновената матрица, получена в резултат на добавяне на
, получена на основата на
к-те двойки вектори.