Решение на такава задача от мозъка може да бъде обработката на информация от обикновеното зрение (human vision). Във функциите на зрителната



Pdf просмотр
страница33/58
Дата08.04.2022
Размер1.78 Mb.
#114042
ТипРешение
1   ...   29   30   31   32   33   34   35   36   ...   58
book
Свързани:
Kniga uchitel IT 6. klas Даниела Убенова (1), Kniga uchitel IT 8. klas Даниела Убенова, elektronno-obuchenie
2.11. Памети
Обсъждането на задачите за обучение, особено задачите за асоциативната памет, съставят задачите на самата памет (memory). В контекста на невробиологята под памет се разбира относителното продължение на временната деформация на структурата на неврона, оказваща влияние на организма. Без тези деформации паметта не съществува.
В паметта предварително трябва да се съберат определени модели на поведение. Това се осъществява чрез процеса на обучение (learning process). Паметта и обучението са тясно взаимосвързани. При изучаването на някой образ той се съхранява в структурата на мозъка, откъдето може да бъде извлечен в случай на необходимост. Формално паметта може да се раздели на кратковременна и дълговреманна в зависимост от срока на възможно съхранение на информацията. Кратковременната памет отразява текущото състояние на околната среда. Всяко „ново” състояние на средата, различно от образа, съдържащ се в краткотрайната памет, води до обновяване на данните в паметта.
В дълготрайната памет се съхраняват знания за продължително (постоянно) използване.
Асоциативната памет се характеризира със следните особености:
 Тази памет е разпределена;
 Стимулите (ключове) и отговорите (съхранени образи) в асоциативната памет представляват сбор на вктори от данни;
 Информацията се запомня с помощта на формиране на пространство от образи на невромрежовата активност на голямо количество неврони;
 Информацията, съдържаща се в стимулите, определя не само мястото, което тя заема, но и адреса за извличане;
 Не винаги невроните са най-надеждни за изчисляване на елементи и работа в условия на шум, паметта има висока устойчивост към смущения и изкривяване на данни;
 Между отделните образи съхранявани в паметта, могат да съществуват вътрешни взаимовръзки. (В противен случай размера на паметта трябва да е невероятно голям, че да събере всички отделни изолирани образи.) Така има вероятност от грешки при извличане на информация от паметта.
В разпределената памет (distributed memory) главн интерес представлява едновременно или почти паралелно функциониране на множество различни неврони при обработката на вътрешни или външни стимули. Невронната активност формира в паметта пространство от образи, съдържащи информация за стимулите. Така паметта изпълнява разпределително отразяване на образи в пространството на входните сигнали, а другите образи в изходното пространство. Някои важни свойства за отразяване на разпределителната памет могат да се видят на примера на идеализирана невронна мрежа, състояща се от два слоя неврони. На фиг. 2.17, а е показана мрежа, която може да се разглежда като модулен компонент на невронната система (model component of nervous system). Всички неврони от входния слой са съединени с всички неврони на изходния слой. В реалните системи синаптическите връзки между


62
невроните са сложни. В модела, показан на фиг. 2.17, а е представен общият резултат от всички синаптически контакти между дендритните неврони на входния слой и отговарящите аксони на невроните на изходния слой биха се използвали като идеално съединение. Нивото на активност на невроните на входния слой може да укаже влияние на степента на активност на невроните от изходния слой. а) Компонентен модел на асоциативната памет на невронна система б) Модел на асоциативната памет с изкуствени неврони
Фиг.2.17. Модели на асоциативната памет
Аналогична е ситуацията за изкуствените невронни мрежи, показани на фиг.
2.17, б. В дадения случай възлите на източника на входния слой и невроните на изходния слой работят като изчислителни елементи. Синаптическите тегла се интегрират в невроните на изходния слой. Връзките между двата слоя на мрежата представляват сбор от съединения.
Изображенията на фиг.2.17, се считат за линейни. В резултат на това се предполага, че всички неврони се представят като линейни суматори на граф за предаване на сигнали. (фиг.2.18). За анализа предполагаме, че във входния слой се предава образа , а в изходния слой възниква образа


63
Фиг.2.18. Граф за предаване на сигнала на i-я неврон
Ще разгледаме въпроса за обучение основано на асоциациите между образите и
. Образите и са представени като вектори, разгърната форма на които има следния вид:
За удобство предполагаме, че размерността на входните и изходните сигнали съвпада и е равна на т, т.е. размерностите на векторите и са еднакви. Нека т се нарича размерност на мрежата (network dimensionality) или просто размерност. И нека т е равно на количеството възли на източника на входния слой и числото на изчисляване на неврона на изходния слой. В реалните невронни мрежи размерността т може да бъде достатъчно голяма.
Елемнтите на векторите и могат да приемат както положителни, така и отрицателни стойности. В изкуствените невронни мрежи тези допускания се явяват естествени. Такава ситуация е характерна за невронна система, ако разглеждаме пороменлива равна на разликата между фактическото ниво на активност (т.е. степентта на възбуждане на неврона) и произволно ненулево ниво на активност.
Отчитайки линейната мрежа, показана на фиг. 2.17, асоциира между ключовия вектор и запомнения вектор може да предсатви в матричен вид:
Където
- матрица на теглата, определяща двойката „вход-изход” ( ,
). За да опишем матрицата на тегловите коефициенти
, използваме фиг.2.18, на която е представена схема на i-я неврон на изходния слой. Изхода на този неврон се изчислява като претеглена сума на елементите на ключовия образ по следващата формула:


64
Където
- синаптически тегла на неврона i, съответстващ на к- та двойка на асоциативните образи. Използваме матрично представяне на елементите
, която може да се запише в следния еквивалентен вид:
Векторът-стълб в дясната част на равенството (2.29) представлява ключов вектор
Заместваме израза (2.29) в вектора с размерности
, получаваме:
Съотношението (2.30) описва матричното преобразование (2.27) в разгърнат вид. В частност матрицата с размерност се определя от:
Отделните представяния на q двойки на асоциативните образи формират стойностите на елементите на отделните матрици
. Отчитайки факта, че тази асоциация на образите се представя от матрицата на теглата
, матрицата на паметта (memory matrix) с размерност може да се определи като сума от матрици на тегловите коефициенти на цялата асоциация:
Матрицата М определя връзките между входните и изходните слоеве на асоциативните памети. Тя представлява опит (experience), натрупан в резултат на подаване на q образа, представени във вида на двойките „вход-изход”. С други думи в
М се съдържат данни за всички двойки „вход-изход”, представени за запис в паметта.
Описанта матрица на паметта (2.32) може да бъде записана в рекурсивна форма:
Където
- изходната матрица се явява нулева (т.е. всички синаптически тегла напаметта са равни на нула), а окончателната матрица съвпада с матрицата М,
определена от израза (2.32). В съответсвие с рекурсивната формула (2.33) под обозначението се разбира матрица, получена на к + 1 стъпка на асоциация, а под се разбира обновената матрица, получена в резултат на добавяне на
, получена на основата на к-те двойки вектори.


65


Сподели с приятели:
1   ...   29   30   31   32   33   34   35   36   ...   58




©obuch.info 2024
отнасят до администрацията

    Начална страница