Решение на такава задача от мозъка може да бъде обработката на информация от обикновеното зрение (human vision). Във функциите на зрителната



Pdf просмотр
страница22/58
Дата08.04.2022
Размер1.78 Mb.
#114042
ТипРешение
1   ...   18   19   20   21   22   23   24   25   ...   58
book
Свързани:
Kniga uchitel IT 6. klas Даниела Убенова (1), Kniga uchitel IT 8. klas Даниела Убенова, elektronno-obuchenie
2.4.Конкурентно обучение

Както следва от самото наименование, в конкурентното обучение (competitive learning), изходните неврони на невронните мрежи се конкурират помежду си за правото да бъдат активни. Ако невронната мрежа е основана на обучението на Хеб, едновременно във възбудено състояние могат да се намират няколко неврона, а в конкурентните мрежи във всеки един момент от време може да е активен само един неврон. От това свойство следва, че конкурентното обучение е удобно за изучаване на статистическите свойства използвани в задачите за класификация на образи.
Правилото на конкурентото обучение се основата на три основни елемента:
 Mножеството еднакви неврони със случайно разпределени синаптически тегла водят до различни реакции на невроните на един и същ входен сигнал.
 Пределна стойност (limit) на някой неврон


45
 Механизъм позволяващ на невроните да се конкурират за правото на отговор на дадено подмножество на входния сигнал и определят единственият активен изходен неврон (или по един неврон на група). Неврона победител в това съревнование се нарича неврон-победител, а принципа на конкурентното обучение формулира лозунга „победителя взема всичко”.
Така на всеки отделен неврон от мрежата съответстват група от близки образи, при това невроните се превръщат в детектор на признаците на различните класове от входни образи. Най-простата невронна мрежа с конкурентно обучение съдържа единствен слой изходни неврони, всеки от които е съединен с входни възли. В такива случай могат да съществуват обратни връзки между невроните (фиг. 2.4.). В подобна архитектура обратната връзка обезпечава латерално спиране, когато всеки неврон се стреми да спре свързаните с него неврони.
Фиг. 2.4. Архитектура на граф на проста мрежа на конкурентно обучение с прави (възбуждащи) връзки от входните възли на невроните и обратни (задържащи) връзки между невроните. (Последните са обозначени на рисунката с незащриховани стрелки).
Преките синаптически връзки, показани на фиг.2.4, се явяват възбуждащи
(excitatory).
За да победи дадения неврон к в конкурентната борба за индукционното локално поле за зададения входен образ x трябва да бъде максимален в средата на цялата невронна мрежа. Тогава изходният сигнал на неврона победител к преминава в стойност 0. Това може да се запише така:
Където индукционното локално поле представлява свободно възбуждане на неврона к от всеки входен сигнал и сигнал за обратна връзка.
Нека е синаптическото тегло на връзката на входния възел j с неврона к.
Предполагаме, че синаптическите тегла на всички неврони са фиксирани
(положителни), при това:
Тогава обучението на този неврон се състои в изместване на синаптическите тегла от неактивните към активните входни възли. Ако неврона не формира отговор на


46
конкретен входен образ, то той не се обучава. Ако някой неврон побеждава в конкурентната борба, то теглото за връзка на този неврон равномерно се разпределя между неговите активни входни възли, а връзките с неактивните входни възли.
Фиг.2.5. Геометрична интерпретация на процеса на конкурентно обучение.
Точките представляват входни вектори, а кръсчетата – вектори на синаптическите тегла на три изходни неврона в изходен (а) и крайно състояние на мрежата (б).
Съгласно правилото за конкурентно обучение (competitive learning rule) изменението на синаптическите тегла се определя от следния израз:
Където е параметър на скоростта на обучение. Това правило отразява изместването на вектора на синаптическите тегла на победилия неврона к в страната на входния образ х.
За илюстриране на съществуващото конкурентно обучение можем да използваме геометричната аналогия (фиг. 2.5.). Предполага се, че всички входни образи имат някаква постоянна Евклидова норма. Така те могат да се изброят във вид на точки в N- мерна единична сфера, където N е количеството на входните възли. N се явява размерност на векторите на синаптическото тегло
. Предполага се, че всички невроннни мрежи имат същата Евклидова норма, т.е.
Ако синаптическите тегла са правилно мащабирани те формират набор от вектори, които се проектират на същата N-мерна единична сфера. На фиг. 2.5, а могат да се отделят три естествени групи клъстери от точки, представляващи входни образи.
На фигурата е показано и вероятността на началното състояние на мрежата, отбелязано с кръстчета до началото на обучението. На фиг. 2.5, б е показано крайно състояние на мрежата получено като резултат на конкурентото обучение, което синаптическите тегла на всеки изходен неврон са изместени към центъра на тежестта на съответните клъстери.
От примера се вижда способността на невронните мрежи да решават задачи за клъстеризация в процеса на конкурентното обучение. Устойчивите решения на задачите за входни образи са длъжни да формират различни групи от вектори, иначе


47
мрежата може да стане неустойчива, тъй като в отговор на зададен входен образ ще се формират отзвуци от различни изходни неврони.


Сподели с приятели:
1   ...   18   19   20   21   22   23   24   25   ...   58




©obuch.info 2024
отнасят до администрацията

    Начална страница