Решение на такава задача от мозъка може да бъде обработката на информация от обикновеното зрение (human vision). Във функциите на зрителната



Pdf просмотр
страница18/58
Дата08.04.2022
Размер1.78 Mb.
#114042
ТипРешение
1   ...   14   15   16   17   18   19   20   21   ...   58
book
Свързани:
Kniga uchitel IT 6. klas Даниела Убенова (1), Kniga uchitel IT 8. klas Даниела Убенова, elektronno-obuchenie
2.3. Обучение на основата на памет

При обучението основано на паметта (memory-based learning) всички предни опити са се натрупали в голямо хранилище за правилно класифициране на примери от вида вход-изход
, където
входен вектор, а съответстващия на него желан изходен сигнал. Не ограничаваме общността и може да предположим, че изходният сигнал се явява скаларен. Например задачата за бинарно разпознаване на образи или класификация на два класа (хипотези) и
. В този пример желаният резултат на системата приема стойностти 0 (или -1) за класа и стойност +1 за класа
. Ако е необходимо да се класифицират някой неизвестен вектор от база данни се избира изход, съответстващ на входният сигнал близък до
Алгоритъмът на обучението основано на паметта включва две характеристики:
- Критерии използван за определяне стойностите на вектора
- Правило за обучение, прилагано към примера за изчисляване на вектора
В простия алгоритъм обучението основано на памет се нарича правило на
близкият съсед (nearest neighbor rule), като в изчисленията се включва пример близък до тествания се счита близък със съседният вектро
, ако е изпълнено условието:
Където e Eвклидово разстояние между векторите и
. Класът към който се отнасят близкият съсед се счита също за клас на тестваният вектор
. Това правило не зависи от разпределенията използвани при генерирането на примери за обучение.
При анализа на правилото се използват две предположения:
- Класификацията на примерите са независими и равномерно
разпределени (independently and identically distributed) в съответствие с съвместното разпределение на примера
- Размерността на обучаващото множество N е безкрайна величина.


41
При тези две предположения вероятността от грешки на класифициране при използване на правилото на близкия съсед превишава два пъти Байсовската
вероятност за грешки (Bayes probability error) (Байсовската вероятност за грешки е минималната вероятност за грешки на множеството на всички правила приети за решение).
Фиг. 2.2. Областта заета от окръжността съдържа две точки, принадлежащи към клас 1, и една принадлежаща към класа 0. Точка d съответства на тествания вектор
. При к = 3 класификатора на к-близкия съсед ще отнесе точка d към класа 1, въпреки че тя може да е по-близка към „избора”, отнасящ се към класа 0.
Вариации на класификация основани на близкия съсед се явява класификатор
на к-близкия съсед (k-nearest neighbor classifier). Той се описва по следният начин:
Намираме к-класифициран съсед близък на вектора
, където к е някое цяло число.
Вектора отнасяме към този клас (хипотеза) който по често от другите среща к – близкия съсед на тествания вектор. Така класифицирането основано на к
близкият съсед работи подобно на устройството на осреднения. Например може да се отчете единично „изхвърляне”, както е показано на фиг. 2.2. за к = 3 изхвърляне
(outlier). Това изхвърляне е наблюдение, което се отличава от номиналния модел.


Сподели с приятели:
1   ...   14   15   16   17   18   19   20   21   ...   58




©obuch.info 2024
отнасят до администрацията

    Начална страница