Решение на такава задача от мозъка може да бъде обработката на информация от обикновеното зрение (human vision). Във функциите на зрителната



Pdf просмотр
страница51/58
Дата08.04.2022
Размер1.78 Mb.
#114042
ТипРешение
1   ...   47   48   49   50   51   52   53   54   ...   58
book
Свързани:
Kniga uchitel IT 6. klas Даниела Убенова (1), Kniga uchitel IT 8. klas Даниела Убенова, elektronno-obuchenie
Глава 2 Перцептрон и Adaline
Тук ще разгледаме еднослойни невронни мрежи, ще включим някои от класическите подходи при изчисляването на невроните и задачи свързани с тяхното обучение. В първата част на това изложение ще обсъдим представителната мощност на мрежите от един слой и техните обучаващи алгоритми и ще дадем примери за използване на мрежите. Във втората част изложението ще обсъдим представителните ограничения на еднослойните мрежи.
В първата част ще бъдат описани двата „класически” подхода: Перцептронът, предложен от Франк Розенблат (Fracn Rosenblatt) през 50-те години на ХХ век и простата мрежа Adaline, представена в началото на 60-те години на ХХ век от Уидроу
(Widrow) и Хоф (Hoff)
Перцептронът представлява мрежа, при която обработващите елементи са организирани в слоеве с насочени връзки между невроните от един слой и тези от следващия.

3.1 Мрежи с прагови функции на активност
Еднослойните мрежи съдържат един или повече изходни неврони o, всеки от които е свързан с тегловия коефициент
ω
io
В най-простия случай мрежата има само два входа и един изход, като рисунката на фиг. 3.1 (нарочно пропускаме индекса o). Входът на неврона е сумата от теглата на входовете плюс отклонението. Изходът на мрежата се
Фигура 3.1: Мрежа от един слой с един изход и два входа формира чрез активността на изходния неврон, която е функция от входовете:


98 2
1
i
i
i
y
x
ω
θ
=


=
+





F
,
(3.1)
Тази функция определя състоянието на активност на неврона. Активиращата функция
Φ може да бъде линейна, таке че имаме линейна или нелинейна мрежа. В тази секция ще разгледаме праговата (или sgn) функция:
( )
1 0
1
ако s
s
в противен случай
>

=



F
(3.2)
Изходът на мрежата, който е или 1 или −1, зависи от входа. Сега мрежата може да се използва за решаването на класическата задача: може ли да се реши дали входния образец се отнася към един от двата класа. Ако общия вход е положителен, моделът ще се отнесе към класа +1, ако общия вход е отрицателен – към класа −1. В този случай разделителя между двата класа е права линия, зададена чрез равенството:
1 1 2
2 0
x
x
ω
ω
θ
+
+ = .
(3.3)
Еднослойните мрежите представляват линейно отделима функция.
Геометричното представяне на линейните прагови невронни мрежи е даден на фиг. 3.2.
Фигура 3.2: Геометрично представяне на функцията на отделимост и на теглата.
Равенството (3.3) може да се запише като
1 1
2 2
2
x
x
ω
θ
ω
ω
= −

(3.4) и виждаме че теглата определят наклона на правата, а отклонението определя
„отместването”, т.е. колко далече е правата от началната точка. Да обърнем внимание


99
на факта, че теглата могат да бъдат отбелязани във входното пространство: тегловия вектор винаги е перпендикулярен на функцията на отделимост.
След като е представена силата на връзките на еднослойните мрежи с линейно прагови възли, преминаваме към втория проблем: как да обучим теглата и влиянието им върху мрежата? Ще опишем два метода на обучение на тези видове мрежи: обучаващата процедура на „перцептронът” и „делта” или „LMS” правилото. Двата метода итеративно определят теглата. Обучаващото правило е представено за мрежата. За всяко тегло новата стойност се изчислява, чрез добавяне на корекции към старата стойност. Прагът се актуализира по същия начин:
(
1)
( )
( )
i
i
i
t
t
t
ω
ω
ω
+
=
+
(3.5)
(
1)
( )
( )
t
t
t
θ
θ
θ
+
=
+
(3.6)
Сега задачата за обучението може да се формулирана по следния начина: в какъв ред да се изчислят
( )
i
t
ω
и
( )
t
θ
, за да се класифицират правилно моделите на обучение?


Сподели с приятели:
1   ...   47   48   49   50   51   52   53   54   ...   58




©obuch.info 2024
отнасят до администрацията

    Начална страница