Решение на такава задача от мозъка може да бъде обработката на информация от обикновеното зрение (human vision). Във функциите на зрителната



Pdf просмотр
страница53/58
Дата08.04.2022
Размер1.78 Mb.
#114042
ТипРешение
1   ...   50   51   52   53   54   55   56   57   58
book
Свързани:
Kniga uchitel IT 6. klas Даниела Убенова (1), Kniga uchitel IT 8. klas Даниела Убенова, elektronno-obuchenie
3.2.2
Теорема на сходимост
За обучаващото правило на перцептрона съществува теорема на сходимост, чиито изложение е следното:


101
Теорема 1
. Ако съществува множество от тегла на връзките
*
w
,
което е способно да
изпълнява трансформацията
( )
y
d
χ
=
,
обучаващото правило на перцептронът ще
бъде приближение към някое решение (което може да е или да не е същото като
*
w )
в
краен брой стъпки за всеки начален избор на тегла.
Доказателство
: Даден е фактът, че дължината на векторите
*
w
не е от значение (в следствие на оператора sgn) и ще вземе
*
1
w
= . Тъй като
*
w
е правилно решение, стойността
*
w
χ

, където не е отбелязано точка или вътрешния продукт, тогава ще е по-голямо от 0 или: съществува
0
δ
> , такова че
*
w
χ
δ

>
за всички входове
χ
1
. Сега да дефинираме cos
w w
w
α



. Когато съгласно обучаващото правило на перцептрона, теглата на връзките се променят чрез зададения вход
χ
, знаем че
( )
w
d
χ χ
∆ =
и след промяната теглото е w
w
w
′ =
+
. От това следва, че:
*
*
*
*
*
*
( )
sgn(
)
w w
w w
d
w
w w
w
w
w w
χ
χ
χ
χ
δ
′⋅ = ⋅
+


=

+



>

+
[
]
2 2
2 2
2 2
( )
2 ( )
(
( )
sgn
)
w
w d
w
d
w
w
защото d
w
w
M
χ χ
χ
χ
χ
χ
χ
′ =
+

=
+
⋅ ⋅ +
<
+
= −

=
+
След t промени получаваме:
*
*
2 2
( )
( )
w t
w
w w
t
w t
w
tM
δ

>

+
<
+
така че
*
*
2
( )
cos ( )
( )
w w t
t
w t
w w t
w
tM
α
δ

=
⋅ +
=
+
1
Технически не е необходимо всяко
*
ω
да бъде истина; всъщност за всяко
*
ω
, получено без класификация би могло
*
ω χ

да бъде равно на 0 (виж дефиницията на
Φ). Обаче, за всяка ненулева величина може да бъде намерено друго
*
ω


102
От това следва, че lim cos ( )
lim
t
t
t
t
M
δ
α
→∞
→∞
=
= ∞ , докато по дефиниция cos
1
α
≤ !
Заключението е, че трябва t
max
да е ограничено отгоре за t. Системата променя тези връзки само стойностите ограничени във времето. С други думи: след максимално t
max
за правилното изменение на теглата на перцептрона е изпълнението на последователността на стъпките. t
max
ще бъде достигнато, когато cos
1
α
= . Ако започнем с връзки
0
w
= , max
2
M
t
δ
=
(3.8)
3.2.3
Първоначалния перцептрон
Перцептронът, предложен от Розенблант е до голяма степен по комплексен от еднослойните мрежи с прагова функция на активност. Неговата най-проста форма се състои от N-елемента на входния слой („ретина”) с поддръжка в слой на M
„асоциативни”, „маскирани” или „предикатни” възли
φ
h
, и един изходен възел. Целта на работата на перцептрона е да научи зададената му трансформация
{
}
{
}
:
1,1 1,1
N
d

→ −
използвайки обучаващите образци съответно с вход
χ
и с изход
( )
y
d
χ
=
. В оригиналната дефиниция, действието на предикатните възли може да бъде всяка функция
φ
h
на входния слой
χ
, но само обучаващата процедура регулира връзките на изходния слой. Причината за това е, че не е намерена никаква рецепта за регулирането на връзката между
χ
и
φ
h
. В зависимост от функцията
φ
h
, перцептроните могат да бъдат групирани в различни семейства. Мински и Пепърт описват броя и свойствата на тези семейства. Изходния възел на перцептрона е линеен прагов елемент. Розенблат през 1959 година доказва забележителна теорема относно обучението на перцептрона и в началото на 60-те години на ХХ век перцептроните предизвикват голяма доза оптимизъм и интерес. Първоначалната еуфория по-късно обаче е заменена от отчаяние, след публикуваната през 1969 година книга „Перцептрони” на Мински и Пепърт. В нея те анализират задълбочено перцептрона и доказват че има строги ограничения, които перцептроните трябва да спазват.


103
Фигура 3.4: Перцептрон


Сподели с приятели:
1   ...   50   51   52   53   54   55   56   57   58




©obuch.info 2024
отнасят до администрацията

    Начална страница