101
Теорема 1.
Ако съществува множество от тегла на връзките *
w, което е способно да изпълнява трансформацията ( )
ydχ
=
, обучаващото правило на перцептронът ще бъде приближение към някое решение (което може да е или да не е същото като *
w ) в краен брой стъпки за всеки начален избор на тегла. Доказателство: Даден е фактът, че дължината на векторите
*
wне е от значение (в следствие на оператора sgn) и ще вземе
*
1
w= . Тъй като
*
wе правилно решение,
стойността *
wχ
⋅
, където не е отбелязано точка или вътрешния продукт, тогава ще е по-голямо от
0 или: съществува
0
δ
> , такова че
*
wχ
δ
⋅
>
за всички входове
χ
1
.
Сега да дефинираме cosw wwα
∗
≡
⋅
. Когато съгласно обучаващото правило на перцептрона, теглата на връзките се променят чрез зададения вход
χ
, знаем че
( )
wdχ χ
∆ =
и след промяната теглото е
www′ =
+
. От
това следва, че:
*
*
*
*
*
*
( )
sgn(
)
w ww wdww wwww wχ
χ
χ
χ
δ
′⋅ = ⋅
+
⋅
⋅
=
⋅
+
⋅
⋅
⋅
>
⋅
+
[
]
2 2
2 2
2 2
( )
2 ( )
(
( )
sgn
)
ww dwdwwзащото dwwMχ χ
χ
χ
χ
χ
χ
′ =
+
⋅
=
+
⋅ ⋅ +
<
+
= −
⋅
=
+
След
t промени получаваме:
*
*
2 2
( )
( )
w tww wtw twtMδ
⋅
>
⋅
+
<
+
така че
*
*
2
( )
cos ( )
( )
w w ttw tw w twtMα
δ
⋅
=
⋅ +
=
+
1
Технически не
е необходимо всяко *
ω
да бъде истина; всъщност за всяко
*
ω
, получено без класификация би могло
*
ω χ
⋅
да бъде равно на 0 (виж дефиницията на
Φ). Обаче, за всяка ненулева величина може да бъде намерено друго
*
ω
102
От това следва, че lim cos ( )
lim
ttttMδ
α
→∞
→∞
=
= ∞ , докато по дефиниция cos
1
α
≤ !
Заключението е, че трябва
tmaxда е ограничено отгоре за
t. Системата променя тези връзки само стойностите ограничени във времето. С други думи: след максимално
tmaxза правилното изменение на теглата на перцептрона е изпълнението на последователността на стъпките.
tmaxще бъде достигнато,
когато cos1
α
= . Ако започнем с връзки
0
w= , max
2
Mtδ
=
(
3.8)
3.2.3 Първоначалния перцептрон Перцептронът, предложен от Розенблант е до голяма степен по комплексен от еднослойните мрежи с прагова функция на активност. Неговата най-проста форма се състои от N-елемента на входния слой („ретина”) с поддръжка в слой на M
„асоциативни”, „маскирани” или „предикатни” възли
φ
h, и един изходен възел. Целта на работата на перцептрона е да научи зададената му трансформация
{
}
{
}
:
1,1 1,1
Nd−
→ −
използвайки обучаващите образци съответно с вход
χ
и с
изход ( )
ydχ
=
. В оригиналната дефиниция, действието на предикатните възли може да бъде всяка функция
φ
hна входния слой
χ
, но само обучаващата процедура регулира връзките на изходния слой. Причината за това е, че не е намерена никаква рецепта за регулирането на връзката между
χ
и
φ
h. В
зависимост от функцията φ
h, перцептроните могат да бъдат групирани в различни
семейства. Мински и Пепърт описват броя и свойствата на тези семейства. Изходния възел на перцептрона е линеен прагов елемент. Розенблат през 1959 година доказва забележителна теорема относно обучението на перцептрона и в началото на 60-те години на ХХ век перцептроните предизвикват голяма доза оптимизъм и интерес. Първоначалната еуфория по-късно обаче е заменена от отчаяние, след публикуваната през 1969 година книга „Перцептрони” на Мински и Пепърт. В нея те анализират задълбочено перцептрона и доказват че има строги ограничения, които перцептроните трябва да спазват.