Professional Documents
Culture Documents
M|| x
*
||
2
2
Simplificando la ltima ecuacin
||x(k)||
2
||x(k-1)||
2
+ ||z
,
(k-1)||
2
Repitiendo el proceso para ||x(k-1)||
2
, ||x(k-2)||
2
, ... se
obtiene
||x(k)||
2
||z
,
(0)||
2
+ ||z
,
(1)||
2
+ .... + ||z
,
(k-1)||
2
si M = max(||z
,
(i)||
2
), este lmite superior se puede simplificar a ||x(k)||
2
kM.
Tenemos ahora un lmite superior y un lmite inferior para la longitud
cuadrada del vector de pesos en la iteracin k. Si se combinan las dos
desigualdades se encuentra que:
(k)
2
|| x
*
||
2
kM ||x(k)||
2
k <
>
k tiene una cota superior, significa que los pesos sern cambiados
un nmero finito de veces. La regla de aprendizaje del perceptrn
converge en un nmero finito de iteraciones.
El nmero mximo de iteraciones est relacionado de manera
inversamente proporcional al cuadrado de . Este parmetro es
una medida de qu tan cerca est la frontera de decisin solucin a
los vectores de entrada. Esto significa que si las clases de entrada
son difciles de separar (estn cerca de la frontera de decisin) el
algoritmo converger en muchas iteraciones.
Hay tres supuestos claves requeridos para la prueba:
1.- Existe una solucin tal que se satisfaga x
*T
z
,
(i) > .
2.- Los pesos solo se modifican cuando el vector de entrada no es
clasificado correctamente.
3.- Existe un lmite superior M, para la longitud de los vectores de
entrada.
NOTA: Debido a la generalidad de la prueba hay muchas variantes
de la regla de aprendizaje del perceptrn.
Limitaciones: La regla de aprendizaje del perceptrn converge a una solucin
en un nmero finito de pasos, si la solucin existe. Entonces qu problemas
puede resolver un perceptrn?.
Un perceptrn de una neurona divide el espacio de entrada en dos regiones. La
frontera entre las regiones est definida por la ecuacin 1w
T
+b = 0.
La frontera es lneal (Hiperplano). Los perceptrones se pueden utilizar para
clasificar vectores de entrada que se puedan separar por una frontera lneal.
Desafortunadamente muchos problemas no son linealmente separables. Un
ejemplo clsico es la funcin lgica XOR.
Las entradas/salidas para la funcin XOR son:
P
i
t
i
0
0
0
0
1
1
1
0
1
1
1
0
Grficamente tenemos este problema y otros no separables linealmente:
Aparecen los perceptrones multicapas, las cuales pueden resolver problemas de
clasificacin arbitrarios (aparece el backpropagtion para entrenar tales redes).
Esta fue la falla del perceptrn bsico para resolver problemas simples y que
minimizaron el inters sobre la investigacin del campo de las redes neurales
en los aos 1970. Rosenblatt investig ANN ms complejas las cuales
superaban la limitacin del perceptrn bsico, pero no pudo aplicar
efectivamente la regla del perceptrn a tales redes.