Professional Documents
Culture Documents
El perceptrón.
Es la red neuronal más simple, posee una sola capa con tantas entradas como la
dimensión del patrón de entrada.
La función de activación es la función natural y la entrada neta se calcula como
la suma de las entradas ponderada.
El perceptrón simple
X1 W1
f(x)
y
W2
X2
Tiene una sola neurona dos entradas reales y una salida binaria (-1/ 1).
También consta de un la función de activación umbral (-1 / 1) y bías =
La interpretación geométrica:
w1* x1 +w2* x2 -= 0.
Si la salida es menor que el bías entonces y = 1, si es mayor y = -1
La interpretación gráfica:
Y= -1
Y=1
W1
1
B1
X1
Z1
Z2
X2
El bías se utiliza como otro peso y se aprende, además es importante aprenderlo
porque si no pongo bías lo que tengo son particiones (del perceptrón) que
siempre van a pasar por el punto (0, 0) pero si pongo el bías puedo coger
particiones que no esten en el origen.
(w1, w2)
W1*x1 + W2*x2 = 0
bías
Teorema de convergencia.
Si las clases son linealmente separables, el algoritmo de perceptrón converge a
una solución correcta en un número finito de pasos para cualquier elección
inicial de pesos. (Pero si las clases no se pueden separar ese conjunto de valores
no existe).
El Adeline (Algoritmo LMS).
1. Asigna valores aleatorios a los pesos.
2. Aplica un vector de entrada y obtiene la salida correspondinte
a. Salida = w*x.
b. Error = salida deseada – salida obtenida.
c. Wi = Wi + alpha * error * entradai .
3. Volver al dos.
Adaline Perceptrón
Calcula el error a partir de la entrada neta Calcula el error a partir de la salida
El error nunca será nulo por lo que la
condición de terminación será :
Error (t) - Error (t-1) <
Aparece alpha = tasa de aprendizaje-
Alpha debe tener valores entre 0 y 1.
Garantiza una solución válida problemas
linealmente separables y produce un error
mínimo según el criterio LSM.