You are on page 1of 4

Redes de una capa: Perceptrón, Adeline, y Madaline.

El perceptrón.
Es la red neuronal más simple, posee una sola capa con tantas entradas como la
dimensión del patrón de entrada.
La función de activación es la función natural y la entrada neta se calcula como
la suma de las entradas ponderada.

El perceptrón simple

X1 W1

f(x)
y

W2

X2

Tiene una sola neurona dos entradas reales y una salida binaria (-1/ 1).
También consta de un la función de activación umbral (-1 / 1) y bías = 

La interpretación geométrica:
w1* x1 +w2* x2 -= 0.
Si la salida es menor que el bías entonces y = 1, si es mayor y = -1
La interpretación gráfica:

W1 * x1+ w2* x2 -= 0


W2

Y= -1

Y=1

W1

¿Qué es el bias? Es el umbral y se aprende así:

1
B1
X1
Z1

Z2
X2
El bías se utiliza como otro peso y se aprende, además es importante aprenderlo
porque si no pongo bías lo que tengo son particiones (del perceptrón) que
siempre van a pasar por el punto (0, 0) pero si pongo el bías puedo coger
particiones que no esten en el origen.

(w1, w2)

W1*x1 + W2*x2 = 0

bías

Eliminación del umbral.


La función de activación se puede simplificar incorporando el valor umbral en el
sumatorio.

Hay que añadir una unidad exacta de manera que:

 Siempre tiene la salida el valor 1.


 Se conecta a todas las unidades de la red.
 El peso la conexión es el umbral de la neurona a la que se
conecta.

Algoritmo del perceptrón.

 Supongamos una entrada a la neurona con un valor positivo:


o Si la neurona responde con -1 y debiera responder con 1 entonces
tenemos que incrementar el peso correspondiente.
o Si la neurona responde con 1 y debiera responder con -1 entonces
tenemos que decrementar el peso correspondiente.
 Si la entrada es negativa, el razonamiento es a la inversa.

Teorema de convergencia.
Si las clases son linealmente separables, el algoritmo de perceptrón converge a
una solución correcta en un número finito de pasos para cualquier elección
inicial de pesos. (Pero si las clases no se pueden separar ese conjunto de valores
no existe).
El Adeline (Algoritmo LMS).
1. Asigna valores aleatorios a los pesos.
2. Aplica un vector de entrada y obtiene la salida correspondinte
a. Salida = w*x.
b. Error = salida deseada – salida obtenida.
c. Wi = Wi + alpha * error * entradai .
3. Volver al dos.

Adaline Perceptrón
Calcula el error a partir de la entrada neta Calcula el error a partir de la salida
El error nunca será nulo por lo que la
condición de terminación será :
Error (t) - Error (t-1) < 
Aparece alpha = tasa de aprendizaje-
Alpha debe tener valores entre 0 y 1.
Garantiza una solución válida problemas
linealmente separables y produce un error
mínimo según el criterio LSM.

You might also like