You are on page 1of 7

c   


 

 Neurona artificial: unidad de procesamiento de la información, es un


dispositivo simple de cálculo que ante un vector de entradas proporciona
una única salida.
 Elementos:
? Conjunto de entradas, xj
? Pesos sinápticos, 3
? J  
 
? 31·x1+ 32·x2 + ... + 3n·xn = a
? J  
   
?  = F (31·x1+ 32·x2 + ... + 3n·xn )
? Bias o polarización: entrada constate de magnitud 1, y peso b que se
introduce en el sumador


Existen tres funciones de transferencia típicas que determinan distintos tipos de
neuronas:

La primera de las funciones es la función lineal que es equivalente a no haber


función pues es y=x. Lasegunda función típica que se utiliza para simular una
neurona natural es la función escalón. Cuando la suma de productos supera el
valor de 0 (en el caso del uso de un umbral, q i es superar el valor del umbral), la
función final es positiva (+1) y si está por debajo de 0, el valor de la función final es
negativa (-1). De esta manera, las salidas decada neurona ya están normalizadas
entre +1 y ±1 (también podría ser entre 0 y +1).

Una función intermedia entre las dos primeras es la llamada función lineal a
tramos. El problema de estas dos últimas funciones es que no son derivables en
algunos puntos por lo que no puede aplicarse algunos algoritmos que utilizan la
derivada (como veremos posteriormente). Para paliar este problema, se utiliza una
aproximación a la función escalón (3ra) que es la función sigmoidea que ya es
derivable en todos sus puntos.

 J     responde a las expresión f(x) = x. Se define un límite inferior è y otro
superior,  Si la suma de las señales de entrada es menor que que è , la activación se
define como 0 o -1. Si la suma es mayor que , la activación es 1. Para valores de entrada
situada entre ambos límites, la activación se define como una función lineal de la suma de
las señales de entrada.
 J     se utiliza cuando las salidas de la red son binarias. La salida de una
neurona se activa sólo cuando el estado de activación es mayor o igual que cierto valor
umbral que representa la mínima entrada total ponderada necesaria para provocar la
activación de la neurona.

 J      es la más apropiada cuando se quiere como salida información
analógica. Con esta función, para la mayoría de los valores del estímulo de entrada
(variable independiente), el valor dado por la función es cercano a uno de los valores
asintóticos. La importancia de esta función es que su derivada es siempre positiva y
cercana a cero para los valores grandes positivos o negativos; además toma su valor
máximo cuando x es 0. Esto hace que se puedan utilizar las reglas de aprendizaje en las
cuales se usan derivadas. La expresión de esta función responde a la forma
£c   

La red de Hopfield es una de las redes unicapas más importantes y ha influido en


el desarrollo de multitud de redes posteriores.
Es una red autoasociativa no lineal que fue desarrollada por Hopfield en 1982
basándose en los modelos de redes de McCulloch y Pitts y los símiles de los
campos magnéticos con spin de Amit, Gutfreund, & Sompolinsky.



     

La red de Hopfield es una red monocapa, esto es, de una sola capa. Aunque
también se puede mostrar como una red bicapa de dos capas, la primera capa
seria una capa de sensores y la segunda capa será la capa donde se realiza el
procesamiento.

En la versión bicapa la manera de interconexionar ambas capas es unir la primera


capa a la segunda linealmente, esto es cada neurona con su respectiva, y
después unir todas las neuronas con todas en la misma capa.

La red de Hopfield toma valores bipolares esto es, {-1,1}, sin embargo se pueden
usar también valores binarios {0,1}.

       

Ejecutar un patrón en la red de Hopfield consiste en enviar un patrón en la red y


actualizar las neuronas repetidamente hasta que se estabilicen los estados de las
neuronas a un patrón memorizado.

Con pasos sería así.

1 Se establece el patrón de entrada en la capa de entrada.


2. Se actualizan las neuronas de la capa de procesamiento.
3. Si han cambiado el estado de la red o hemos realizada ya el número
máximo de iteraciones paramos.
4. Si no volvemos al pasos 2.

Las neuronas de actualizan de la siguiente manera:

Sea POT = El potencial de la neurona i,


Pij = El peso asociado a la sinapsis que une las neuronas i de la capa
actual y j de la capa de sensores.
Ej = El estado del sensor j

Entonces POTi = SumatorioEnj(Pij*Ej)

Y el estado de la neurona y la función de salida es la función signo

Si los valores de entrada fuesen binarios deberíamos usar la función


escalón en vez de la función signo.

El potencial se calcula de la misma manera que en el caso bipolar

        

Esta red aprende usando la regla de hebb, esto es asociamos los pesos de las
sinapsis al Estado de las neuronas pre y postsinápticas. Los pasos para que la red
aprenda una lista de patrones son los siguientes:

1 Para cada patrón de la lista P


2 Se establece el patrón de entrada de P en los sensores, la capa de entrada.
2 Se hace que las neuronas de la capa de salida se actualicen sus estados a los
valores de la capa de entrada.
3 Solicitar que aprendan todas las sinapsis usando las sinapsis laterales.
4 Hacer los pesos de las sinapsis nulos.

Si la red de Hopfield es bipolar, {-1,1}, Las sinapsis que une las neuronas i, j
aprenderán de la siguiente manera:
Sea Ei = El estado de la neurona i de la capa de salida.
Pij = El peso actual asociado a la sinapsis que une la neurona i y la neurona j de la
capa de salida.
Ej = El estado de la neurona j de la capa de salida.
Pijnuevo = El peso actualizado.
N = el número de patrones de la lista de patrones.

Entonces Pijnuevo = Pij + Ej*Ei / N

 
c   

 ÿ  
        
    !""!
 º  
       º 
 º      
   
    
º 
 º 

You might also like