You are on page 1of 4

REDES NEURALES 2016

INSTITUTO TECNOLOGICO DE CD. CUAUHTEMOC

“REDES NEURALES”

“RESUMEN DE DOCUMENTOS”

INSTRUCTOR(A): FRANCISCO RAMON IBARRA LUNA

ALUMNO(A):

LUIS EDUARDO AGUILERA MÁRQUEZ 12610585

GRUPO: 8º “B”

CD. CUAUHTEMOC CHIH., ABRIL DE 2016


REDES NEURALES 2016

ASOCIACION DE PATRONES
Las redes neuronales son sistemas que almacenan cierta información aprendida.
Esta información se registra de forma distribuida en los pesos asociados a las
conexiones entre neuronas. Por tanto, puede imaginarse una red como cierto tipo
de memoria que almacena datos de forma estable, datos que se grabarán en
dicha memoria como consecuencia del aprendizaje de la red y que podrán ser
leídos a la salida como respuesta a cierta información de entrada, comportándose
entonces la red como lo que habitualmente se conoce por memoria asociativa:
cuando se aplica un estímulo (dato de entrada) la red responde con una salida
asociada a dicha información de entrada.
Redes Hetereoasociativas.
Las redes heteroasociativas, al asociar informaciones de entrada con diferentes
informaciones de salida, precisan al menos de dos capas, una para captar y
retener la información de entrada y otra para mantener la salida con la información
asociada.
Redes autoasociativas
Una red autoasociativa asocia una información de entrada con el ejemplar más
parecido de los almacenados conocidos por la red. Estos tipos de redes pueden
implementarse con una sola capa de neuronas. Esta capa comenzará reteniendo
la información inicial a la entrada, y terminará representado la información
autoasociada.
Memoria Asociativa biderreccional (BAM).
La memoria asociativa bidireccional (B.A.M). Se trata de una memoria
heteroasociativa que asocia vectores bipolares (binarios) de distinta dimensión.
La BAM consta de dos capas de unidades de proceso, n unidades en la primera
capa y m en la segunda, estando conectadas entre sí, solamente las unidades de
la primera capa con la unidad de la segunda. Representaremos por wij el valor de
peso sináptico de la conexión de la unidad i de la primer capa con la unidad j de la
segunda. I= 1,2,…,n, j=1,2,…m, siendo estas conexiones bidireccionales.
Al igual que en el modelo de Hopfield el modelo BAM evoluciona de forma que
decrece la función de energía, o no cambia, en cada actualización.
REDES NEURALES 2016

REDES NEURALES COMPETITIVAS


En una red neuronal competitiva las unidades de salida compiten entre sí para
activarse; sólo se activa la de mayor potencial sináptico.
Redes Neuronales Competitivas no supervisadas
Una unidad de proceso binaria (neuronal artificial) es un dispositivo simple de
cálculo que solo puede presentar dos estados, activo (encendido) e inactivo
(apagado).
Mediante un proceso de aprendizaje no supervisado. Se pretende que se active
aquella unidad de proceso cuyo vector de pesos sinápticos sea el “más parecido”
al vector de entrada.
Se puede determinar los pesos sinápticos de la red utilizando un conjunto de p
patrones de entrenamiento.
La regla de aprendizaje puede ser de dos formas, según que actualicemos los
pesos sinápticos cada vez que introducimos un patrón de entrada a la red, en cuyo
caso diremos que el aprendizaje es individualizado o en línea, o actualizar los
pesos sinápticos después de introducir todos los patrones de entrada, en cuyo
caso diremos que el aprendizaje es por lotes.

ALGORITMO DE APRENDIZAJE COMPETITIVO INDIVIDUALIZADO


Paso 0 Elegir como vectores de pesos sinápticos iniciales M patrones de
entrenamiento y poner k=1.
Paso 1 Elegir aleatoriamente un patrón de entrenamiento.
Paso 2 Calcular los potenciales sinápticos

Paso 3 Determinar la neurona ganadora r, es decir, la de mayor potencial sináptico

Paso 4 Actualizar w como sigue:

Paso 5 Calcular la nueva tasa de aprendizaje según la expresión


REDES NEURALES 2016

Paso 6 Si k=T parar. Hemos encontrado los vectores sinápticos. En otro caso
poner k=k+1 e ir al paso 1.

ALGORITMO DE APRENDIZAJE COMPETITIVO POR LOTES


Paso 0 Elegir como vectores de pesos sinápticos iniciales M patrones de
entrenamiento.
Paso 2 Calcular los potenciales sinápticos

para cada patrón de entrada x(k), k=1,2,…,p.


Paso 3 Determinar la neurona ganadora r, es decir, la de mayor potencial
sináptico,

para cada patrón de entrada x(k), k=1,2,…,p. Poner

Paso 4 (Regla de aprendizaje) Actualizar wi cada como sigue:

Paso 5 Calcular la nueva tasa de aprendizaje según la expresión

Paso 6. Si k=T parar. Hemos encontrado los vectores sinápticos. En otro caso
poner k=k+1 e ir al paso 1.

You might also like