You are on page 1of 4

La propagacin hacia atrs de errores o retropropagacin (del ingls backpropagation) es un algoritmo de aprendizaje supervisado que se usa para entrenar

redes neuronales artificiales. El algoritmo consiste en minimizar un error (comnmente cuadrtico) por medio de descenso de gradiente, por lo que la parte esencial del algoritmo es clculo de las derivadas parciales de dicho error con respecto a los parmetros de la red neuronal.

Minimizacin del Error


Los algoritmos en Aprendizaje Automtico pueden ser clasificados en dos categoras: supervisados y no supervisados. Los algoritmos en aprendizaje supervisado son usados para construir "modelos" que generalmente predicen un ciertos valores deseados. Para ello, los algoritmos supervisados requieren que se especifiquen los valores de salida (output) u objetivo (target) que se asocian a ciertos valores de entrada (input). Ejemplos de objetivos pueden ser valores que indican xito/fallo, venta/no-venta, prdida/ganancia, o bien ciertos atributos multi-clase como cierta gama de colores o las letras del alfabeto. El conocer los valores de salida deseados permite determinar la calidad de la aproximacin del modelo obtenido por el algoritmo.

La especificacin de los valores entrada/salida se realiza con un conjunto consistente en pares de vectores con entradas reales de la forma , conocido como conjunto de entrenamiento o conjunto de ejemplos. Los algoritmos de aprendizaje generalmente calculan los parmetros de una funcin valores de salida en el conjunto de entrenamiento. que permiten aproximar los

Si , , son los elementos del conjunto de entrenamiento, la calidad de la aproximacin en el ejemplo q se puede medir a travs del error cuadrtico:

, donde es la norma euclidiana.

El error total es la suma de los errores de los ejemplos:

Un mtodo general para minimizar el error es el actualizar los parmeros de manera

iterativa. El valor nuevo de los parmetros se calcula al sumar un incremento valor actual:

al

El algoritmo se detiene cuando deseado.

converge o bien cuado el error alcanza un mnimo valor

Si la funcin usada para aproximar los valores de salida es diferenciable respecto a los parmetros , podemos usar como algoritmo de aprendijaze el mtodo de gradiende descendiente. En este caso, el incremento de los parmetros se expresa como

donde 0 < < 1 es un parmetro conocido como factor de aprendizaje.

Antes de continuar introduciremos un poco de notacin. Definimos como el vector extendido del vector . El

par representar a un elemento del conjunto de entrenamiento y una relacin de entrada-salida, a menos que se indique otra cosa.

Red Neuronal con una Capa Oculta


La funcin la usaremos para aproximar los valores de salida de una red neuronal artificial con una capa oculta. La red est constituida por una capa de entrada (input layer), una capa oculta (hidden layer) y una capa de salida (output layer), tal como se ilustra con la siguiente figura:

Los elementos que constituyen la red neuronal son los siguientes:

s es una funcin de valores reales, conocida como la funcin de transferencia.

es la capa de entrada, considerado como el vector extendido del ejemplo .

es la capa oculta, el vector extendido de

es la capa de salida, considerado como el vector que aproxima al valor deseado . cuyos valores y . cuyos valores y . son consideradas como los parmetros son los pesos son los pesos

es una matriz de tamao de la conexin entre las unidades

es una matriz de tamao de la conexin entre las unidades

De estos elementos, nicamente las matrices de la red, ya que los valores de pesos, del valor de entrada

son el resultado de clculos que dependen de las matrices y de la funcin de transferencia s.

La funcin de transferencia s que consideraremos en nuestro algoritmo es conocida como funcin sigmoidal, y esta definida como

esta funcin adems de ser diferenciable, tiene la particularidad de que su derivada se puede expresar en trminos de s misma:

esto nos servir para simplificar los clculos en el algoritmo de aprendizaje aqu descrito.

Descripcin del Algoritmo


A grandes rasgos:

1. Calcular la salida de la red a partir de uno de los conjuntos de valores de prueba x. 2. Comparar con la salida correcta t y calcular el error segn la frmula:

3. Calcular las derivadas parciales del error con respecto a los pesos que unen la capa oculta con la de salida. 4. Calcular las derivadas parciales del error con respecto a los pesos que unen la capa de entrada con la oculta. 5. Ajustar los pesos de cada neurona para reducir el error. 6. Repetir el proceso varias veces por cada par de entradas-salidas de prueba. O = Xj*F(netj)

You might also like