Professional Documents
Culture Documents
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
INTRODUCCION:
Ante algunas preguntas frecuentes como: ¿Por qué no podemos construir un computador que piense?,
así como el esperar que las maquinas sean capaces de realizar millones de operaciones por segundo
siendo capaces por ejemplo de entender el significado de las formas en imágenes visuales,
distinguiendo entre distintas clases de objetos similares.
Es aquí cundo surge como respuesta a esto, “La Inteligencia Artificial”, quien a través de las redes
neuronales, hará que estas mismas maquinas puede aprender a partir de experiencias en lugar de repetir
indefinidamente un conjunto explícito de instrucciones generadas por un programador humano.
Dado que nuestros computadores convencionales son evidentemente poco adecuados para este tipo de
problemas, vamos a tomar ciertas características de la filosofía del celebro humano como base para
nuestros nuevos modelos de procesamiento. Por tanto estas técnicas han recibido el nombre de
Sistemas Neuronales Artificiales (ANS), o simplemente Redes Neuronales, siendo posible a través de
estas que las maquinas puedan interpretar tramas complejas.
1
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
synapse axon
nucleus
cell body
dendrites
2
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
3
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
Como observamos en la Fig.4; Se toma arbitrariamente una matriz de 10x8 pixeles como imagen,
empleando un (1) para denotar que un pixel esta encendido o (0) para denotar que esta apagado; Mas
aun se puede descomponer esta matriz en un conjunto de vectores filas, que después se puede
concatenar en un solo vector fila de dimensión 80.
4
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
Caracteres de entrenamiento
Fig. 5
El proceso de entrenar la red neuronal, es simplemente cuestión de modificar los pesos de conexión
sistemática para codificar las relaciones de Entrada – Salida deseadas.
Estos pesos iniciales se pueden generar dinámicamente o ingresando pesos iniciales de conexión a
partir de un archivo y planteando un algoritmo adecuado para cada red el mismo que se encargue de
llegar a los pesos óptimos para que la solución converja.
Este ejemplo nos nuestra la capacidad de las redes neuronales para enfrentarse a complejos problemas
de reconocimiento de tramas .
EL PERCEPTRON
Para empezar el conocimiento en cuanto a redes neuronales se refiere, tenemos que partir de conocer el
funcionamiento de El perceptrón, siendo este un modelo unidireccional, que intenta simular la
computación neuronal para llevar a cavo tareas complejas.
Una unidad de procesamiento tiene muchas entradas, cada una de estas es información que luego será
procesada, determinan un valor de entrada neto basándose en todas las conexiones de entrada, lo típico
es calcular el valor de entrada neto sumando todos los valores de entrada ( Xi ), ponderados
(multiplicados) mediante sus pesos correspondientes( Wi ), en otra palabras “S” la entrada neta de la i-
esima unidad se puede escribir de la siguiente forma:
•El nudo recibe los datos de entrada (x1,x2......,xn etc.)
n
• La entrada es la suma de los pesos por los datos xi . S = ∑
i=1
w ij x i
• wij es el peso de interconexión del nudo i al nudo j.
• El índice J recorre todas las conexiones que posea el la unidad de procesamiento .
•S esta les la entada neta, de la unidad de procesamiento.
5
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
Una vez que las entradas ha sido leída y multiplicadas por los pesos correspondientes, se conduce a la
unidad de procesamiento en la que a través de una función de activación, determina el valor de salida
Yi (t), como observamos en la siguiente ecuación.
n
Y i ( t ) = f ( ∑ W ij X j − θ i ), ∀ i ,1 ≤ i ≤ m
j =1
siendo el valor del treshold único para cada unidad de procesamiento y valor que al igual que los
pesos también es corregido para cada interacción.
Por ello, la importancia de función de activación, de allí su selección minuciosa, pues la salida de la
neurona es decidida por : (la función de Activación) como observamos en la Fig. 6.
Tipos de funciones:
1
– Función Logistic: f ( x) =
1 + e− x
– Función tangente hiperbólica: 1 − e−x
f ( x) =
1 + e− x
– Función identidad: f ( x) = x
Funciones de activación
Fig. 6
Las bases matemáticas de los modelos de redes, son sistemas dinámicos, esto es un sistema que
evoluciona a lo largo del tiempo.
La ley del aprendizaje consiste en hallar los pesos que codifican ese conocimiento que deseamos que
aprenda el sistema. Para la mayor parte de los sistemas reales, no es fácil determinar una solución en
forma cerrada para este sistema de ecuaciones. Existen técnicas que dan lugar a una aproximación
razonable de la solución, probar la existencia de soluciones estables para estos tipos de sistemas es
objeto de intensas investigaciones en la actualidad y es probable que se sigan haciéndose durante algún
tiempo mas .La corrección de pesos en su forma mas simple se denota:
EP := Ψ i( t) − Y i( t)
∆ W ij := η ⋅ ψ i( t) − Y i( t) ⋅ χ j
donde ψ es el valor de la solución deseada (solución esperada de acuerdo a los datos de entrenamiento
con los que contamos).
El Perceptrón, puede aprender sólo funciones que linealmente separan los datos, por consiguiente: la
data es separable por un hiperplano en el espacio (n dimensional).
6
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
Según la Fig. 7 las clases A, B,C, representan patrones de datos. Separados por limites de selección que
serán definidos por el programador.
7
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
La señal de salida se compara con la salida deseada, y se calcula una señal de error para cada unidad de
salida.
Las señales de error se transmiten entonces hacia a tras, partiendo de la capa de salida hacia todos los
nudos de la capa intermedia que contribuyan directamente a la salida. Sin embargo, las unidades de la
capa intermedia solo reciben una fracción de la señal total del error, basándose aproximadamente en la
contribución relativa que haya aportado la unidad de salida original.
∂+ Ep ∂ + E p ∂xi
∆wki = −η = −η = −ηε i xk
∂wki ∂xi ∂wki
Este proceso se repite capa por capa, hasta que todos los nodos de la red hayan recibido una señal de
error que describa su contribución relativa al error total. Basándose en la señal de error perceptiva, se
actualizan los pesos de conexión de cada unidad, para hacer que la red converja hacia un estado que
permita codificar todas las tramas de entrenamiento.
La importancia de este proceso consiste que a medida que se entrena la red, los nodos de las capas
intermedias se organizan a si mismos, de tal modo que los distintos nodos aprendan a reconocer
distintas características del espacio total de entradas. Después del entrenamiento, cuando se les
presenta una trama arbitraria de entrada que contenga ruido o que este incompleta, las unidades de las
capas ocultas de la red responderán con una salida activa, si la nueva entrada contiene una trama que se
8
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
asemeja a aquellas características que las unidades hayan aprendido a reconocer durante su
entrenamiento .
Y a la inversa, las unidades de las capas ocultas, tienen una tendencia de inhibir sus salidas si la trama
de entrada no contiene la características para reconocer la cual han sido entrenadas.
El resultado global de este comportamiento es que la propagación hacia atrás constituye un método
eficiente para permitir a un sistema de computadoras examinar tramas de datos que pueden ser ruidosas
o estar incompletas y reconocer tramas sutiles a partir de entradas parciales.
El que una red aprenda mas deprisa dependerá de: El numero de capas ocultas El algoritmo usado, El
numero de datos de entrada así como de la confiabilidad de estos, etc. entonces las dimensiones de una
red será variante.
El tamaño de la capa de entrada suele venir dictado por la naturaleza de la aplicación. En general se
puede utilizar todos los datos que estén disponibles para entrenar la red, aunque quizás no sea necesario
utilizarlos todos.
El numero de unidades que hay que utilizar en la capa oculta no suele ser tan evidente como los es para
la capa de entrada y salida. La idea principal consiste en utilizar el menor numero posible de unidades
en la capa oculta.
Para redes de tamaño razonable (cientos o miles de entradas), el tamaño de la capa oculta solo necesita
ser una fracción relativamente pequeña del que tiene la capa de entrada, si la red no llega a converger
para llegar a una solución, cabe usar mas nodos ocultos, si converge, se puede probar con un numero
inferior de nodos ocultos y determinar el tamaño final basándose en el rendimiento global del sistema.
Esto se evaluara a medida que se este entrenando la red.
Otra forma de incrementar la velocidad de convergencia consiste en utilizar una técnica llamado
MOMENTO (Cuando se calcula el valor del cambio de peso se añade una fracción de cambio
anterior). Este termino adicional tienden a mantener los cambios de peso en la misma dirección, de aquí
el termino MOMENTO. Las ecuaciones de cambio de
pesos de la capa de salida pasan entonces a ser:
W ij ⋅ ( t + 1) := W ij ⋅ ( t ) + η ⋅ δ ik + α W ij ⋅ ( t − 1)
9
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
Siendo “α” alfa el parámetro de momento y suele dársele un valor positivo menor que 1 . también es
opcional el uso del termino de momento. Hemos realizado 10000 interaciones, variando el factor de
aprendizaje, α para 0.5, 0.75 y 1.0 y de esta manera observar como va variando el % de error, ver Fig.
9. En las primeras 7000 interaciones, es donde se presenta la mayor variación de errores, para luego ir
estabilizándose.
Factores de Aprendizaje
Fig. 9
CONCLUSIONES:
No hay ninguna regla o parámetros que haya que seguir, la cual nos indique como debe ser la estructura
de la red neuronal artificial que debamos usar, esta será diferente para cada tipo de problema a resolver
10
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG
XIV CONGRESO NACIONAL DE INGENIERIA CIVIL - IQUITOS
Capítulo de Ingeniería Civil del Consejo Departamental de Loreto del Colegio de Ingenieros del Perú
y será el operador quien defina esto a medida que vaya aumentando o disminuyendo, las unidades de
procesamiento, así como la el numero de capas ocultas y así llegara a que su red funcione
satisfactoriamente, encontrando el numero adecuado de epoch, para que la respuestas converjan además
pudiendo optimizar la red; Una de las formas de ver por que camino vamos, es ir observando que el %
de error baya disminuyendo a medida que aumenta el numero de epoch.
El programa desarrollado como aplicación de este trabajo, ha sido realizado en fases, y para poder
medir en cada una de estas, el esfuerzos de trabajo, se ha asociado de la siguiente manera:
Establecimiento del problema 20%, Preparación de los datos 50%, Procesamiento de la data 20%,
Evaluación de resultados 10%.
Es posible aplicar estos conocimientos a cualquier problema que deseemos resolver en el campo de la
ingeniería, pero de acuerdo a los porcentajes descritos arriba se recomienda como requisito principal,
contar con un adecuado banco de datos, lo suficientemente rico, para que nuestra red pueda aprender
con ellos.
REFERENCIAS:
1. Cheng M, Popplewell N. Neural network for earthquake selection in structural time history
Analysis. Earthquake Eng. Struct. Dyn,1994.
2. Waszczyszyn Z. Some new results in applications of backpropagation neural networks in
structural and civil engineering, Edinburgh: Civil-Comp Press; 1998. p. 173–87.
3. Dr. Carlos Zabala
Curso de Introducción a Redes Neuronales
Universidad Nacional de Ingeniaría , Escuela de pos grado de Facultad de Ingeniería civil. UNI. 2002
4. James e. Freeman.
Redes Neuronales, Algoritmos Aplicaciones y Técnicas de Programación.
Edición 1997-España.
11
Difundido por:
ICG - Instituto de la Construcción y Gerencia Síguenos:
www.construccion.org / icg@icgmail.org /ConstruccionICG