You are on page 1of 52

REDES NEURONALES ARTIFICIALES

(Artificial Neural Networks)


Y SU APLICACION A LA VOLADURA
DE ROCAS
INTEGRANTES :

- Capari Anco Tino


- Vásquez Ticla Hanz
- Cardenas Chirhuana
Jean
BASES BIOLOGICAS QUE
INSPIRARON LAS REDES
NEURONALES ARTIFICIALES
SISTEMA NERVIOSO BIOLOGICO
NEURONA
SINAPSIS
RED NEURONALARTIFICIAL
El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El
ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de
reconocer el rostro de una persona resulta una tarea relativamente sencilla para el
hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea
costosa para un experto contable y una sencilla rutina para un ordenador básico.

Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que


iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva
tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales.
CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES

Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes
neuronales biológicas del cerebro humano.

Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del
cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a
ejemplos nuevos y abstraen las características principales de una serie de datos.

Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.


ESTRUCTURA BÁSICA DE UNA RED NEURONAL

Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el
elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con
una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta
función de transferencia se pasa directamente a la salida del elemento procesador.

La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas
correspondientes a la eficacia de la sinapsis de las conexiones neuronales.
Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las
ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos
procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica
consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas.

Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los
datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben
el nombre de capas ocultas.
HISTORIA DE LA COMPUTACIÓN NEURONAL

Los primeros años

1943 McCullochy Pitts presentan la neurona formal.

1949 D. Hebb publica su regla de aprendizaje para neuronas.

1951 Minsky plantea su máquina neuronal.

1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el
cerebro.

1958 Von Neumann propone un modelo para el cerebro.

1958 Rosenblatt propone el perceptrón.

1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican
a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las
redes neuronales.

1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes.
Reflexión y estancamiento

1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias
asociativas.

1972 J.Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”.

1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal
especializada en reconocimiento de patrones. No logra reconocer caracteres
distorsionados o rotados.

1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales
artificiales. Se distingue por su carácter altamente matemático y con sentido biológico.

1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre
en inglés).
La década de oro de las redes
neuronales

1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas
de la Física Estadística para demostrar que tiene propiedades de memoria asociativa.
Gran impacto en el mundo de los físicos.

1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal

1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en
diversas ocasiones.

1986 Surge el mapeo de Kohonen.

2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del
aprendizaje de desarrollo acelerado con aplicaciones muy diversas.
Una red neuronal es un
sistema compuesto de
muchos elementos
procesadores simples
operando en paralelo,
cuya función es
determinada por la
estructura de la red,
fuerza en las conexiones
y el procesamiento
realizado por los
elementos
computacionales en los
nodos
"Una red neuronal es un procesamiento
distribuido masivamente paralelo que tiene una
tendencia natural para almacenar conocimiento
empírico y hacerlo disponible para el uso”

Haykin, S
Una Red Neuronal viene caracterizada por:

•Topología

•La intensidad de la conexión entre sus pares de neuronas


(pesos)

•Las propiedades de los nodos

•Las reglas de aprendizaje de pesos, controlan los pesos y/o


estados de los elementos de procesados (neuronas).
•Dos tipos de aprendizaje
•Supervisado
•No supervisado

•Dos fases de operación


•Entrenamiento de la red
•Recuperacion de lo aprendido
•No son algorítmicas

Las RNA generan ellas mismas sus propias "reglas", para


asociar la respuesta a su entrada; es decir, aprende por
ejemplos y de sus propios errores.

•Requieren de algún tipo de patrón

Problemas que son muy difíciles de calcular pero que no


requieren de respuestas perfectas, sólo respuestas rápidas y
buenas. Tal y como acontece con el escenario bursátil en el
que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?, o en
el reconocimiento cuando se desea saber ¿se parece? ¿es
el mismo pero tienen una ligera modificación?
La ventaja de las Redes Neuronales Artificiales (RNA), reside en el
procesado paralelo, adaptativo y no lineal. Las (RNA) han
encontrado muchas aplicaciones con éxito en la visión artificial, en
el procesado de señales e imágenes, reconocimiento del habla y
de caracteres, análisis de imágenes médicas, control remoto,
control de robots, inspección industrial y exploración científica.

El dominio de aplicación de las (RNA) se puede clasificar de la


siguiente forma:
•Asociación y clasificación
•Regeneración de patrones
•Regresión y generalización
•Optimización
Las Redes Neuronales son útiles para:

Clasificación de patrones
Aproximación de funciones
Mapeo
En los que exista información imprecisa y con tolerancia a fallos
Aprendizaje Adaptativo
Autoorganización
Tolerancia a Fallos
Operación en tiempo real
Fácil construcción en circuitos integrados
La entrada total de la unidad k es la suma ponderada de
las entradas que recibe más el término de offset
Este tipo de expresiones que calculan la entrada total se
denominan reglas de propagación y, en general, pueden
tener diferentes expresiones
El número de capas intermedias y el número de neuronas de
cada capa dependerá del tipo de aplicación al que se vaya a
destinar la red neuronal.
PERCEPTRON

BACKPROPAGATION
Los elementos de procesado de una red neuronal se distribuyen
por capas, existen tres tipos de capas:

1. Capa de entrada: Dependen del problema a abordar

2. Capa de salida: Salidas que proporciona la estructura

3. Capas ocultas: Conjunto de elementos de procesado asociados


en capas que se encuentran entre la capa de entrada y la capa
de salida
•Las funciones (tanto de activación como de salida) de los
elementos de procesado pueden ser diferentes

•No existe limitación en el número de capas ocultas

•En general, cuanto mayor sea la diferencia entre los elementos


de entrada y los de salida, será necesario dotar a la estructura
de más capas ocultas

•La habilidad de la red para procesar información crece en


proporción directa al número de capas ocultas
En función de la dirección
del movimiento de la
información se puede
realizar una clasificación:

Redes feedforward

Redes feedback

Redes feedlateral
Supervisado

En el aprendizaje supervisado (aprender con un maestro),


la adaptación sucede cuando el sistema compara
directamente la salida que proporciona la red con la salida
que se desearía obtener de dicha red; existen 3 tipos:

Por corrección de error


Por refuerzo
Estocástico
Regla delta
Una red con una única capa con una única neurona en la salida con una
función de activación lineal, la salida viene dada por:

Supongamos que vamos a entrenar una red de decisión más idóneo para
un conjunto de muestras de entrada consistentes “x” y valores de
salida deseada “d”.

Para cada muestra dada del conjunto de entrada, la salida real de la red
difiere de la salida deseada en “d-y”, donde y es la salida real de la red
correspondiente a la entrada x
La función de error, dada por el método del menor error cuadrático
medio, es la suma de los cuadrados de los errores individuales de
cada patrón. Es decir, el error total E viene dado por:

Los valores de los pesos de conexión se buscan de forma tal que se


minimice la función E y este proceso se realiza por un método conocido
gradiente descendiente
Dado que la función de
activación es lineal, como se
comentaba al comienzo,
¿Cuál es su significado?
Red de base radial función neural (RNFBR) es una de las redes artificiales
eficientes.
Estos tipos de las redes se utilizan sobre todo para la función de
aproximación. Sin embargo, también se pueden aplicar para el
reconocimiento de patrones y clasificación.
Al llegar a errores muy pequeñas durante el proceso de formación puede
ser considerado como la principal ventaja de RNFBR.

Sólo hay una capa oculta que hace que el tiempo de cálculo muy inferior. Por
otra parte, la función de transferencia de φ de la capa oculta es siempre de
tipo Gauss:
Donde P es el vector de entrada; 𝐶𝑗 y σ j son el centro y la extensión
(factor de difusión) de la función de Gauss, respectivamente.
Como se ilustra en la figura de la siguiente diapositiva una, φ ( P ) alcanza el
valor máximo (1.0) cuando P es igual a 0,0. De esta manera, cuando la
diferencia entre los valores de los pesos y las entradas es más bajo, la
salida de neurona será mayor. De hecho, aquí la cantidad de la producción
de la capa oculta muestra la diferencia absoluta entre los pesos de las
conexiones y los insumos. En la RNFBR, la j ª salida de la red d J ( Demuth
y Beale, 1994 ) se puede calcular:

Donde φ j es la j ª salida de neurona, y W ij es el peso de la capa de salida.


La figura denota :
(a) la función de
transferencia de base
radial (radbas) y (b) la
estructura de una red
de función de base
radial.

Durante el proceso de formación, los parámetros C j , σ j y w ij son


determinados por la red para proporcionar la mejor función de
aproximación. En este proceso, el número óptimo de neuronas necesarias
para la capa oculta también está determinado por la red. La estructura de
un RBFN se ilustra en la figura (b)
¿Cuántas capas ocultas?
Por experiencia se sabe que usar más de una capa oculta casi nunca es
benéfico. El problema es que el entrenamiento es dramáticamente más
lento cuando se usan más capas ocultas. Esto se debe a dos efectos:

•La capa adicional a través de la cual los errores deben ser


retropropagados hace que el gradiente sea más inestable.

•El número de mínimos falsos se incrementa usualmente de


una manera dramática.
¿Cuántas neuronas ocultas?
•El usar muy pocas neuronas ocultas dejará a la red neuronal sin los
recursos necesarios para resolver el problema

•El usar muchas neuronas podrá incrementar el tiempo de


entrenamiento

•Además, un número excesivo de neuronas ocultas puede causar un


problema de sobreajuste.
¿Cuántas neuronas ocultas?

Un paradigma somero para la elección del número de neuronas ocultas


en muchos problemas es la regla de la pirámide geométrica.
¿Cuánto tiempo se debe entrenar?
Se dice que las redes neuronales pueden ser sobreentrenadas. Quiere
decir que hay una cantidad óptima de entrenamiento y que se puede
entrenar más allá de dicho punto para mejorar el funcionamiento en el
conjunto de entrenamiento, pero degradando dicho funcionamiento en la
población general.
 En este Trabajo, se ha hecho un intento para predecir
simultáneamente el backbreak y la fragmentación debido a la
operación de voladura en las minas de caliza de Tehran Cement
Company utilizando el método ANN.

• El backbreak indeseable después de la voladura en minas.


MINA DE CALIZA DE TEHRAN CEMENT COMPANY

• Ubicada al sur este de


Teherán, la cual es capital
de Irán.
• 41.3 millones de ton. de
depósitos de caliza
probadas.
• Desde el punto de vista
geológico, esta se
encuentra sobre rocas
sedimentarias del periodo
cretácico.
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
• Especificaciones del patrón de voladura de la mina de caliza
Tipo de
Tipo explosivo Diseño de Altura del Hole diameter Filas por Taladros por
explosivo
principal voladura banco (m) (mm) explosión fila
secundario
V-cut
ANFO Emulsión 15 76 1-4 10-15
(staggered)

• Los parámetros controlables como el burden, espaciado, taco, altura


del banco, carga específica y perforación específica se consideran
como insumos para desarrollar un modelo ANN para predecir el
backbreak y la fragmentación la roca.
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
• En este estudio, se recopilan 103 conjuntos de datos de
operaciones prácticas de voladura de las minas. Los
conjuntos de datos disponibles se agrupan en conjuntos de
datos de entrenamiento y prueba. Para esto, utilizando el
mecanismo de clasificación, el 10% de los conjuntos de datos
se mantienen separados para probar y evaluar las
simulaciones.Altura del Carga
Perforación
Espaciado específica Back Break Fragmentaci
Burden B(m) taladro Taco T (m) específica S
S (m) SD (m / BB (m) ónFr (m)
H (m) C(kg / m 3 )
m3)
01.08 a 1.7 a 4.3 2,5 a 28,5 1,96 a 28,68 0,063-0,226 0,37 a 1,76
1.6-3 (2.8) 1-4 (2.41)
04.05 (3.02) (3.35) (17,8) (8.303) (0.109) (0,82)

• Las variaciones de los parámetros de entrada y salida se dan


en la Tabla .
• Los números entre paréntesis representan el valor medio.
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
Resultados y discusión

Para comparar el rendimiento del modelo de red neuronal de


back propagation (BPNN) y el modelo de redes neuronales de
funciones de base radial (RBFNN), se utilizan la cuenta de valor
(VAF), el error cuadrático medio (RMSE), el coeficiente de
determinación (R2) y el error relativo máximo (MRE):

Donde :
𝒚 y 𝒚′ son los valores medidos y predichos, respectivamente; 𝒚
ഥy
ഥ′ son los valores promedios medidos y promediados,
𝒚
respectivamente; 𝒗𝒂𝒓 ( ) es la varianza
MINA DE CALIZA DE TEHRAN CEMENT COMPANY

Tabla 1.
Los índices de rendimiento calculadas para modelos de red neuronal de back propagation (BPNN).

Estructura R 2 (%) Coeficiente (RMSE) Error VAF (%) Cuenta de MRE (%) Error
No.
de la malla de determinación cuadrático medio valor relativo máximo

BB Fr. BB Fr. BB Fr. BB Fr.

1 6-10-2 87.1 84.8 0.2206 0.0673 90.21 95.28 16.58 16.23


2 6-14-2 90.2 86.7 0.3052 0.1294 82.73 86.34 20.2 27.45
3 6-18-2 74.9 65.3 0.4867 0.3581 77.35 74.81 43.5 62.7
4 6-5-5-2 75.6 66.1 0.3955 0.3024 81.47 63.23 36.11 59.89
5 6-10-6-2 88.5 79.5 0.5438 0.4147 70.31 47.36 52.74 68.55
6 6-10-10-2 86.4 73.8 0.367 0.2634 85.34 80.03 27.96 33.57

• Como se observa en esta tabla, el modelo BPNN con la arquitectura 6-10-2


ofrece el mejor resultado con errores mínimos y precisión máxima, y se
considera como el modelo óptimo entre los modelos BPNN.
MINA DE CALIZA DE TEHRAN CEMENT COMPANY

Tabla 2.
Los índices de rendimiento calculados de los modelos de redes neuronales de funciones de base
radial (RBFNN).

Estructura R 2 (%)
Factor de (RMSE) Error VAF (%) Cuenta de MRE (%) Error
No. de la Coeficiente de
Propagación cuadrático medio valor relativo máximo
malla determinación

BB FR BB FR BB FR BB FR

1 0.7 6-36-2 48 53.6 0.461 0.249 89.55 76.12 34.1 38.46


2 0.79 6-36-2 51.5 59.7 0.3108 0.112 88.82 86.53 25 29.63
3 0.8 6-36-2 50.3 58.1 0.354 0.158 93.4 89.6 29.03 32.52

• Construidos con varios factores de propagación. Como se ve en la


Tabla 2, el modelo con factor de propagación de 0,79 proporciona los
mejores resultados.
MINA DE CALIZA DE TEHRAN CEMENT COMPANY

• Las Figs. 1 muestra la


correlación entre el
resultado pronosticado
y medido para el
método modelado.
• La línea punteada
muestra una línea de
pendiente 1: 1, donde
los valores medidos y
predichos serán los
mismos. De la tablas 1.

La figura. 1.
La correlación de la medición y estimación de datos con la red neuronal de back propagation (BPNN).
MINA DE CALIZA DE TEHRAN CEMENT COMPANY

• Las Figs. 2 muestra la


correlación entre el
resultado pronosticado
y medido para el
método modelado.
• La línea punteada
muestra una línea de
pendiente 1: 1, donde
los valores medidos y
predichos serán los
mismos. De la tablas 2.

La figura. 2.
La correlación de la medición y estimación de datos con base radial función de red neural (RBFNN).
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
• La predicción precisa de backbreak y fragmentación es muy
crucial para el éxito de un proyecto minero. En este trabajo, se
realiza un intento de utilizar diferentes tipos de ANN para predecir
la fragmentación simultánea y backbreak en la operación de
voladura de minas de piedra caliza Teherán Cement Company.
• Los modelos de ANN son capacitados utilizando una base de
datos que incluye 103 conjuntos de datos. Para lograr modelos
predictivos más confiables, los parámetros que incluyen al burden,
el espaciamiento, taco, altura del banco, carga específica y
perforación específica son considerados como los datos del
modelo para predecir las salidas fragmentación y backbreak.
• BPNN y RBFNN se adoptan para este estudio. Además, se realizó
un análisis de regresión entre las mismas variables independientes
y dependientes. Para el modelado BPNN y RBFNN, Las redes con
arquitecturas 6-10-2 y 6-36-2, respectivamente son óptimas. La
eficiencia de los modelos desarrollados se examinó utilizando
conjuntos de datos de prueba.
• Los índices de VAF , RMSE , R 2 y MRE se calculan para las salidas
previstas y se comparan con los resultados reales. Se ha
encontrado que el rendimiento del modelo de BPNN con la
máxima precisión y error mínimo es mejor que el modelo RBFNN.
• Se recomienda que los modelos híbridos, combinación de la
CONCLUSIONES Y RECOMENDACIONES

 Para resolver un problema este debe comprenderse bien, rara vez existen
soluciones simples a problemas complejos. Si se comprende bien el problema,
introduciendo el conocimiento apriorístico en el modelo se obtiene un sistema más
eficiente.

• El valor clave de las redes neuronales artificiales es su capacidad para
modelar funciones no lineales muy complejas, aunque también se adaptan bien
a problemas altamente dimensionales, donde el número potencial de predictores
es muy grande.

• Un aspecto sumamente importante a considerar para la búsqueda de solución
mediante redes neuronales artificiales, es la calidad de la data de entrada (los
patrones con las que se entrenara la red) no solamente la cantidad con las que se
cuente básicamente basados en datos reales.


• Las redes neuronales alcanzan cada vez mayor auge, teniendo multitud de
aplicaciones en campos diversos y dando soluciones sencillas a problemas cuya
resolución resulta complicada cuando se emplean máquinas algorítmicas. Aún así,
el futuro de las redes neuronales no está todavía claro y será en los próximos años
cuando se determine su evolución.
Bibliografía

http://oa.upm.es/14183/1/MECANICA_DE_ROCAS_1.pdf

http://webcache.googleusercontent.com/search?q=cache:JbAH0u2gAWoJ:https://www.u-
cursos.cl/ingenieria/2011/2/GL5201/1/material_docente/objeto/384079+&cd=1&hl=es&ct=clnk&gl
=pe

http://ocw.uis.edu.co/ingenieria-civil/estabilidad-de-
taludes/clase11/ensayos_geotecnicos_de_rocas.pdf

Título: REDES NEURONALES ARTIFICIALES Y


SUS APLICACIONES Autor: Xavier Basogain Olave Escuela superior de ingenieríaBilbao

Título: NEURAL NETWORKS. Autor: Simon HayLin McMaster University.


Hamilton,Ontorio, Canada

Título: MODELIZACION ESTADISTICA CON REDES NEURONALES. Autor: Maria Castellano


Mendez. Diciembre 2009.

You might also like