You are on page 1of 8

Red Neuronal aplicada a la generacin de caudales

mensuales estocsticos
Jos Herrera Quispe
Ctedra Concytec
UNSA
Arequipa, Per
Email: jherreraq@unsa.edu.pe
Yessenia Yari
Ctedra Concytec
UNSA
Arequipa, Per
Email: yessi1217@gmail.com
Edson Luque
Ctedra Concytec
UNSA
Arequipa, Per
Email: Edluquem@gmail.com
Yvn Jess Tpac Valdivia
Ctedra Concytec
UCSP
Arequipa, Per
Email: ytupac@ucsp.pe
ResumenLuego de la publicacin de un Proceso Estocstico
Neuronal por Campos [1] y Taymoor [2] basado en una Red
Neuronal Feedforward con entrenamiento Levenberg-Marquardt
aplicada a la generacin estocstica de caudales mensuales
estocsticos, se propone su evaluacin en el ambito de la Cuenca
del Rio Chili.
Keywords-Series temporales, Redes Neuronales, Caudales.
I. INTRODUCCIN
Los datos hidrolgicos constituyen una secuencia de ob-
servaciones de algunas de las fases del ciclo hidrolgico,
representadas a travs de series temporales. El anlisis de estos
datos es necesario para la planeacin y gestin de eventos que
presentan un fenmeno de persistencia observable.
Hay que tener en cuenta que cuanto ms largo sea el
registro, hay una mayor probabilidad de que existan cambios
en las condiciones fsicas de la cuenca o en los mtodos de
recoleccin los datos. Es conocido tambin que la simulacin
que usa unicamente los registros histricos introduce muchas
limitaciones, como por ejemplo [3] la cual remarca que hay
un limitado nmero de diseos o estrategias alternativas. Las
mejores reglas de operacin y diseo son obtenidas cuando se
prueban una variedad de escenarios generados.
Por otro lado, estimar la capacidad de almacenamiento de un
sistema de embalses puede ser hecho a partir de la generacin
sinttica de ujos en uno o mas lugares, del mismo modo
los estudios de operacin de un sistema de embalses pueden
requerir la previsin de variables como las precipitaciones o
caudales.
En general las investigaciones en recursos hdricos pueden
involucrar generacin de datos y/o previsin no solo de
variables hidrolgicas sino de otras vinculadas al uso de
agua como irrigacin, generacin elctrica, demandas de agua
potable, etc. Por lo tanto, la bsqueda de un diseo ptimo
en un proyecto de gestin del agua frecuentemente involucra
encontrar un mtodo o tcnica que genere largas secuencias
de las caracteristicas de los ujos en este caso de un ro en
cuestin. Estas secuencias pueden ser usadas para analizar el
desempeo del proyecto diseado.
II. MARCO TERICO
II-A. Redes Neuronales en hidrologa
Muchos estudios desarrollados en la ltima dcada han
empleado las ANNs para la generacin y previsin de variables
hidrolgicas, ejemplo la previsn de crecidas e inundaciones
[4], [5], [6], [7]; previsin de lluvia escorrentia [8], [9];
prediccin de caudales [10], [11] y generacin de caudales
multivariados [12], [13].
Las Redes Neuronales Articiales son una herramienta
computacional que emula el funcionamiento de las redes
neuronales del cerebro. Una caracteristica atractiva de las
redes neuronales es la capacidad de extraer la relacin de las
entradas y salidas de un proceso, sin conocer explcitamente
la naturaleza fsica del problema de tal forma que el resultado
es usado para transmitirlo a lo largo de la red y dar una seal
de salida.
Las redes neuronales son conocidas por identicar reglas
ocultas. Estas propiedades sugieren que las ANNs (redes
neuronales articiales) puede ser adaptadas para problemas de
estimacin y prediccin en hidrologa. En muchos aspectos las
ANNs son muy similares a los modelos de regresin, excepto
porque no requieren una especicacin muy formal. Ademas
son mas verstiles debido a la libertad disponible respecto a la
eleccin del nmero de capas ocultas y los nodos asociados a
estas capas. Las estructuras de las ANNs permiten que la infor-
macin sea procesada en multiples caminos simultaneamente,
ofreciendo oportunidades para implementaciones paralelas.
Actualmente existe muchos modelos para la generacin y
previsin de caudale, precipitaciones y evaporaciones produci-
das en una determinada zona los cuales son usados en el
planeamiento de los sistemas de gestin de recursos hdricos.
Estos modelos pueden usar las siguientes tcnicas:
Regresin lineal simple
Regresin lineal multiple
Modelos Autoregresivos (AR)
Modelos de Medias Moviles (ARMA)
Modelos de Medias Moviles con variable exogena (AR-
MAX)
ARMA y ARMAX con parametros peridicos
En todos estos modelos, la relacin lineal entre las variables
hidrolgicas relevantes es asumida pero no siempre da los
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
41
mejores resultados, y en algunos casos es inadecuado [12].
Muchos estudios emplean los modelos autoregresivos para
la generacin y previsin de caudales, mostrando de esta
forma que los modelos de bajo orden reproducen bien las
caracteristicas analizadas [14].
Por otro lado, los resultados de los modelos estocsticos
de caudales pueden mejorar la precisin de la estimacim del
diseo de la capacidad de los embalses [15]. Peng [16] muestra
que no hay evidencia que los modelos AR(1) multivariados
sean inadecuados (Thomas Fiering es un modelo AR1 con
coecientes que varian estacionalmente, un buen ejemplo de
este enfoque).
Estudios iniciales como [17], [18], [19], [20], [21] describen
secuencias de caudales con modelos matemticos, los cuales
pueden reproducir caracteristicas especiales como la periodi-
cidad y considerar los efectos de la correlacin lineal. La mas
importante contribucin fue hecha por Thomas y Fiering [19].
Ellos proponen que los caudales pueden ser simulados con una
relacin lineal simple con cuadales previos.
II-A1. Modelo de Thomas y Fiering: Modelo para la
generacin de caudales sintticos fue desarrollado en 1962 por
Thomas y Fiering [19]. Este modelo ademas de la media y la
varianza, usa el coeciente de correlacin, pues se considera
que los registros histricos de procesos hidrolgicos presentan
un fenmeno de persistencia observable [22]. El modelo fue
aplicado exitosamente en muchos estudios de generacin de
series temporales de caudales, precipitacin [23], [24].
II-A1a. Para una distribucin normal::
Q
j+1
=

Q
j+1
+b
j

Q
j


Q
j

+t
j
.s
j+1

1r
2
j
(1)
Donde:

Qj es el caudal en el mes j
Qj es el caudal promedio en el mes j
Bj es la pendiente de la recta de regresin entre el mes j y
j+1
S j es la varianza de la distribucin de los caudales en el
mes j
Rj es el coeciente de correlacin entre el mes j y j+1
T j es un nmero aleatorio que viene de una distribucin
normal de media nula y de varianza igual a uno.
Para calcular los promedios, la pendiente, la varianza y el
coeciente de correlacin con los datos histricos.
El promedio:

Q
j
=
1
n
n

i=1
Q
j
(2)
La varianza:
s
j
=

1
n1

Q
j


Q
j

2
(3)
El coeciente de correlacin:
Para j mayor o igual a 2
r
j
=
1
n1

Q
j


Q
j

Q
j1


Q
j1

s
j
s
j1
(4)
Para j igual a 1
r
1
=
1
n1

Q
1


Q
1

Q
m


Q
m

s
1
s
m
(5)
La pendiente de la recta de correlacin:
b
j
=
r
j
s
j
s
j1
para j 2
para j = 1 b
1
=
r
1
s
1
s
m
(6)
III. PROCESAMIENTO DE DATOS
Muchas tcnicas estadsticas y de la teora de probabilidades
aplicadas al anlisis de series temporales de caudales se
desarrollan suponiendo que las variables son normalmente
distribuidas; por lo tanto se debe comprobar su normalidad
antes del anlisis.
Algunas trasnformaciones son requeridas si no estan dis-
tribuidas normalmente, algunos mtodos ampliamente usados
son la transformacin logartmica, the power transforma-
tion, y la transformacin Box-cox; esta ltima es usada en los
registros histricos, tratando de remover la estacionalidad
de la media y la varianza, en la literatura esta operacin es
llamada estandarizacin estacional o desestacionalizacin
, lo que resulta en variables normalmente distribuidas con
media cero y desviacin estandar uno.
III-A. Cuenca del Rio Chili
El caso de estudio se encuentra ubicado en la cuenca Quilca
- Chili, al sur del Per en la regin de Arequipa (ver Figura 1).
La cuenca posee caractersticas climatolgicas, las cuales son
medidas a travs de instrumentos. Dichos instrumentos se
encuentran asociados a estaciones de medicin.
Una conjunto de observaciones mensuales del reservorio
desde junio 1972 a 1990 18aos. Una exploracin preliminar
de estas observaciones muestran que el coeciente de asime-
tria est sesgado, inclinado, parcializado, por lo tanto es
necesario una transformacin para reducirla proxima a cero.
[25]
Figura 1. Estaciones de Medicin
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
42
III-B. Transformacin logartmica para reducir la asimetria
de una serie temporal
X
v,t
= log(Q
v,t
+c
t
Q
t
) (7)
c
t
= a/g
2
t
(8)
Donde:
Q
v,t
es el caudal de entrada observado (MCM) para el mes
t = 1, 2, ..,12 y el ao v(v = 1, ..., N); N es el nmero de
aos registrados de la serie; Q es el promedio mensual de
caudales para el mes t, a es una constante; g es el coeciente
de asimetra para el conjunto Q
1,t
, Q
2,t
, ...Q
N,t
y X
v,t
son los
caudales normalizados para el ao v y mes t.
IV. ARQUITECTURA DE LA RED NEURONAL USADA
Las redes neuronales estn compuestas de elementos sim-
ples operando en paralelo, estos elementos son inspirados
por el sistema nervioso como en la naturaleza, la funcin
de la red es determinada en gran parte por las conexiones
entre elementos. Una red neuronal puede ser entrenada para
realizar una funcin particular mediante el ajuste de los valores
de sus conexiones(pesos) entre elementos, comnmente las
redes neuronales son ajustadas, o entrenadas , de modo que
una entrada en particular supone una salida especca tal
situacin se encuentra ilustrada en 2, ah la red es ajustada,
basada en una comparacin de la salida y el objetivo hasta
que la salida de la red coincida con el objetivo. Tpicamente
muchas parejas entrada/objetivo son usadas, en el aprendizaje
supervisado para entrenar una red. las redes neuronales han
sido entrenadas para realizar funciones complejas en varios
campos de aplicacin incluyendo: reconocimiento de patrones,
identicacin, clasicacin, habla , visin y sistemas de con-
trol. hoy en da las redes neuronales pueden ser entrenadas para
resolver problemas que son difciles para las computadoras
convencionales o seres humanos.
El campo de redes neuronales tiene una historia de al menos
5 dcadas pero ha encontrado solida aplicacin slo en las dos
ultimas, y estn an desarrollndose rpidamente. As , esto
es diferente de los campos de sistemas de control u optimiza-
con donde la terminologa , matemtica bsica y diseo de
procedimientos han sido rmemente establecidos y aplicados
por muchos aos en los 90. Las ANN han sido usadas
satisfactoriamente en reas relacionadas de hidrologa, una
revisin detallada se encuentra en (ASCE-TCAANNH,2000).
Las Redes Neuronales son inicializadas asignando nmeros
aleatorios dentro del intervalo [-1,+1] para la interconexin
de pesos y deniendo los parmetros de la funcin sigmoide
de las capas , escondida y salida. tambin una taza de
aprendizaje es seleccionada, controla el cambio incremental
en la interconexin de pesos durante un entrenamiento iterativo
como un porcentaje de la diferencia entre la salida deseada
y la salida calculada por red neuronal. El entrenamiento de
la NN es realizado proporcionando entradas para el modelo,
calculando las salidas y ajustando las interconexiones de pesos
hasta que la salida desea sea alcanzada.
El mtodo de entrenamiento usado en este trabajo es cono-
cido como back propagation; esta es una tcnica iterativa
comnmente usada para aprendizaje de redes neuronales([4],
[11], [7]) , recientes estudios han demostrado que una ANN
de tres capas feedforward usando funciones de transferencia
sigmoides puede implementar cualquier funcin multivariable
de mapeo continua y limitada([26]).
Figura 2. Estructura de una red neuronal supervisada.
IV-A. Redes Neuronales Feedforward
la arquitectura de una red neuronal feedforward ( 3) se
reere a su estructura como a su esquema de interconexin. La
estructura es especicada por el nmero de capas y el nmero
de nodos por capas. Los tipos de capas pueden ser:
La capa de entrada: en esta capa los nodos son llamados
unidades de entrada, que codican la instancia presentada
a la red para procesarla, por ejemplo, cada unidad de
entrada puede ser designada por un valor atributo.
La capa escondida: los nodos en esta son llamados
unidades escondidas, que no son directamente observ-
ables, ellos proporcionan no linealidad a la red.
La capa de salida: los nodos en esta son llamados
unidades de salida, que codica posibles valores a ser
asignados a las instancias bajo consideracin. Por ejem-
plo, cada unidad de salida representa una clase de un
objeto, las unidades de entrada no procesan informacin
, ellos simplemente distribuyen informacin para otras
unidades.
La arquitectura de la red es determinada despus de un
procedimiento de prueba y error, si la arquitectura es muy
pequea, la red podra no tener un grado suciente de libertad
para aprender el proceso correctamente. Por otro lado si la red
es muy larga, no podra converger durante el entrenamiento o
podra sobre ajustar los datos. El trabajo es empezar con solo
una neurona en la capa oculta. Entonces la prueba (ensayo) se
lleva acabo con mas neuronas.
La inicializacin de pesos, y valores threshold son de
importante consideracin, cuanto ms cerca del valor inicial
es el espacio ptimo de pesos, mas rpido es el proceso de
entrenamiento. Sin embargo , no hay manera de establecer
valores de pesos iniciales buenos, y ellos son iniciados de
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
43
Figura 3. Red Neuronal Feedforward
manera aleatoria, usualmente , pesos aleatorios pequeos son
sugeridos.
Los pesos de conexin pueden ser nmeros reales o enteros,
pueden ser reducidos a un rango y son ajustados durante
el entrenamiento de la red, pero algunos pueden ser jados
deliberadamente. Cuando el entrenamiento es completado,
todos los valores sern jados.
Los niveles de activacin de nodos pueden ser discretos
(por ejemplo 0 y 1 ) o continuos a travs de un rango([0,1])
o sin restriccin. Esto depende de la funcin de activacin
escogida, si es una funcin hard-limiting , entonces los niveles
de activacin son 0 (o -1) y 1. Para una funcin sigmoide, los
niveles de activacin estan limitados para un rango continuo
de reales [0,1]. La funcin sigmoide f puede ser escrita como:
F(x) =
1
1+e
x
(9)
En el caso de una funcin de activacin lineal, los niveles
de activacin son libres.
Demuth y Beale (2001) reportaron que las redes feed-
forward a menudo tienen uno o ms capas escondidas de
neuronas sigmoides seguidas por una capa de salida de neu-
ronas lineales. Mltiples capas de neuronas con funciones de
transferencia no lineal permiten a la red aprender relaciones
lineales y no lineales entre los vectores de entrada y salida. la
capa de salida lineal permite a la red producir valores fuera
del rango de -1 a 1. Una funcin tan-sigmoid cuando es usada
como funcin de activacin para producir vectores de salida
en el rango of [-1,+1] puede ser escrita como:
F(x) =
2
1+e
x
1 (10)
adems . las funciones de activacin lineal que son empleadas
para la capa de salida, pueden ser escritas como:
F(x) = x (11)
IV-B. Algoritmo de Entrenamiento de una Backpropagation
La red backpropagation es probablemente la ms conocida
y ampliamente usada entre los actuales tipos de sistemas de
redes neuronales disponibles. La regla de aprendizaje es una
tcnica de tipo gradiente descendiente con propagacin del
error hacia atrs. La instancia de entrenamiento establecida
para la red debe ser presentado muchas veces con el n de
establecer los pesos de las interconexiones entre las neuronas
en un estado de correcta clasicacin de patrones de entrada.
Mientras que la red puede reconocer patrones similares a
aquellos que han sido aprendidos,no tiene la habilidad para
reconocer nuevos patrones, esto se cumple para todas las redes
con aprendizaje supervisado. otra limitacin es que las redes
backpropagation son propensas a un mnimo local, al igual
que cualquier algoritmo de gradiente descendiente.
El algoritmo emplea un ciclo propagacin adaptacin de
dos fases. Una vez que se ha aplicado un patrn a la entrada de
la red como estmulo, este se propaga desde la primera capa
a travs de las capas superiores de la red, hasta generar una
salida. La seal de salida se compara con la salida deseada
y se calcula una seal de error para cada una de las salidas.
Las salidas de error se propagan hacia atrs, partiendo de la
capa de salida, hacia todas las neuronas de la capa oculta
que contribuyen directamente a la salida. Sin embargo las
neuronas de la capa oculta solo reciben una fraccin de la seal
total del error, basndose aproximadamente en la contribucin
relativa que haya aportado cada neurona a la salida original.
Este proceso se repite, capa por capa, hasta que todas las
neuronas de la red hayan recibido una seal de error que
describa su contribucin relativa al error total. La importancia
de este proceso consiste en que, a medida que se entrena la
red, las neuronas de las capas intermedias se organizan a s
mismas de tal modo que las distintas neuronas aprenden a
reconocer distintas caractersticas del espacio total de entrada.
Despus del entrenamiento, cuando se les presente un patrn
arbitrario de entrada que contenga ruido o que est incompleto,
las neuronas de la capa oculta de la red respondern con una
salida activa si la nueva entrada contiene un patrn que se
asemeje a aquella caracterstica que las neuronas individuales
hayan aprendido a reconocer durante su entrenamiento.
En resumen, la red backpropagation aprende a mapear
los patrones de entrada (caractersticas) para un conjunto de
patrones de salida . La red puede ser diseada y entrenada
para conseguir una variedad amplia de mapas, esta habilidad
viene de los nodos en la capa escondida o capas de la red
que aprenden a responder a caractersticas encontradas en los
patrones de entrada. Como la red es entrenada con diferentes
ejemplos tiene la habilidad de generalizar caractersticas sim-
ilares encontradas en diferentes patrones.
El algoritmo backpropagation puede ser formulado como
sigue:
Establecer todos los pesos y nodos con nmeros pe-
queos aleatorios.
La estimacin de un nivel de activacin O
j
de las
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
44
unidades escondidas y de salida, son determinadas us-
ando las ecuaciones 10 y 11.
Empezar en las unidades de salida y trabajar hacia atrs
por las capas escondidas recursivamente. Los pesos son
ajustastados por:
W
j,i
(t +1) =W
j,i
(t) +W
j,i
(12)
donde W
j,i
(t) es el peso de la unidad i a la unidad j en
el tiempo t (o
Calcular la variacon del peso usando:
W
j,i
=
j
O
i
(13)
donde es la taza de aprendizaje (0 < < 1) y
j
es
el gradiente de error de la unidad j . La convergencia es
algunas veces rpida agregando un termino momentun
:
W
j,i
(t +1) =W
j,i
(t)+
j
O
i
+
j,i
(t)W
j,i
(t 1)] (14)
siendo 0 < < 1
Calcular el error gradiente el cual es dado por:
A) para las unidades de salida:

j
= O
j
(1O
j
)(T
j
O
j
) (15)
donde T
j
es la salida de activacion objetivo y O
j
es la
salida de activacin actual de la unidad de salida j.
B)para las unidades escondidas :

j
= O
j
(1O
j
)

k
W
k, j
(16)
donde
k
es el error gradiente en la unidad k con puntos
de conexin de la unidad escondida j.
Repetir pocas hasta converger en terminos de la funcin
de desempeo , una iteracion incluye una instancia,
calcular activaciones, y modicar pesos. la funcin tpi-
ca de desempeo usada para entrenar redes neuronales
feedforward es la media de la suma de cuadrados de los
errores de la red:
mse =
1
N
N

j=1
(T
j
O
j
)
2
(17)
IV-C. Algoritmo de entrenamiento Levenberg-Marquardt
Es uno de los mas rpidos algoritmos de convergencia y
es altamente recomendado para pequeas y medianas redes
que contienen varios cientos de conexiones, este algoritmo
fue diseado en un enfoque de segundo orden sin haber
calculado la matriz hessiana. Cuando la funcin de desempeo
tiene la forma de una suma de cuadrados(como es tpico en
redes feedforward ), entonces la matriz hessiana puede ser
aproximada como H = J
T
J y la gradiente puede ser calculada
como g = J
t
; donde J es la matriz jacobiana, que contiene
las primeras derivadas del error de la red con respecto a
los pesos y bias. y e es un vector de errores de la red. La
matriz jacobiana puede ser calculada a travs de una tcnica de
backpropagation estndar que es menos compleja que calcular
la matriz hessiana.
El algoritmo Levenberg-Marquardt usa esta aproximacin
para la matriz hessiana siguiendo la actualizacin newton-like.
x
k+1
= x
k
[J
T
J +I]
1
J
T
e (18)
Cuando el escalar es cero , esto es el metodo de newton
, usando la matriz hessiana aproximada, cuando es larga,
llega a ser gradiente descendente con un tamao pequeo de
paso. El mtodo de newton es rpido y mas preciso cerca
de un mnimo error, as el objetivo es desplazarse hacia
el mtodo de newton lo mas rpido posible. por lo tanto,
es decrementado despues de cada paso(reduccin en la
funcin de desempeo ) y es incrementada slo cuando un
paso podra incrementar la funcin de desempeo , de esta
manera la funcin de desempeo siempre ser reducida en
cada iteracin del algoritmo, este algoritmo es recomendado
para ms situaciones.
V. GENERACIN DE DATOS DE HDRICOS DE LA CUENCA
DEL RO CHILI
El esquema usado es un modelo que usa procesos estocs-
ticos para la generacin de datos articiales hidrolgicos, en
trminos de series mensuales de auencia usando un modelo
basado en ANN. El modelo consiste de dos componentes, el
primero es la misma parte estocstica del modelo de Thomas-
Fiering, y un componete determinstico que es representado
por la arquitectura de la ANN. Los dos componentes han de
ser recogidos sobre series estandarizadas y normalizadas.
Los datos usados para la generacin para los valores de
caudal, precipitacin y evaporacin son obtenidos de la cuenca
de Ro Chili en la represa del Pae.
Consecuentemente la red neuronal necesita primero ser
escalada. La forma nal del modelo puede ser resumido como
la suma de ambos componentes dado por :
Q
v,t
= f (Y
d
v,t
+R
v,t
) (19)
donde Q
v,t
es el valor articial producido por el modelo,
Y
d
v,t
son los valores producidos por el esquema ANN, y R
v,t
es el componente estocstico correspondiente dado por las
ecuaciones (6 y 8). La funcin f representa la inversa de las
operaciones de pre procesamiento, denida por las ecuaciones
(1) y (3) respectivamente, esto es :
X
v,t
= (Y
d
v,t
+R
v,t
)S
t
+X
t
(20)
Q
v,t
= 10
d
v,t
c
t
Q
t
(21)
Dos arquitecturas de redes neuronales son preparadas, el
primer modelo (ANN1) genera entradas para el presente mes
utilizando la auencia del mes pasado , el segundo modelo
( ANN2) genera la auencia del presente mes utilizando
auencias de los dos meses previos.
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
45
Una arquitectura de 3 capas , feedforward es adoptada, y
funciones sigmoidales fueron usadas como funciones de acti-
vacin para que la salida se encuentre en el rango de [1, +1].
Adems funciones de activacin lineal son empleadas para la
capa de salida. para las series de tiempo bajo consideracin, el
nmero de nodos de entradas y salidas de la red son asignados
de tal manera que los valores objetivo que han de ser previstos
son auencias del siguiente mes. el nmero de nodos en la
capa escondida fueron decididos por procedimiento de prueba
y error. se empez con un nmero pequeo de nodos, entonces
este nmero fue incrementado y cada cambio en el nmero
de nodos fue seguido por el entrenamiento de la red hasta
no detectar una mejora signicativa en su desempeo, as el
nmero de nodos fue establecido.
Para el diseo y entrenamiento del algoritmo Levenberg-
marquardt, la toolbox Network Neural , version 4.0 fue em-
pleada. esta toolbox tiene muchos algoritmos de entrenamiento
feedforward, backpropagation.
0 2 4 6 8 10 12
90
100
110
120
130
140
150
160
170
180
media
real
Figura 4. Modelo de Evaporacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
0 2 4 6 8 10 12
40
60
80
100
120
140
160
180
200
220
240
escenarios
real
Figura 5. Modelo de Evaporacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
0 2 4 6 8 10 12
0
2
4
6
8
10
12
14
media
real
Figura 6. Modelo de Caudal generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
0 2 4 6 8 10 12
0
5
10
15
20
25
30
escenarios
real
Figura 7. Modelo de Caudal generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
0 2 4 6 8 10 12
0
50
100
150
200
250
media
real
Figura 8. Modelo de Precipitacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
VI. EVALUACIN Y CONCLUSIONES DEL MODELO
Las pruebas incluyeron la implementacin del modelo, un
test de robustes para vericar si se preserva las propiedades
no parametrizadas en el modelo, e.g., coeciente Hurst, y
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
46
0 2 4 6 8 10 12
0
50
100
150
200
250
300
350
400
escenarios
real
Figura 9. Modelo de Precipitacin generado para las cuencas del Chili, data
historica: aos 1970-2002, data sintetizada: 2003
caractersticas estadsticas. [14].
Los modelos construidos para las diferentes conguraciones
de la Red Neuronal reproducen las principales caractersticas
estadsticas de la serie temporal historica. Tal semejanza se
entiende en el sentido estadstico. Esto no quiere decir que
una serie generada basada en el modelo tiene que tener
exactamente las mismas caractersticas, como se muestra en
el registro histrico. Por desgracia, no es fcil saber qu
caractersticas deben ser reproducidos por el modelo y cmo
estas caractersticas deben ser interpretadas. Esto se atribuye
principalmente al hecho de que las series hidrologicas son
representadas en muestras anuales, y las verdaderas carac-
tersticas estadsticas de poblacin no son conocidas. Otro
problema es la denicin y la interpretacin de las caracters-
ticas estadsticas derivadas de la muestra. Por lo general, la
media y la desviacin estndar son las caractersticas de menos
incerteza. Por el contrario, la asimetra es muy incierta y su
importancia depende de la aplicacin de la serie hidrolgica
generada. Del mismo modo, la autocorrelacin es muy incierta,
especialmente para pequeos tamaos de muestra.
VI-A. Trabajo Futuro
[25] Presenta una tcnica que podra ser utilizado en la
comparacin de las caractersticas estadsticas derivadas de la
serie y los datos histricos generados. Esta tcnica depende
de la estimacin de los limites globales mximos y mnimos
para cada caracterstica estadstica (es decir, media, desviacin
estndar, coeciente de asimetra, coeciente de correlacin
constante o peridica, etc) que se obtiene a partir de los
datos de las series generadas, para comparar estos lmites
con las caractersticas estadsticas de la data histrica, si
la caracterstica histrica cae dentro de estos lmites, esto
demostrara que el modelo conserva la caracterstica estadstica
histrica.
REFERENCIAS
[1] L. C. D. Campos, Modelo estocastico periodico baseado em redes neu-
rais, Ph.D. dissertation, PONTIFICIA UNIVERSIDADE CATOLICA
DO RIO DE JANEIRO, Rio de Janeiro - Brasil, September 2010.
Cuadro I
EVAPORACIN 2003 -EL PAE
input nodos en capa escondida mse NN rmse
Xn-1 3 0.1253 16.7403
5 0.1236 16.2653
7 0.1229 16.9558
9 0.124 15.0494
Cuadro II
PRECIPITACIN 2003 -EL PAE
input nodos en capa escondida mse NN rmse
Xn-1 3 0.1938 28.9166
5 0.1949 30.2083
7 0.193 23.8425
9 0.1966 25.8047
[2] T. A. Awchi, D. Srivastava et al., Analysis of drought and storage for
mula project using ann and stochastic generation models. Hydrology
Research, vol. 40, no. 1, pp. 7991, 2009.
[3] D. Loucks, E. Van Beek, J. Stedinger, J. Dijkman, and M. Villars,
Water resources systems planning and management: an introduction to
methods, models and applications. Paris: UNESCO, 2005.
[4] J. Smith and R. N. Eli, Neural-network models of rainfall-runoff
process, Water Resources Planning and Management, vol. 121, no. 6,
pp. 499508, 1995.
[5] C. W. Dawson and R. Wilby, An articial neural network approach to
rainfall-runoff modeling, Hydrological Sciences Journal, vol. 43, no. 1,
pp. 4766, 1998.
[6] A. P. Campolo, M. and A. Soldati, River ood forecasting with a neural
network model, Water Resources Research, vol. 35, no. 4, pp. 1191
1197, 1999.
[7] L. W. Liong, S. and G. N. Paudyal, River stage forecasting in
bangladesh: Neural network approach, J. Computing in Civil Engineer-
ing, ASCE, vol. 14, no. 1, pp. 1 8, 2000.
[8] A. W. Minns and M. J. Hall, Articial neural network as rainfall runoff
models, Hydrological Sciences Journal, vol. 41, no. 3, pp. 399 417,
1996.
[9] K. Thirumalaiah and M. C. Deo, Hydrological forecasting using neural
networks, J. Hydrologic Engineering, vol. 5, no. 2, pp. 180 189, 2000.
[10] G. W. J. W. D. Karunanithi, N. and K. Bovee, Neural networks for
river ow prediction, J. Computing in Civil Engineering, ASCE, vol. 8,
no. 2, pp. 201 220, 1994.
[11] D. A. Jain, S. K. and D. K. Srivastava, Application of ann for reservoir
inow prediction and operation, J. Water Resources Planning and
Management, vol. 125, no. 5, pp. 263 271, 1999.
[12] H. Raman and N. Sunilkumar, Multivariate modelling of water re-
sources time series using articial neural networks, Hydrological Sci-
ences Journal, vol. 40, no. 2, pp. 145163, 1995.
[13] G.-B. R. Ochoa-Rivera, J. and J. Andreu, Multivariate synthetic
streamow generation using a hybrid model based on articial neural
networks, Hydrology and Earth System Sciences, vol. 6, no. 4, pp. 627
640, 2002.
[14] J. D. Salas, G. Q. Tabios III, and P. Bartolini, Approaches to multi-
variate modeling of water resources time series1, JAWRA Journal of
the American Water Resources Association, vol. 21, no. 4, pp. 683708,
1985.
[15] T. R. Kjeldsen and D. Rosbjerg, Choice of reliability, resilience and
vulnerability estimators for risk assessments of water resources sys-
tems/choix destimateurs de abilite, de resilience et de vulnerabilite pour
les analyses de risque de systemes de ressources en eau, Hydrological
sciences journal, vol. 49, no. 5, 2004.
[16] C.-s. Peng and N. Buras, Dynamic operation of a surface water
resources system, Water Resources Research, vol. 36, no. 9, pp. 2701
2709, 2000.
[17] M. R. Brittan, Probability Analysis Applied to the Development of
Synthetic Hydrology for the Colorado River. Bureau of Economic
Research, University of Colorado, 1961.
[18] P. R. Julian, A study of the statistical predictability of stream-runoff in
the Upper Colorado River Basin, 1961.
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
47
Cuadro III
CAUDAL 2003 -EL PAE
input nodos en capa escondida mse NN rmse
Xn-1 3 0.1607 1.6634
5 0.1584 2.0392
7 0.1649 1.9423
9 0.1536 2.0293
[19] H. Thomas and M. Fiering, Mathematical synthesis of streamow
sequences for the analysis of river basins by simulation, Design of
water resource systems, pp. 459493, 1962.
[20] L. R. Beard and H. Kubk, Monthly streamow simulation, Computer
Program, pp. 16, 1967.
[21] M. B. Fiering, Streamow synthesis, CAMBRIDGE, HARVARD UNI-
VERSITY PRESS, 1967. 139 P, 1967.
[22] J. Cadavid and J. Salazar, Generacion de series sinteticas de caudales
usando un modelo matalas con medias condicionadas, Avances en
Recursos Hidraulicos, vol. 17, no. 2, 2008.
[23] N. Colston and J. Wiggert, A technique of generating a synthetic ow
record to estimate the variability of dependable ows for a xed reservoir
capacity, Water Resources Research, vol. 6, no. 1, pp. 310315, 1970.
[24] Z. Gangyan, N. Goel, and V. Bhatt, Stochastic modelling of the
sediment load of the upper yangtze river (china), Hydrological sciences
journal, vol. 47, no. S1, pp. 93105, 2002.
[25] J. D. Salas, Applied modeling of hydrologic time series. Water
Resources Publication, 1980.
[26] G. V. Hsu, K. and S. Sorooshian, Articial neural network modeling of
the rainfall runoff process, Water Resources Research, vol. 31, no. 10,
pp. 2517 2530, 1995.
Proceedings del XII Congreso de la Sociedad Peruana de Computaci on CSPC2013
48

You might also like