You are on page 1of 31

FACULTAD DE INGENIERÍA CIVIL

ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA CIVIL

INFORME ACADÉMICO

“Distribuciones probabilísticas en Hidrología”

AUTOR:
García Leveaú, David Oswaldo

ASESOR:
Ing. Daniel Díaz Pérez

CACATACHI – PERÚ
2017

P á g i n a 1 | 31
ÍNDICE

Página
I. INTRODUCCIÓN……………………………………………………….. 03
II. MARCO TEÓRICO……………………………………………………... 05
III. DISTRIBUCIONES DE PROBABILIDAD EN HIDROLOGÍA………. 11
IV. CONCLUSIONES………………………………………………………. 30
V. REFERENCIAS LINKOGRÁFICAS…………………………...………. 31

P á g i n a 2 | 31
I. INTRODUCCIÓN

En el campo de la investigación científica es común la inquietud por intentar


expresar la evolución de un determinado fenómeno mediante una serie de
medidas, que la traduzcan al lenguaje de los números. Al transcurrir el tiempo, el
investigador tropieza con la dificultad de encontrarse en posesión de una gran
cantidad de datos que, perdida su actualidad, serán de muy poco provecho si no
son sometidos a un tratamiento adecuado. La estadística se constituye entonces en
una herramienta indispensable para efectuar este tratamiento, a fin de obtener la
máxima utilidad en las aplicaciones prácticas a partir de los registros de diverso
tipo de que se dispone (en especial caudales y precipitaciones). Son numerosas las
definiciones de Estadística, no correspondiendo aquí presentar su nómina ni elegir
una que resulte idónea. Sí en cambio, conviene distinguir dos ramas que han
evolucionado en forma separada:

 Estadística Descriptiva: Es la que intenta obtener toda la información


posible de los datos recogidos, mediante su adecuado ordenamiento. Son
producto de ella las clasificaciones de datos en forma de tablas,
procesamiento y archivo mediante programas de computación, etc.
 Estadística Matemática: Pretende ir más lejos, basándose en
comparaciones del fenómeno con modelos probabilísticos teóricos, a fin
de obtener una información que no resulta evidente con el simple
ordenamiento de los datos. En este campo se ha desarrollado una teoría
matemática, a veces muy compleja, basada en la Teoría de Probabilidades,
de la que la Estadística Matemática puede considerarse como una
aplicación práctica.

P á g i n a 3 | 31
1.1. Objetivos

El presente informe cuenta con dos distintos tipos de objetivos, de acuerdo al valor
de importancia propuesta por el autor, para el conocimiento del tema.

1.1.1. Objetivo General


 Conocer los conceptos básicos relacionados a las distribuciones
probabilistas en la hidrología y los métodos comúnmente aplicados.

1.1.2. Objetivos específicos


 Analizar la importancia de la estadística aplicada a la hidrología.
 Conocer los distintos tipos de distribuciones probabilísticas usadas en la
hidrología.
 Representar gráficamente el significado de términos propios referentes a
las distribuciones probabilísticas.

P á g i n a 4 | 31
II. MARCO TEÓRICO

2.1. Importancia de la estadística en la hidrología


Los dos conceptos expuestos en el apartado anterior son de importante aplicación
en el campo de la Hidrología, sobre todo la de superficie, por corresponder a ella
los ciclos más rápidos de circulación del agua. La mayoría de las causas que actúan
en los ciclos hidrológicos superficiales son de carácter meteorológico y la propia
Meteorología se desarrolla fundamentalmente a través de la Estadística, ya que es
muy difícil llegar a un estudio matemático y preciso de los problemas físicos que
condicionan los fenómenos hidrológicos. Sin embargo, como los caudales de los
ríos y sus cauces constituyen un complejo, menos complicado y amplio, que la
atmósfera, es más fácil y viable estudiar estadísticamente los ríos a través de sus
estaciones de aforo, al menos en los cursos principales. Por tanto, la Meteorología
y su estadística aplicada se utilizan para extrapolar donde los aforos no pueden
alcanzar, por tratarse de ríos pequeños para los que no puede pretenderse que cada
uno tenga su propia estación de aforo, o para ampliar la extensión de las series,
puesto que normalmente es más antigua la estadística meteorológica que la de
aforos. La recopilación de datos hidrológicos, y su ordenamiento estadístico,
tienen como fin práctico su aplicación para dimensionar, con el mayor acierto
posible, las obras que han de utilizar los recursos hídricos (embalses, presas,
captaciones, obras de conducción, centrales hidroeléctricas, etc.) y prever el
régimen de explotación, de manera que se obtenga el mayor beneficio posible de
las instalaciones construidas. Se supone siempre que, en el futuro, el régimen
hidrológico de un río tendrá cierta relación con el pasado y se procura obtener, del
conocimiento de la estadística de caudales, referencias para prever dentro de
ciertos márgenes de seguridad, el régimen de caudales que pueda presentare en el
futuro.

2.2. Variables hidrológicas

Según Chow et al., (1994), las precipitaciones y los caudales son variables
hidrológicas que son medidas por las estaciones hidrométricas. Éstas son
consideradas variables aleatorias y son definidas mediante una función que les
asigna un valor, asociado a cada punto del espacio muestral.
P á g i n a 5 | 31
2.3. Precipitaciones
Las precipitaciones representan el elemento más importante del ciclo hidrológico.
Para Fernández (1995), la precipitación, junto con la temperatura, es el elemento
climático más influyente en el medio natural, ya que afecta directamente en la
distribución de las especies vegetales y animales, y a la vez en las actividades del
hombre, como son las agrícolas, las forestales y las económicas entre otras.

Según Llamas, (1993), las precipitaciones son un fenómeno físico que describe la
transferencia de agua en fase líquida (en forma de lluvia), y en fase sólida (en
forma de nieve y granizo), entre la atmósfera y el suelo. Una parte de las
precipitaciones alimenta la evaporación en la cuenca y el resto es aportación
superficial o subterránea.

Las precipitaciones se pueden clasificar de tres tipos: orográficas, de convección


y ciclónicas, dentro de las cuales las primeras son aquellas donde los vientos
cargados de humedad llegan a una zona montañosa, y las masas de aire suben y
se enfrían hasta alcanzar su punto de condensación. Por otra parte, las
precipitaciones de tipo convectiva, son de corta duración, pero su intensidad es
grande; en este tipo de precipitaciones el aire se calienta por radiación solar y se
eleva, y durante su trayecto de ascensión se enfría hasta alcanzar su punto de
condensación. Finalmente, las precipitaciones de tipo ciclónicas están asociadas
al contacto 4 entre masas de aire de distinta humedad y temperatura, provocando
precipitaciones prolongadas (Pizarro, 2002).
Desde un punto de vista hidrológico, Aparicio (1997) señala que en la superficie
terrestre las precipitaciones son la fuente principal de agua, y la medición de éstas,
son el punto de partida de la mayoría de los estudios relativos al uso del agua.

2.4. Caudales
Según Pizarro et al., (1993), se denomina caudal o gasto, al volumen de agua que
fluye a través de una sección transversal por unidad de tiempo, donde la unidad
de medida más comúnmente empleada es m3 /s. Para el ingeniero hidrólogo, el
caudal es una variable dependiente en la mayoría de los estudios, puesto que la

P á g i n a 6 | 31
ingeniería hidrológica se dedica principalmente a estimar volúmenes de flujo, o
los cambios en estos valores debido a la acción del hombre (Linsley et al., 1988).

Para el cálculo de caudales existen diferentes metodologías, dependiendo del tipo


de información que se disponga, la cual puede ser de tipo fluvial o pluvial; si se
cuenta con datos fluviométricos, los caudales son calculados en forma directa a
través de análisis de frecuencia de los gastos medidos, en cambio si se cuenta con
información pluviométrica, la estimación de crecidas es estimada por medio de
modelos basados en las características morfométricas de la cuenca en estudio
(Pizarro et al, 1993).

Al considerar los caudales, son de gran importancia los que representan valores
máximos. Linsley et al., (1988) señalan que un caudal punta, es un caudal máximo
registrado, el cual sobrepasa los valores normales. En un hidrograma de crecidas,
es el valor más alto de la curva. El cálculo de este tipo de caudales es una de las
máximas preocupaciones de la ingeniería hidrológica, con el fin de que esta
información sea útil en el diseño de obras hidráulicas, además de permitir su
cuantificación en volumen y poder así definir estrategias de gestión de los recursos
hídricos, hecho que cada vez cobra mayor relevancia.

2.5. Tratamiento Probabilístico de la Información Hidrológica

Según Chow, et al., (1994), un conjunto de observaciones de x1, x2, . . . , xn, de


la variable aleatoria, se denomina muestra. Una muestra es sacada de una
población hipotéticamente infinita, que posee propiedades estadísticas constantes.
Las propiedades de una muestra pueden cambiar de una muestra a otra y el
conjunto de todas las muestras posibles que pueden extraerse de una población, se
conoce como espacio muestral, y un evento es un subconjunto muestral. Si las
observaciones de una muestra están idénticamente distribuidas, éstas pueden
ordenarse para formar un histograma de frecuencia. Ahora bien, si el número de
observaciones ni en el intervalo i que cubre un cierto rango, se divide por el
número total de observaciones n, el resultado se conoce como frecuencia relativa.
Asimismo, la suma de los valores de la frecuencia relativa hasta un punto dado,

P á g i n a 7 | 31
es la función de frecuencia acumulada, y en su límite, cuando n→∞ y ∆χ→0, se
denomina función de distribución de probabilidad.

Desde el punto de vista de ajuste de la información de la muestra a una distribución


teórica, las cuatro funciones (frecuencia relativa y frecuencia acumulada, para la
muestra y para la población, distribución de probabilidad y densidad de
probabilidad), pueden ordenarse en un ciclo, tal como se muestra en la figura N°1.
Empezando por la parte superior izquierda, (a), la función de frecuencia relativa
se calcula utilizando los datos de la muestra divididos en intervalos y acumulados
para formar la función de frecuencia acumulada mostrada en la parte inferior
izquierda, (b). La función de distribución de probabilidad en la parte inferior
derecha, (c), es el límite teórico de la función de frecuencia acumulada a medida
que el tamaño de la muestra se vuelve infinitamente grande y el intervalo de la
información infinitamente pequeño. La función de densidad de probabilidad en la
parte superior derecha, (d), es el valor de la pendiente de la función de distribución
para un valor específico de x. El ciclo puede cerrarse, calculando un valor teórico
de la función de frecuencia relativa, denominado la función de probabilidad
incrementada (Chow et al.,1994).

P á g i n a 8 | 31
Funciones de frecuencia de la muestra y funciones de probabilidad de la
población (Fuente: Chow et al.,1994).

2.6. Determinación de la Probabilidad

El diseño y la planeación de obras hidráulicas, están siempre relacionados con


eventos hidrológicos futuros, cuyo tiempo de ocurrencia no puede predecirse; es
por eso que se debe recurrir al estudio de la probabilidad o frecuencia (Linsley et
al., 1988).
Según Pizarro y Novoa (1986), la definición de la probabilidad implica consignar
dos conceptos; uno de ellos es el periodo de retorno, el cual está definido, como
el tiempo que transcurre entre dos sucesos iguales; sea ese tiempo, T. El segundo
concepto es la probabilidad de excedencia, que es la probabilidad asociada al
periodo de retorno, donde la variable aleatoria toma un valor igual o superior a
cierto número X y se define como:

P á g i n a 9 | 31
La probabilidad de que un valor de la variable aleatoria no sea excedido, está dado
por la función de distribución de probabilidad F(x), la cual se expresa de la
siguiente manera:

Luego la probabilidad de que la variable aleatoria sea mayor que X, se expresa


como:

2.7. Análisis de Frecuencia

El análisis de frecuencia es una herramienta utilizada para predecir el


comportamiento futuro de los caudales en un sitio de interés, a partir de la
información histórica de caudales. Es un método basado en procedimientos
estadísticos, que permite calcular la magnitud del caudal asociado a un período de
retorno. Su confiabilidad depende de la longitud y calidad de la serie histórica,
además de la incertidumbre propia de la distribución de probabilidades
seleccionada. Cuando se pretende realizar extrapolaciones a períodos de retorno
mayores que la longitud de la serie disponible, el error relativo asociado a la
distribución de probabilidades utilizada es más importante, mientras que en
interpolaciones, la incertidumbre está asociada 8 principalmente a la calidad de
los datos a modelar; en ambos casos la incertidumbre es alta dependiendo de la
cantidad de datos disponibles (Ashkar, et al. 1993).

El análisis de frecuencia consiste en determinar los parámetros de las


distribuciones de probabilidad y determinar con el factor de frecuencia la
magnitud del evento para un período de retorno dado. Para determinar la magnitud
de eventos extremos, cuando la distribución de probabilidades no es una función
fácilmente invertible, se requiere conocer la variación de la variable respecto a la
media.

P á g i n a 10 | 31
III. DISTRIBUCIONES DE PROBABILIDAD EN HIDROLOGÍA

El comportamiento de las variables aleatorias discretas o continuas se describe con la


ayuda de Distribuciones de Probabilidad. La variable se designa por mayúscula y un
valor específico de ella por minúscula.

Por P(x = a) se denota la probabilidad de que un evento asuma el valor a; similarmente


P(a  x  b) denota la probabilidad de que un evento se encuentre en el intervalo (a,b).
Si conocemos la probabilidad P(a  x  b) para todos los valores de a y b, se dice que
conocemos la Distribución de Probabilidades de la variable x.

Si x es un número dado y consideramos la probabilidad P(X  x):

F(x)= P(X  x):

y llamamos F(x) la función de distribución acumulada.

Ejemplo

Se tienen las probabilidades de que haya 1, 2, 3, ... etc, días nublados por semana en un
determinado lugar, con ellos calcule la distribución de probabilidades

x P(x) F(x)
0 0.05 0.05
1 0.15 0.20
2 0.25 0.45
3 0.20 0.65
4 0.15 0.80
5 0.10 0.90
6 0.08 0.98
7 0.02 1.00
Total 1.0

P á g i n a 11 | 31
Si se tiene una variable aleatoria continua, la figura presenta el histograma de 85 años de
registro de caudales de crecientes (máximos instantáneos) en el río Magdalena, agrupados
en 9 intervalos de clase.

x P(x) F(x)
1 0.05 0.05
2 0.10 0.15
3 0.15 0.30
4 0.20 0.50
5 0.10 0.60
6 0.10 0.70
7 0.15 0.85
8 0.10 0.95
9 0.05 1.00
Total 1.00

P á g i n a 12 | 31
Cuando el número de observaciones se incrementa, el tamaño de los intervalos decrece y
se puede tener algo sí

P á g i n a 13 | 31
donde f(x) es la llamada función de densidad de probabilidades y tiene las siguientes
características

i)

ii)

iii)

Lo que implica que las probabilidades se definen sólo como ÁREAS bajo la función de
densidad de probabilidad (FDP) entre límites finitos.

MOMENTOS DE LAS DISTRIBUCIONES

Las propiedades de las distribuciones pueden ser definidas completamente en términos


de los momentos. Los momentos en estadística son similares a los momentos en física
(rotación respecto al origen)

para la variable continua

para la variable discreta

o respecto a la media (eje de rotación diferente al origen)

para la variable continua

para la variable discreta

PARÁMETROS ESTADÍSTICOS

Los estadísticos extraen información de una muestra, indicando las características de la


población. Los principales estadísticos son los momentos de primer, segundo y tercer
orden correspondiente a la media, varianza, y asimetría respectivamente.

Media :
es el valor esperado de la variable misma . Primer momento respecto a la origen. Muestra
la tendencia central de la distribución

el valor estimado de la media a partir de la muestra es


P á g i n a 14 | 31
Varianza ²:
mide la variabilidad de los datos. Es el segundo momento respecto a la media.

el valor estimado de la varianza a partir de la muestra es

en el cual el divisor es n-1 en lugar de n para asegurar que la estadística de la muestra no


sea sesgada, es decir, que no tenga una tendencia, en promedio, a ser mayor o menor que
el valor verdadero. Las unidades de la varianza son la media al cuadrado, la desviación
estándar  es una medida de la variabilidad que tiene las mismas dimensiones que la
media y simplemente es la raíz cuadrada de la varianza, se estima por s. El significado
de la desviación estándar se ilustra en la siguiente figura

Efectos de la función de densidad de probabilidad causados por cambios en la desviación


estándar.

Coeficiente de variación es una medida adimensional de la variabilidad su

estimado es

P á g i n a 15 | 31
Coeficiente de asimetría 
la distribución de los valores de una distribución alrededor de la media se mide por la
asimetría. Se obtiene a partir del tercer momento alrededor de la media, dividiéndolo por
el cubo de la desviación estándar para que sea adimensional.

tercer momento respecto a la media

Un estimativo del coeficiente de asimetría está dado por

Ejemplo

Encontrar el valor medio de la precipitación si se tiene

Frecuencia Frecuencia
Intervalo (mm) Xi medio x f(x)
absoluta relativa
100 110 105 10 0.1 10.5
110 120 115 16 0.16 18.4
120 130 125 9 0.09 11.25
130 140 135 10 0.1 13.5
140 150 145 20 0.2 29
150 160 155 15 0.15 23.25
160 170 165 20 0.2 33
Total=100 = 138.9

ANALISIS DE FRECUENCIA

El análisis de frecuencia es una herramienta utilizada para, predecir el comportamiento


futuro de los caudales en un sitio de interés, a partir de la información histórica de
caudales. Es un método basado en procedimientos estadísticos que permite calcular la
magnitud del caudal asociado a un período de retorno. Su confiabilidad depende de la
longitud y calidad de la serie histórica, además de la incertidumbre propia de la
distribución de probabilidades seleccionada. Cuando se pretende realizar
extrapolaciones, período de retorno mayor que la longitud de la serie disponible, el error
relativo asociado a la distribución de probabilidades utilizada es más importante, mientras
que en interpolaciones la incertidumbre está asociada principalmente a la calidad de los
datos a modelar; en ambos casos la incertidumbre es alta dependiendo de la cantidad de
datos disponibles (Ashkar, et al. 1994). La extrapolación de frecuencias extremas en una
distribución empírica de crecientes es extremadamente riesgosa (Garcon, 1994).

Para determinar la magnitud de eventos extremos cuando la distribución de


probabilidades no es una función fácilmente invertibles se requiere conocer la variación

P á g i n a 16 | 31
de la variable respecto a la media. Chow en 1951 propusó determinar esta variación a
partir de un factor de frecuencia KT que puede ser expresado:

y se puede estimar a partir de los datos

Para una distribución dada, puede determinarse una relación entre K y el período de
retorno Tr. Esta relación puede expresarse en términos matemáticos o por medio del uso
de una tabla.

El análisis de frecuencia consiste en determinar los parámetros de las distribuciones de


probabilidad y determinar con el factor de frecuencia la magnitud del evento para un
período de retorno dado.

A continuación se describen las principales distribuciones de probabilidad utilizadas en


hidrología, la forma de estimar sus parámetros, el factor de frecuencia y los límites de
confianza. Estos últimos son indicadores de que tanta incertidumbre se tiene con las
extrapolaciones, puesto que determinar el rango de valores donde realmente estaría la
variables, si el rango es muy grande la incertidumbre es muy alta y si es pequeño, por el
contrario, habrá mucha confianza en el valor estimado.

DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES CONTINUAS

3.1 DISTRIBUCION NORMAL

La distribución normal es una distribución simétrica en forma de campana, también


conocida como Campana de Gauss. Aunque muchas veces no se ajusta a los datos
hidrológicos tiene amplia aplicación por ejemplo a los datos transformados que siguen la
distribución normal.

3.1.1 Función de densidad:

La función de densidad está dada por

Los dos parámetros de la distribución son la media  y desviación estándar  para los
cuales (media) y s (desviación estándar) son derivados de los datos.

P á g i n a 17 | 31
3.1.2 Estimación de parámetros:

3.1.3 Factor de frecuencia:

1. 1. Si se trabaja con los X sin transformar el K se calcula como

este factor es el mismo de la variable normal estándar

3.1.4 Limites de confianza:

donde  es el nivel de probabilidad es el cuantil de la distribución normal


estandarizada para una probabilidad acumulada de 1- y Se es el error estándar

3.2 DISTRIBUCIÓN LOGNORMAL DE DOS PARÁMETROS

Si los logaritmos Y de una variable aleatoria X se distribuyen normalmente se dice que


X se distribuye normalmente.

Esta distribución es muy usada para el calculo de valores extremos por ejemplo Qmax,
Qmínimos, Pmax, Pmínima (excelentes resultados en Antioquia). Tiene la ventaja que
X>0 y que la transformación Log tiende a reducir la asimetría positiva ya que al sacar
logaritmos se reducen en mayor proporción los datos mayores que los menores.

Limitaciones: tiene solamente dos parámetros, y requiere que los logaritmos de la


variables estén centrados en la media

3.2.1 Función de densidad:

P á g i n a 18 | 31
y = ln x
donde,
y : media de los logaritmos de la población (parámetro escalar), estimado y :
Desviación estándar de los logaritmos de la población, estimado sy.

3.2.2 Estimación de parámetros:

3.2.3 Factor de frecuencia:

Puede trabajarse en el campo original y en el campo transformado.

2. 2. Campo transformado: Si se trabaja en el campo transformado se trabaja con la


media y la desviación estándar de los logaritmos, así:

Ln(XTr) = xTr+KSy
de donde,
XTr = eln (xTr)

con K con variable normal estandarizada para el Tr dado, x y media de los logaritmos y
Sy es la desviación estándar de los logaritmos.

3. 3. Campo original: Si se trabaja con los X sin transformar el K se calcula como

K es la variable normal estandarizada para el Tr dado, es el coeficiente de


variación, x media de los datos originales y s desviación estándar de los datos originales.

P á g i n a 19 | 31
3.2.4 Limites de confianza:

En el campo transformado.

en donde, n numero de datos, Se error estándar, KT variable normal estandarizada.

EJEMPLO: En un río se tienen 30 años de registros de Qmáximos instantáneos anuales


con x= 15 m3/s, S = 5 m3/s (media y desviación estándar para los datos originales).
xy=2.655, sy = 0.324 (media y desviación estándar de los datos transformados). Encontrar
el caudal para un periodo de retorno de 100 años y los limites de confianza para un  =
5%. Calcular la probabilidad de que un caudal de 42.5 m3/s no sea igualado o excedido
P(Q  4.25).

Solución:

n=30
x= 15 m3/s xy=2.655
s = 5 m3/s sy = 0.324

En el campo original

= 5/15 = 0.33

K = F-1(1-1/Tr) = F-1(1-1/100) = F-1(0.99)

de la tabla de la normal se obtiene KT=2.33

KT = 3.06

QTr = 15 + 5 * 3.028
QTr = 30.14 m3/s
P á g i n a 20 | 31
En el campo transformado se tiene que:

LnQTr100 = 2.655 + 2.33*0.324

LnQTr100 = 3.40992

QTr100 = Exp (3.40992)

Q Tr100 = 30.26 m3/s

Limites de confianza

Ln (QTr)  t(1-) Se

 = 1.93

t(1-) = t(0.95) = 1.645 (Leído de la tabla de la normal)

Ln(30.28)  (1.645 ) (0.11)

3.41  0.18095
[3.22905 3.59095]
[e3.22905 e3.59095]
[25.26 36.29] Intervalos de confianza para QTr100

b) Calcular la probabilidad de que un caudal de 45 m3/s no se igualado o excedido P(Q


4.25).

Ln(42.5) = 3.75

t = (3.75 - 2.655)/0.324

F(3.38) = 0.9996 Leído de la tabla de la normal

P(Q 4.25) = 99.9%

P á g i n a 21 | 31
3.3 DISTRIBUCION GUMBEL O EXTREMA TIPO I

Una familia importante de distribuciones usadas en el análisis de frecuencia hidrológico


es la distribución general de valores extremos, la cual ha sido ampliamente utilizada para
representar el comportamiento de crecientes y sequías (máximos y mínimos).

3.3.1 Función de densidad:

En donde  y  son los parámetros de la distribución.

3.3.2 Estimación de parámetros

donde son la media y la desviación estándar estimadas con la muestra.

3.3.3 Factor de frecuencia:

Donde Tr es el periodo de retorno. Para la distribución Gumbel se tiene que el caudal


para un período de retorno de 2.33 años es igual a la media de los caudales máximos.

3.3.4 Limites de confianza

Xt  t(1-) Se

P á g i n a 22 | 31
KT es el factor de frecuencia y t(1-) es la variable normal estandarizada para una
probabilidad de no excedencia de 1-.

EJEMPLO: Para el ejemplo anterior encontrar el Q de 100 años de periodo de retorno y


los intervalos de confianza. x= 15 m3/s, s = 5 m3/s

QTr100 = x + KT s

KT = 3.14

QTr100 = 15 + 3.14*5
QTr100 = 30.7 m3/s

Intervalos de confianza

t(1-) = t(0.95) = 1.645 (Leído de la tabla de la normal)

 = 3.93

Xt  t(1-) Se

30.7 m3/s  (1.64) (3.58)

[24.83 m3/s 36.58 m3/s] Intervalo de confianza para QTr100

3.4 DISTRIBUCION GAMMA DE TRES PARÁMETROS O PEARSON TIPO 3

Esta distribución ha sido una de las mas utilizadas en hidrología. Como la mayoría de las
variables hidrológicas son sesgadas, la función Gamma se utiliza para ajustar la
distribución de frecuencia de variables tales como crecientes máximas anuales, Caudales
mínimos, Volúmenes de flujo anuales y estacionales, valores de precipitaciones extremas
y volúmenes de lluvia de corta duración. La función de distribución Gamma tiene dos o
tres parámetros.

3.4.1 Función de densidad:

P á g i n a 23 | 31
donde,

x0  x   para   0
  x  x0 para   0

 y  son los parámetros de escala y forma, respectivamente , y x 0 es el parámetro de


localización.

3.4.2 Estimación de parámetros:

Cs es el coeficiente de asimetría, son la media y la desviación estándar de la


muestra respectivamente.

3.4.3 Factor de frecuencia:

donde z es la variable normal estandarizada

Este valor de K se encuentra tabulado de acuerdo al valor de Cs calculado con la muestra.

3.4.4 Intervalos de confianza:

Xt  t(1-) Se

Donde S es la desviación estándar de la muestra, n es el número de datos y  se encuentra


tabulado en función de Cs y Tr.

EJEMPLO: Se tiene una estación con 30 años de registros de caudales máximos


instantáneos con Media de 4144 pie3/s y desviación estándar de 3311 pie3/s. Si el
coeficiente de asimetría de los caudales es de 1.981 pie3/s cual es caudal para un periodo
de retorno de 100 años y su intervalo de confianza.

P á g i n a 24 | 31
QTr100 = X+ SK

K es F(1.981, 100) de tablas se obtiene K=3.595 (1.9,100) = 3.553


(2.0,100) = 3.605

QTr100 = 4144+ (3.595) (3311)


QTr100 = 16050 pie3/s

Intervalos de confianza

Xt  t(1-) Se

 = F(1.981,100) de tablas se obtiene  =8.4922 (1.9,100) = 8.2196


(2.0,100) = 8.5562

Se = 5133.56 pie3/s

t(1-) = t(0.95) = 1.645 (Leído de la tabla de la normal)

16050  (5133.56) (1.645)

[7605.29 pie3/s 24494.71pie3/s] Intervalos de confianza para QTr100

3.5 DISTRIBUCIÓN LOG GAMMA O LOGPEARSON DE 3 PARÁMETROS

Si los logaritmos Y de una variable aleatoria X se ajustan a una distribución Pearson tipo
III, se dice que la variable aleatoria X se ajusta a una distribución Log Pearson Tipo III.
Esta distribución es ampliamente usada en el mundo para el análisis de frecuencia de
Caudales máximos. Esta se trabaja igual que para la Pearson Tipo III pero con X y y Sy
como la media y desviación estándar de los logaritmos de la variable original X.

3.5.1 Función de densidad:

P á g i n a 25 | 31
donde,

y0  y   para   0
  y  y0 para   0

 y  son los parámetros de escala y forma, respectivamente , y y0 es el parámetro de


localización.

3.5.2 Estimación de parámetros:

Cs es el coeficiente de asimetría, son la media y la desviación estándar de los


logaritmos de la muestra respectivamente.

3.5.3 Factor de frecuencia:

donde z es la variable normal estandarizada

Este valor de K se encuentra tabulado de acuerdo al valor de Cs calculado con la muestra.

3.5.4 Intervalos de confianza:

Xt  t(1-) Se

Donde Sy es la desviación estándar de los logaritmos de la muestra, n es el número de


datos y  se encuentra tabulado en función de Cs y Tr.

P á g i n a 26 | 31
AJUSTE DE DISTRIBUCIONES

Para la modelación de caudales máximos se utilizan, entre otras, las distribuciones Log -
Normal, Gumbel y Log-Gumbel principalmente. Para seleccionar la distribución de
probabilidades de la serie histórica se deben tener en cuenta algunas consideraciones.

 Cuando en la serie histórica se observan “outliers1[1]” es necesario verificar la


sensibilidad del ajuste debido a la presencia de estos, (Ashkar, et al. 1994)

 Para el ajuste a las distribuciones Log-Normal, Log-Gumbel y Log-Pearson se


requiere transformar la variable al campo logarítmico para modelarla, con lo que
se disminuye la varianza muestral, pero también se filtran las variaciones reales
de los datos.

 Las distribuciones de dos parámetros fijan el valor del coeficiente de asimetría, lo


que en algunos casos puede no ser recomendable. La distribución Log - Normal
de dos parámetros sólo es recomendable sí el coeficiente de asimetría es cercano
a cero. Las distribuciones Gumbel y Log - Gumbel son recomendables si el
coeficiente de asimetría de los eventos registrados es cercano a 1.13

 Para ajustar distribuciones de tres parámetros (Log Normal III, Log Pearson) se
requiere estimar el coeficiente de asimetría de la distribución; para ello es
necesario disponer de una serie con longitud de registros larga, mayor de 50 años,
(Kite, 1988). Las distribuciones de dos parámetros son usualmente preferidas
cuando se dispone de pocos datos, porque reducen la varianza de la muestra,
(Ashkar, et al. 1994).

 Para seleccionar la distribución de probabilidades adecuada se debe tratar de


utilizar información adicional del proceso hidrológico que permita identificar la
forma en que se distribuye la variable. Usualmente es muy difícil determinar las
propiedades físicas de los procesos hidrológicos para identificar el tipo de
distribución de probabilidad que es aplicable.

 Kite (1988) y Mamdouh (1993) afirman que no existe consistencia sobre cual es
la distribución que mejor se ajusta a los caudales máximos y recomiendan
seleccionar el mejor ajuste a criterio del modelador con la prueba de ajuste gráfico
o basado en el comportamiento de las pruebas estadísticas de bondad del ajuste
(por ejemplo Chi Cuadrado, Smirnov-Kolmogorov, Cramer-Von Mises) en las
que se calcula un estimador y se compara con un valor tabulado para determinar
si el ajuste es adecuado o no. En la prueba de ajuste gráfica se dibujan los valores
registrados en la serie contra la distribución teórica de probabilidades y de manera
visual (subjetiva) se determina si el ajuste es adecuado o no.

Cuando la información es adecuada el análisis de frecuencia es la metodología más


recomendable para la evaluación de eventos extremos, ya que la estimación depende
solamente de los caudales máximos anuales que han ocurrido en la cuenca y no da cuenta
de los procesos de transformación de la precipitación en escorrentía. Obviamente tiene

P á g i n a 27 | 31
algunas limitaciones relacionadas con el comportamiento de la serie histórica y con el
tamaño y calidad de los datos de la muestra.

 Cuando se presenten cambios o tendencias en la serie histórica se deben utilizar


técnicas estadísticas que permitan removerlos para poder realizar el análisis de
frecuencias (Kite, 1988; Mamdouh, 1993; Ashkar, et al. 1994).

 La selección inadecuada de la distribución de probabilidades de la serie histórica


arrojará resultados de confiabilidad dudosa, (Ashkar, et al. 1994).

 El tamaño de la muestra influye directamente en la confiabilidad de los resultados,


así a mayor período de retorno del estimativo mayor longitud de registros
necesaria para mejor confiabilidad en los resultados.

El ajuste a distribuciones se puede hacer de dos técnicas, con el factor de frecuencia como
se refirió en el numeral ANALISIS DE FRECUENCIA o hallando la distribución
empírica de los datos muestrales, por el método de Plotting Position.

Plotting Position

Trabaja con la probabilidad de excedencia asignada a cada valor de la muestra. Se han


propuesto numerosos métodos empíricos. Si n es el total de valores y m es el rango de
un valor en una lista ordenada de mayor a menor (m=1 para el valor máximo) la
probabilidad de excedencia se puede obtener por medio de las siguientes expresiones

California

Weibull

Hazen

La expresión más utilizada es la Weibull. Con las anteriores expresiones se halla lo que
se conoce como la distribución empírica de una muestra, esta luego se puede ajustar a una
de las distribuciones teóricas presentadas anteriormente. Los resultados pueden ser
dibujados en el papel de probabilidad; este es diseñado para que los datos se ajusten a una
línea recta y se puedan comparar los datos muestrales con la distribución teórica (línea
recta).

Pruebas de Ajuste

Para determinar que tan adecuado es el ajuste de los datos a una distribución de
probabilidades se han propuesto una serie de pruebas estadísticas que determinan si es
adecuado el ajuste. Estos son análisis estadísticos y como tal se deben entender, es decir,
no se puede ignorar el significado físico de los ajustes.

P á g i n a 28 | 31
Prueba Smirnov Kolmogorov

El estadístico Smirnov Kolmogorov D considera la desviación de la función de


distribución de probabilidades de la muestra P(x) de la función de probabilidades teórica,
escogida Po(x) tal que .

La prueba requiere que el valor Dn calculado con la expresión anterior sea menor que el
valor tabulado Dn para un nivel de probabilidad requerido.

Esta prueba es fácil de realizar y comprende las siguientes etapas:


 El estadístico Dn es la máxima diferencia entre la función de distribución
acumulada de la muestra y la función de distribución acumulada teórica escogida.
 Se fija el nivel de probabilidad , valores de 0.05 y 0.01 son los más usuales.
 El valor crítico D de la prueba debe ser obtenido de tablas en función de  y n.
 Si el valor calculado Dn es mayor que el D, la distribución escogida se debe
rechazar.

Prueba Chi Cuadrado

Una medida de las discrepancia entre las frecuencias observadas (fo) y las frecuencias
calculadas (fc) por medio de una distribución teórica esta dada por el estadístico χ²

en donde
si el estadístico χ²=0 significa que las distribuciones teórica y empírica ajustan
exactamente, mientras que si el estadístico χ²>0, ellas difieren. La distribución del
estadístico χ² se puede asimilar a una distribución Chi-cuadrado con (k-n-1) grados de
libertad, donde k es el número de intervalos y n es el número de los parámetros de la
distribución teórica. La función χ² se encuentra tabulada. Supongase que una hipótesis
Ho es aceptar que una distribución empírica se ajusta a una distribución Normal. Si el
valor calculado de χ² por la ecuación anterior es mayor que algún valor crítico de χ², con
niveles de significancia  de 0.05 y 0.01 (el nivel de confianza es 1-) se puede decir que
las frecuencias observadas difieren significativamente de las frecuencias esperadas (o
calculadas) y entonces la hipótesis Ho se rechaza, si ocurre lo contrario entonces se
acepta.

2[1] Aunque no existe una definición generalmente aceptada, se puede entender como
valores extremos, muy superiores a los demás registrados (Ashkar, et al. 1994).

P á g i n a 29 | 31
IV. CONCLUSIONES

El cálculo de un caudal máximo en un tiempo determinado y sus


componentes, suponen de una serie de cálculos y ecuaciones complejas,
cuya equivocación en el más insignificante valor, liberan la obtención de
resultados erróneos al momento de obtener la respuesta final, esto
provoca que las construcciones sometidas a fuerzas fluviales y pluviales
no tengan la resistencia calculada debida.

El objetivo del cálculo de la crecida de diseño es asociar una probabilidad


de ocurrencia a las distintas magnitudes de la crecida. Su determinación
debe ser precisa para poder fijar económicamente el tamaño de la
estructura requerida y evitar daños a la carretera.

P á g i n a 30 | 31
V. REFERENCIAS LINKOGRÁFICAS

 http://www.academia.edu/7985199/HIDROLOGIA_I_UNIDAD_9_ESTAD%C3%
8DSTICA_APLICADA_A_LA_HIDROLOG%C3%8DA

 http://www.cuevadelcivil.com/2010/04/caudal-de-diseno.html

 http://fluidos.eia.edu.co/hidrologiai/probabilidad/probabilidad.htm

 https://civilgeeks.com/2011/06/02/manual-de-estadistica-aplicada-la-
hidrologia/

 https://es.slideshare.net/freddysantiagord/metodos-probabilisticos-de-
hidrologia

P á g i n a 31 | 31

You might also like