You are on page 1of 34

Ayudantía/Laboratorio 7

Simulaciones
MIN 235 – Geoestadística
Rodrigo Estay Huidobro
rodrigo.estayh@usm.cl
Propiedades del Kriging
Interpolación exacta: la estimación en un sitio con dato es igual al valor del dato y la
varianza de kriging en este sitio vale 0

Aditividad: la estimación de la ley de un bloque es igual al promedio de las estimaciones


de leyes puntuales en este bloque

Suavizamiento: la dispersión de los valores estimados es menor que la


dispersión de los valores verdaderos, sobre todo en las zonas donde hay pocos datos. En
consecuencia, se tiende a subestimar las zonas de altas leyes y sobreestimar las zonas de
bajas leyes. El kriging es inapropiado para evaluación de procesos donde los valores
extremos son importantes (→ simulaciones)

Insesgo y precisión: por construcción

Sesgo condicional: el error promedio puede no tener esperanza nula cuando se considera
sólo los sitios donde la ley estimada es alta (o baja). En general, el sesgo condicional es
pequeño si se usa suficientes datos (>15)
Propiedades del Kriging
Sesgo condicional

Al tener sesgo condicional, se incurre en una mala apreciación del negocio. La


ley media del material mandado a planta (material cuya estimación supera una
ley de corte) es inferior a la ley media estimada de este material, mientras que la
ley media del material mandado a botadero es superior a la ley media estimada
de este material.
Propiedades del Kriging
Suavizamiento
Simulación geoestadística
Motivación: límites del kriging

• El kriging suaviza: el mapa de los valores estimados es más regular en el


espacio que el mapa de los valores verdaderos

 no se puede predecir la ocurrencia de valores extremos


 no se puede trabajar sobre el mapa de valores estimados como si se
trataran de los valores verdaderos

 el suavizamiento depende de la cantidad / escasez de datos

• La varianza de kriging no mide todas las fuentes de incertidumbre (no


toma en cuenta el efecto proporcional)
Principios de la simulación

Construir “realizaciones” que reproducen la variabilidad real de la variable


en estudio (histograma, variograma, distribución espacial...)

 Cada realización representa un escenario posible

 Uso de las simulaciones

• análisis de riesgo: escenario más optimista / pesimista

• estimación: promediar los escenarios (para estimar leyes) o calcular la


frecuencia de ocurrencia de un evento (para estimar la probabilidad de
este evento)

• medición de la incertidumbre: qué tan distintos son los escenarios


Principios de la simulación

La simulación se basa en la interpretación de la variable regionalizada como una


realización de una función aleatoria

 Consiste en construir otras realizaciones de esta misma función aleatoria

 Para ello, es preciso conocer la distribución espacial de la función aleatoria,


es decir, el conjunto de las distribuciones de probabilidad de múltiples puntos:
• distribución univariable (histograma)

• distribuciones bivariables

• distribuciones trivariables, ...

 Conocer el valor de la media y el variograma es insuficiente


Simulación no condicional vs. condicional
La simulación no condicional busca solamente construir realizaciones con la
misma variabilidad que la variable en estudio, pero sin buscar reproducir los
valores de los datos en los sitios con datos

La simulación condicional reproduce en cada realización los valores


conocidos en los sitios con datos

NO condicional Condicional
Los aspectos del problema de la simulación

1) Definir un modelo de función aleatoria (distribución espacial)

2) Inferir los parámetros del modelo (variograma, etc.) y validarlos

3) Construir simulaciones no condicionales de la función aleatoria

4) Condicionar las simulaciones a los datos disponibles

A menudo, los puntos 1) y 3) están relacionados: la definición de un modelo


se refiere a un modo de construcción.
Modelo multi-Gaussiano
Definición: una función aleatoria {Y(x), x  Rd} tiene una distribución
multi-Gaussiana si toda combinación lineal ponderada de valores sigue una
distribución Gaussiana.

 Esto requiere en particular que el histograma sea Gaussiano

 El modelo posee propiedades interesantes:

• se caracteriza por sus dos primeros momentos (media y variograma)

• el teorema del límite central* facilita la búsqueda de algoritmos de


simulación
 Modelo que es lejos el más sencillo de todos

*El teorema del límite central indica que, en condiciones muy generales, la suma de n variables
aleatorias independientes y de varianza no nula pero finita “se aproxima bien” a una distribución normal
Simulación multigaussiana

Índice

• Transformación Gaussiana

• Modelo multigaussiano

• Test de la distribución bigaussiana

• Algoritmos de simulación

• Aplicación a los datos de Andina


Simulación multigaussiana
Transformación de los datos (anamorfosis Gaussiana)
Principio

A menudo, los datos originales tienen un histograma asimétrico, el cual es


incompatible con una distribución Gaussiana.

Para aplicar el modelo multigaussiano, se requiere primero transformar los


datos, para que tengan (una vez transformados) una distribución Gaussiana
estándar (media 0, varianza 1). Esta etapa se conoce como “transformación”
o “anamorfosis” Gaussiana:

Z(x) = f[Y(x)]

variable original función de transformación variable transformada


(datos brutos) (anamorfosis) (datos Gaussianos)
Simulación multigaussiana
Transformación de los datos (anamorfosis Gaussiana)
Ejemplo
Si los datos originales tienen una distribución lognormal, la transformación
es el paso a logaritmo.
Validación modelo multigaussiano

Por construcción, el histograma de los datos transformados es Gaussiano, por


lo cual su distribución univariable es consistente con el modelo.

Sin embargo, hace falta verificar que las distribuciones de orden superior sean
también compatibles con la hipótesis multigaussiana. En la práctica, sólo se
estudia las distribuciones bivariables, es decir, las distribuciones de los pares
de valores {Y(x + h), Y(x)}.
Validación modelo multi-gaussiano
Test de la distribución bigaussiana
Primer test: nubes de correlación diferida

Las curvas de isodensidad de la distribución bivariable de {Y(x + h),Y(x)} son


elipses concéntricas. Luego, la nube de correlación diferida (i.e. la nube de los
puntos (y(xa),y(xb)) tal que xb - xa  h) debe tener una forma elíptica.

densidad de probabilidad nube de correlación diferida


Validación modelo multi-gaussiano
Test de la distribución bigaussiana
Cuando |h| tiende a infinito, la nube de correlación diferida se vuelve circular.
Cuando |h| tiende a 0, la nube se restringe en torno a la primera bisectriz.
Validación modelo multi-gaussiano
Test de la distribución bigaussiana
Segundo test: variogramas de indicadores

Un indicador es una función binaria definida por referencia a un umbral y (o ley


de corte):
1 si Y( x)  y
I Y (x; y ) 
0 en caso contrario

Bajo la hipótesis bigaussiana, existe una relación entre el variograma g(h) de los
datos Gaussianos y el variograma gI,y(h) de la variable indicador:

1 arcsen [1- g (h )] y2
g I, y (h)  G( y) [1 - G( y )] -
2 0
exp [-
1  sen 
] d

donde G(.) es la función de distribución de la Gaussiana estándar.


Validación modelo multi-gaussiano
Test de la distribución bigaussiana
El test consiste en:
1) Modelar el variograma g(h) de los datos Gaussianos.
2) Deducir el variograma gI,y(h) asociado a un determinado umbral y.
3) Codificar los datos Gaussianos en indicador (0 ó 1) según si superan o no el
umbral y.
4) Calcular el variograma experimental de los datos de indicador.
5) Comparar el variograma experimental del indicador con la expresión teórica
obtenida en el paso 2).
6) Repetir el procedimiento (pasos 2 a 5) para varios valores del umbral y, por
ejemplo, para los cuartiles de la distribución.
7) Concluir si los variogramas teóricos de indicador ajustan razonablemente
bien los variogramas experimentales.
Validación modelo multi-gaussiano
Test de la distribución bigaussiana
Tercer test: comparación del variograma con el madograma

El madograma o “variograma de orden 1” se define de la siguiente manera:

1
g1 (h)  E{| Y(x  h) - Y(x) |}
2

Si {Y(x + h),Y(x)} tienen una distribución bigaussiana, entonces se tiene

g (h)
  (independiente de h)
g 1 (h)

o sea, el madograma es proporcional a la raíz cuadrada del variograma.


Validación modelo multi-gaussiano
Test de la distribución bigaussiana
Se puede completar este test al analizar los variogramas de distintos ordenes w
comprendidos entre 0 y 2:
1
g w (h)  E{| Y(x  h) - Y(x) |w}
2

2w-1  w  1  w/2
   [ g (h)]
  2 

bajo la hipótesis bigaussiana

En escala log-log, los puntos que representan a gw(h) en función de g(h) deben
ser alineados sobre una recta de pendiente w/2. Esta relación se puede verificar
con los variogramas experimentales de los datos Gaussianos.
Validación modelo multi-gaussiano
Test de la distribución bigaussiana

Aplicación a los datos de Andina

• Nubes de correlación diferida (omnidireccionales)

|h| = 20m |h| = 100m


Validación modelo multi-gaussiano
Test de la distribución bigaussiana
• Variogramas de orden inferior a dos
Construcción de realizaciones

Una vez que se ha comprobado la pertinencia de la hipótesis multigaussiana, el


modelo queda enteramente caracterizado por la función de anamorfosis y por
el variograma de los datos Gaussianos.

Falta definir un algoritmo para poder construir realizaciones de este modelo y


condicionarlas a los datos disponibles. En el caso multigaussiano, existen
numerosos algoritmos para responder a este problema. El más sencillo es el
llamado método secuencial Gaussiano.
Algoritmo de simulación secuencial
Supongamos que se busca simular los valores de una función aleatoria Gaussiana
de media 0 y variograma g(h) en los sitios {x1,... xn} del espacio. La simulación
secuencial se realiza de la siguiente manera:

1) simular Y(x1) como un valor Gaussiano de media 0 y varianza 1

2) para i  {2,... n}, plantear

Y(xi )  YSK (xi )  sSK (xi ) Ui

donde YSK(xi) es el kriging simple de Y(xi) a partir de los valores previamente


simulados {Y(x1),... Y(xi-1)}
sSK(xi) es la desviación estándar de kriging
Ui es un valor Gaussiano N(0,1) independiente de U1,... Ui-1
Algoritmo de simulación secuencial

En cada etapa, se simula el valor en un sitio y se agrega el valor simulado a los


datos condicionantes para simular los sitios siguientes.

 método “secuencial”

 se requiere usar un kriging simple (de media conocida = 0). De lo contrario,


no se logra reproducir correctamente el variograma.
Algoritmo de simulación secuencial
Pros
• método sencillo y fácil de ejecutar

• permite refinar una simulación existente (aumentar la resolución)

• permite realizar directamente simulaciones condicionales a un conjunto


de datos: basta con considerar estos datos como si fueran valores ya
simulados

Contras
• problemas numéricos cuando se trata de simular un variograma muy regular
en el origen (matrices de kriging casi-singulares)

• el sistema de kriging se vuelve cada vez más grande (e inmanejable) a medida


que se desarrolla la simulación

 en la práctica, se debe restringir los datos condicionantes (datos iniciales


+ valores previamente simulados) a los más cercanos del sitio a simular,
es decir, se usa una vecindad móvil.
Otros algoritmos de simulación
Existen numerosos algoritmos alternativos al método secuencial, por ejemplo:

• Método de descomposición matricial


• Métodos de convolución (medias móviles, métodos auto-regresivos)
• Método espectral discreto
• Método espectral continuo
• Método de las bandas rotantes

Los cuatro últimos algoritmos generan realizaciones no condicionales (es decir, que no
reproducen los valores de los datos). El condicionamiento de las realizaciones requiere una
etapa adicional basada en un kriging simple. Aunque son matemáticamente más complejos,
estos algoritmos son más rápidos que el algoritmo secuencial por dos razones:

1) el sistema de kriging sólo involucra a los datos originales (no a los valores simulados)
2) se puede condicionar múltiples realizaciones con un solo kriging.
Resumen simulación condicional
1) Desagrupar los datos originales.

2) Transformar estos datos en datos Gaussianos, tomando en cuenta los ponderadores de


desagrupamiento.

3) Realizar el análisis variográfico de los datos Gaussianos.

4) Validar la hipótesis multi-Gaussiana (nubes de correlación diferida, comparación entre


variograma y madograma, variogramas de indicadores).

5) Simular la función aleatoria Gaussiana


• Elegir un algoritmo de simulación
• Construir varias realizaciones
• Condicionar a los datos Gaussianos disponibles si el algoritmo escogido no lo
hace directamente.

6) Transformación Gaussiana inversa, para volver a la variable original.

7) Procesar los resultados.


Aplicación a los datos de Andina

Estudio exploratorio y variográfico de los datos disponibles

Se dispone de 2376 muestras de exploración con sus leyes de cobre total

histograma de los variograma de los


mapa
datos originales datos Gaussianos
Aplicación a los datos de Andina

Simulación condicional (modelo multigaussiano, 50 realizaciones)

Leyes de cobre simuladas (soporte puntual) en una malla de 2m × 2m.


Aplicación a los datos de Andina
Uso de las simulaciones

• Rebloqueo a unidades de selección minera (10m × 10m × 12m)


Aplicación a los datos de Andina
Evaluación de las leyes de bloques y de su incertidumbre

Comparar con los resultados obtenidos por kriging


La varianza de las realizaciones refleja el efecto proporcional.
Aplicación a los datos de Andina
Evaluación de los recursos recuperables sobre una ley de corte de 0.5%Cu

Estos mapas no pueden ser obtenidos por kriging, debido al suavizamiento de éste
Aplicación a los datos de Andina

Otras aplicaciones posibles de las simulaciones

 Análisis de riesgo, cálculos de VAN

 Categorizar recursos y reservas

 Diseño de pit óptimo

 Planificación minera

 Control de leyes (planta / botadero)

 Reconciliación de leyes (mina / planta)

La metodología de la simulación se puede extender a variables categóricas (que


modelan la extensión espacial de unidades geo-metalúrgicas) y variables de
geotecnia o de metalurgia (dureza, recuperación, work index, etc.)

You might also like