You are on page 1of 117

GEOESTADÍSTICA

Pág. 1
GEOESTADÍSTICA

Estructura del Curso


ESTRUCTURA DEL CURSO 2

BIENVENIDOS AL CURSO 4
ANTECEDENTES GENERALES 4
OBJETIVOS GENERALES 4
OBJETIVOS ESPECÍFICOS 4
TEMÁTICAS 5
METODOLOGÍA DE TRABAJO 5
RESULTADOS ESPERADOS 6
REQUISITOS DE APROBACIÓN 6
EVALUACIONES 6
REQUISITOS DE APROBACIÓN 6
PROGRAMA DEL CURSO 7

MODULO I : MODELAMIENTO Y ANÁLISIS DE DATA 10


UNIDAD I: MODELO GEOLÓGICO 10
UNIDAD II: MODELO DE BLOQUES 19
UNIDAD III: COMPOSITACIÓN DE SONDAJES 21
UNIDAD IV: ANÁLISIS EXPLORATORIO DE DATA 25

MODULO II : ANÁLISIS VARIOGRÁFICO 32


UNIDAD I: VARIOGRAFÍA EXPERIMENTAL 32
UNIDAD II: VARIOGRAFÍA ESTRUCTURAL 47
UNIDAD III: VARIOGRAFÍA DE INDICADORES 53
UNIDAD IV: ANÁLISIS DE ANISOTROPÍAS 55

MODULO III : MODELOS DE ESTIMACIÓN DE LEYES 62


UNIDAD I: CAMBIO DE SOPORTE 62
UNIDAD II: KRIGING ORDINARIO Y SIMPLE 69
UNIDAD III: KRIGING PUNTUAL Y DE BLOQUES 79
UNIDAD IV: VALIDACIÓN DEL MODELO DE LEYES 86

Pág. 2
MODULO IV : MODELOS DE SIMULACIÓN DE LEYES 89
UNIDAD I: BASES DE LA SIMULACIÓN 89
UNIDAD II: SIMULACIÓN CONDICIONAL GAUSSIANA 99
UNIDAD III: SIMULACIÓN CONDICIONAL DE INDICADORES. 106
L EYES DE CORTE ESCOGIDAS : 106
UNIDAD IV: APLICACIONES EN MINERÍA 111

Pág. 3
BIENVENIDOS AL CURSO
Antecedentes Generales
El curso considera revisar los procesos de estimación de leyes, modelamiento
geológico, análisis estadístico de la data, variografía experimental y estructural,
estimación mediante Kriging ordinario, Kriging simple, Kriging de indicadores y
simulación condicional y no-condicional de leyes.

Objetivos Generales
Entregar los conocimientos básicos para llevar a cabo proceso de estimación
de leyes puntuales, cambio de soporte y estimación de leyes de bloques; asi
mismo, entregar las bases de los procesos de simulación condicional gaussiana
y de indicadores.

Objetivos Específicos
Específicamente, durante el curso desarrollaremos los siguientes puntos claves
que permiten fortalecer el conocimiento de la Geoestadística.

• ¿Como transformar un modelo geológico en un modelo de bloques?.


• Análisis estadístico de la Data
• Análisis variográfico experimental (diferentes tipos de variogramas)

Pág. 4
• Análisis variográfico estructural
• Análisis de Anisotropías
• Modelos de estimación (kriging ordinario, kriging simple, kriging de
indicadores)
• Análisis de trends (contactos)
• Validación del modelo de leyes de bloques
• Modelos de Simulación de leyes

Temáticas
• Modelo Geológico
• Modelo de bloques
• Variografía
• Estimación de leyes
• Kriging Ordinario, Simple
• Simulación Condicional (Gaussiana y de Indicadores).

Metodología de Trabajo
La metodología de trabajo del curso estará basada en la lectura del material de
estudio previo a cada clase con el profesor. Adicionalmente, durante las clases
se repasarán los conceptos claves de cada modulo mediante la exposición de
casos prácticos y relato de experiencias reales. Al final de cada módulo el
alumno deberá desarrollar un trabajo para evaluar su conocimiento adquirido.

Pág. 5
Resultados Esperados
Al final del curso se espera que el alumno haya adquirido los conocimientos
básicos de la Geostadística, análisis de data, Variografía, estimación y
simulación de leyes.

Requisitos de Aprobación
Evaluaciones

Este curso tendrá varias evaluaciones que se realizará en modalidad online al


final del curso (Quiz) y al final de cada módulo, el alumno deberá desarrollar un
trabajo en donde practicará lo aprendido en el curso. El alumno tendrá una
semana para entregar el trabajo.

Requisitos de Aprobación

Este curso tiene una calificación mínima de un 60% para la obtención del
certificado de aprobación.

Pág. 6
Programa del Curso
A continuación se presenta el programa del curso que describe que módulos y
unidades serán revisados en cada uno de las clases en vivo:

MÓDULO UNIDAD FECHA

17 de
Modelo Geológico/Modelo de Bloques Noviembre
2016

17 de
Modelamiento y
Compositación de Sondajes Noviembre
Análisis de Data
2016

17 de
Análisis exploratorio de la data Noviembre
2016

24 de
Variografía Experimental Noviembre
Análisis
2016
Variográfico
24 de
Variografía Estructural Noviembre
2016

Variografía de Indicadores 24 de

Pág. 7
Noviembre
2016

24 de
Análisis de Anisotropías Noviembre
2016

01 de
Modelos de Cambio de Soporte Diciembre
Estimación de 2016
Leyes 01 de
Kriging (Ordinario y Simple) Diciembre
2016

01 de
Kriging Puntual y de Bloques Diciembre
2016

01 de
Validación del Modelo de Leyes Diciembre
2016

07 de
Modelos de
Bases de la simulación Condicional Diciembre
Simulación
2016

07 de
Simulación Gaussiana y de Indicadores Diciembre
2016

Pág. 8
07 de
Uso de simulaciones en Minería Diciembre
2016

Pág. 9
MODULO I : MODELAMIENTO Y
ANÁLISIS DE DATA

Unidad I: Modelo Geológico


El conocimiento de la geología del yacimiento es un elemento clave, básico y
estratégico que permitirá llevar a cabo una buena estimación de recursos y
posteriormente la determinación de las reservas.

Para ello es necesario el realizar campañas de sondajes que son e tres


categorías: Greenfield, Brownfield e Infill.

Greenfield: Es aquella exploración que se realiza en aquellos lugares en


donde no hay presencia de actividad minera. Esta es la primera etapa de las
campañas de exploración.

Brownfield: Es la que se hace en distritos mineros ya conocidos en que se


puede estar en búsqueda de nuevos yacimientos o ampliación de los
existentes. Las ampliaciones puedes ser en extensión o profundización.

P á g . 10
Infill: Es la que se realiza para mejorar el nivel de incertidumbre del
conocimiento geológico y se realiza en una malla de menores distancias entre
sondajes. Se conoce también como exploración de relleno.

Existen dos tipos de perforación de sondajes: Diamantina y Aire Reverso.

La perforación de los sondajes se realiza con máquinas especialmente


diseñadas con ese objetivo.

Figura 1: Equipos de Perforación de Sondajes

P á g . 11
Perforación con Diamantina:

La perforación diamantina es aquella perforación que se hace utilizando una


broca diamantada para perforar la roca obteniendo un testigo de la misma, el
cual es extraído, registrado y colocado en cajas porta-testigos para debida
protección y almacenamiento dentro del almacén de testigos (Coreshak).

Para la perforación se usa brocas diamantadas pues el diamante es el material


existente con mayor dureza y conductividad térmica sobre el planeta, lo cual le
permite actuar como herramienta de corte con gran efectividad para cortar la
roca que se requiere y extraer convenientemente las muestras o testigos del
yacimiento mineralizado.

Figur a 2: C abeza s cor ta dor as de test igos

P á g . 12
Figur a 3 : T esti gos (C or e Sa mples)

Perforación con aire reverso:

La perforación con aire reverso es fundamentalmente diferente de la de


diamantina. La principal diferencia es que la perforación de aire reverso crea
pequeñas astillas de roca (Detritus) en lugar de un testigo solido.

El aire reverso es mucho más rápido que la perforación diamantina, y también


mucho menos costosa.

La perforación con aire reverso requiere de un equipo mucho más grande,


incluyendo un compresor de aire de alta capacidad, usualmente montado en
un camión. El aire es el medio por el cual el Detritus se moverá hasta la
superficie.

P á g . 13
Triconos utilizados para moler la roca y generar Detritus. La profundidad se
logra mediante la interacción de pull-down y sistema de rotación.

Ejemplo de Detritus dejado por la perforación de


aire reverso. Existen diferentes protocolos de
muestreo de este tipo de material; de tal forma,
de asegurar la validez de los resultados que se
obtienen.

La información de los sondajes se ingresan a una base datos que consiste en


tres archivos: Collar, Survey y Assays.

• Collar : Contiene el ID del sondaje, las


coordenadas Norte, Este, Elevacion del collar del
sondaje; es decir, desde donde comenzó a
perforar en la superficie y el largo total del
sondaje.

P á g . 14
• Survey : Contiene los largos de la muestra, las dimensiones From y To a
lo largo del sondaje, el Azimut y el Dip.

• Assays : Contiene las leyes de la muestra y otros atributos


como alteración, geología, etc.

P á g . 15
Modelamiento Geológico Tridimensional (Maptek, sf):

Consiste en la representación bidimensional o tridimensional de un volumen de


rocas. Este puede representar la litología, mineralización, alteración u otro tipo
de característica geológica del macizo rocoso.

Es una parte fundamental en el procedimiento de estimación de reservas de un


depósito.

¿Porqué hacerlo?

1. Incrementar el conocimiento de la morfología del depósito y


representarlo lo más cercano a la realidad posible
2. Relacionar las unidades en diferentes tipos de modelos (litología,
alteración, etc.)
3. Definir volúmenes de roca en los que la variable a estimar tenga un
comportamiento homogéneo.

Con la utilización de los archivos de sondajes (Collar, Survey y Assays) se


genera una vusalización tridimensional de la posición de los sondajes para ser
revisados y poder comenzar con la etapa de modelamiento geológico.

P á g . 16
Existen varios softwares en el mercado que permiten esta visualización:

Figur a 4 : Visua liza ció n t ridi mensiona l de Sonda jes

Con esta información, el geólogo realiza interpretaciones de la continuidad


espacial de la geología en secciones y plantas como se muestra a continuación:

Figur a 5 : Inter pr et a ción geológi ca de una


secci ón

P á g . 17
Con el uso de varias secciones y plantas (interpretación bidimensional), se
realiza un modelamiento tridimensional.

Hay varios softwares que utilizan los wireframes creados por una serie de
triángulos anidados que van formando el cuerpo mineralizado tridimensional o
en 3D.

Figura 6 : Modelamiento Geológico Tridimensional

Si las secciones están muy separadas, se generan zonas muy triangulares y se


deben crear más secciones para lograr un cuerpo mas suavizado que
represente mejor la forma tridimensional del cuerpo mineral; sin embargo, hace
muy poco tiempo está en el mercado el software Leapfrog que mediente
modelos matemáticos permite una mejor interpretación de los cuerpos
minerales.

Actualmente, muchos softwares están siguiendo esta modalidad de


modelamiento implicito.

P á g . 18
Unidad II: Modelo de Bloques
Esta unidad será tratado en mayor detalle en los siguientes módulos; sin
embargo, el objetivo de los ingenieros de mina es tener un modelo de bloques
con leyes estimadas que le permitan diseñar las faenas mineras, tanto de Cielo
Abierto como Subterránea.

Una vez determinada la unidad de selectividad (tamaño del bloque), se


procede a generar bloques dentro de los sólidos identificados por geología.
Los limites de los sólidos servirán como los limites de los bloques; de esta
forma se evitará tener bloques mineralizados por fuera del modelo geológico.

Figur a 7: M odelo Geo lógico T r idimensiona l

P á g . 19
Figur a 8 : M odelo de Blo ques c on l eyes est ima das

El modelo de bloques considera, normalmente, códigos (Flags) que indican si


el bloque se encuentra fuera o dentro del sólido o las proporciones del bloque
que intersecta con el sólido.

P á g . 20
Unidad III: Compositación de Sondajes
Generalmente los intervalos de muestreo en los pozos de exploración no
coinciden con los intervalos de trabajo en la fase de estimación de recursos.

Los intervalos de muestreo son siempre menores pues se busca revelar la


variabilidad espacial de las variables que se estudian. El cálculo de los
compósitos o regularización del sondaje, no es más que un procedimiento
mediante el cual las muestras de los análisis se combinan en intervalos
regulares (igual longitud), que no coincidan con el tamaño inicial de las
muestras.

Figur a 9 : M uestr as de difer ent es longit ud

La ley del nuevo intervalo se calcula usando la media ponderada por la


longitud de los testigos que contribuyen a cada compósito y la masa
volumétrica en caso de ser variable. El objetivo de la regularización es obtener
muestras representativas de una unidad litológica o de mineralización particular
P á g . 21
las cuales pueden ser usadas, a través de una función de extensión, para
estimar la ley de un volumen mucho mayor de la misma unidad.

Entre las principales razones y beneficios de la compositación:

• El análisis geoestadístico exige muestra de igual longitud (similar


soporte).

• Las compositación reduce la cantidad de datos y por consiguiente el


tiempo de cálculo o procedimiento.

• Se producen datos homogéneos y de más fácil interpretación.

• Se reduce las variaciones erráticas (alto efecto pepita) producto de


muestras con valores extremadamente altos.

P á g . 22
Existen varias formas de compositar y estas son las siguientes:

Compósito de Banco (bench composite):

Las muestras se regularizan a intervalos que coinciden con la altura de los


bancos o una fracción de esta. Se emplea para modelar los recursos de
yacimientos grandes, diseminados de baja ley que se explotan con minería a
cielo abierto.

Compósito de Pozo (downhole composite):

Las muestras se combinan a intervalos regulares comenzando desde la boca


del pozo

Compósito Geológico (geological composite):

Las muestras se combinan a intervalos regulares pero respetando los contactos


geológicos entre las distintas unidades. Este método se emplea para prevenir
la dilución del compósito en el contacto estéril mineral y donde se logra mayor
control sobre el proceso de regularización.

P á g . 23
Para escoger la longitud de regularización se emplea las siguientes reglas
empíricas:

• El tamaño del compósito se selecciona entre la longitud media de las


muestras.

• No se deben regularizar muestras grandes en intervalos más pequeños


pues se introduce una falsa idea de continuidad espacial.

Figur a 10 : Sonda je Regula riz ado o Co mposi ta do

P á g . 24
Unidad IV: Análisis Exploratorio de Data
El análisis exploratorio de datos es un conjunto de técnicas estadísticas cuya
finalidad es conseguir un entendimiento básico de los datos y de las relaciones
existentes entre las variables analizadas.

Para conseguir este objetivo el estudio exploratorio proporciona métodos


sistemáticos sencillos para organizar y preparar los datos, detectar fallos en el
diseño y recogida de los mismos, tratamiento y evaluación de datos ausentes
(missing), identificación de casos atípicos (outliers) y comprobación de los
supuestos subyacentes en la mayor parte de las técnicas multivariantes
(normalidad, linealidad, etc.).

Antes de proceder con la estimación de recursos, se debe y siempre que sea


posible realizar un análisis estadístico de los datos disponibles o los generados
a partir de cálculos de los compósitos con el objetivo de caracterizar el
comportamiento estadístico de las distintas variables en el depósito y en las
unidades geológicas (dominios) que la integran.

El examen previo de los datos es un paso necesario, que lleva tiempo, y que
habitualmente se descuida por parte de los analistas de datos.

P á g . 25
El análisis tiene los siguientes objetivos:

• Analizar (mediante herramientas estadísticas simples) la cantidad, la


calidad y la ubicación de los datos disponibles.

• Definir la(s) zona(s) de estudio. Una división del campo en varias sub-
zonas puede ser relevante si uno observa cambios abruptos en la
distribución espacial de valores, o si la geología del fenómeno lo indica.

• Anticipar dificultades o problemas que puedan surgir en la fase de


estimación local (por ejemplo, presencia de valores atípicos que se
destacan de aquellos de los datos vecinos).

Figur a 11 : Da ta Ana lysis

P á g . 26
Análisis Estadístico:

Histogramas:

El histograma representa gráficamente las frecuencias de ocurrencia en función


del valor. Consiste en dividir el rango de los valores en intervalos
(generalmente, con el mismo ancho) y visualizar la proporción de datos que
caben dentro de cada intervalo.

El histograma es una herramienta útil para detectar valores atípicos (“outliers”).

La visualización del histograma de los datos también es un primer medio de


verificar su homogeneidad.

Figur a 12 : His togr a mas

P á g . 27
Medidas de Posición:

Media: Promedio aritmético de los valores.

Cuantiles y percentiles: Valores que dividen la población en partes de


igual número de datos. Por ejemplo, la mediana divide la población en dos
partes, los cuartiles en cuatro partes (la mediana coincide con el segundo
cuartil), los quintiles en cinco partes y los deciles en diez partes.
Contrariamente a la media, los cuantiles son parámetros robustos, es decir,
poco sensibles a la presencia de algunos valores muy altos o muy bajos.

Mínimo y máximo: Establecen el rango en el cual se distribuyen los valores.

P á g . 28
Medidas de dispersión:

Varianza: Promedio aritmético de la desviación cuadrática entre cada valor y


la Media. Esta medida cuantifica la dispersión del histograma y se expresa en el
cuadrado de la unidad de la variable en estudio.

Desviación Estándar: raíz cuadrada de la varianza; se expresa en la misma

unidad que la variable en estudio.

Coeficiente de variación: Razón entre la desviación estándar y la media; es


adimensional.

Rango Intercuartil: Ancho del intervalo entre el primer y el tercer cuartil,


que contiene la mitad de los datos.

P á g . 29
Correlación Lineal:

En probabilidad y estadística, la correlación indica la fuerza y la dirección de


una relación lineal y proporcionalidad entre dos variables o 2 leyes de mineral

Se considera que dos variables cuantitativas están correlacionadas cuando los


valores de una de ellas varían sistemáticamente con respecto a los valores
homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al
aumentar los valores de A lo hacen también los de B y viceversa. La correlación
entre dos variables no implica, por sí misma, ninguna relación de causalidad.

Figur a 13 : C or rela cio nes

P á g . 30
Probability Plot:

Una gráfica de probabilidad es una gráfica que puede utilizar para evaluar el
ajuste de una distribución a sus datos, estimar percentiles y comparar
diferentes distribuciones de muestras. Una gráfica de probabilidad hace lo
siguiente: Crea una función de distribución acumulada (cdf) estimada a partir
de su muestra al graficar el valor de cada una de las observaciones en
comparación con su probabilidad acumulada estimada. Las escalas se
transforman de manera que la distribución ajustada forme una línea recta. Un
buen ajuste de distribución es uno en que las observaciones están cerca de la
línea ajustada.

Figur a 14 : P ro babil ity P lot

P á g . 31
MODULO II : ANÁLISIS
VARIOGRÁFICO

Unidad I: Variografía Experimental


Una variable medida en el espacio de forma que presente una estructura de
correlación, se dice que es una variable regionalizada. De manera más formal
se puede definir como un proceso estocástico con dominio contenido en un
espacio euclidiano D- dimensional que puede asociarse a una variable medida
en un punto x del plano. En términos prácticos Z(x) puede verse como una
medición de una variable aleatoria.

Un proceso estocástico es una colección de variables aleatorias indexadas; esto


es, para cada x en el conjunto de índices D, Z(x) es una variable aleatoria. En el
caso de que las mediciones sean hechas en una superficie, entonces Z(x) puede
interpretarse como la variable aleatoria asociada a ese punto del plano (x
representa las coordenadas, planas o geográficas, y Z la variable en cada una
de ellas). Estas variables aleatorias pueden representar la magnitud de una
variable ambiental medida en un conjunto de coordenadas de la región de
estudio.

Una variable regionalizada es una función que representa la variación en el


espacio de una cierta magnitud asociada a un fenómeno natural. Por ejemplo:

• La ley de un mineral, la potencia de una veta, la acumulación, la densidad

P á g . 32
de la roca o la recuperación metalúrgica, describen un fenómeno de
mineralización;
• La porosidad y la permeabilidad de la roca en un reservorio de petróleo o
en un acuífero;
• La concentración de un elemento contaminante en la atmósfera o en el
suelo;
• La altitud topográfica en un punto del espacio geográfico;
• La conductividad eléctrica, el pH y la concentración en nutrientes
medidas sobre una muestra de suelo;
• El número de árboles y su diámetro promedio en áreas de observación
de un bosque.

Del punto de vista conceptual, una variable regionalizada es una función


determinística. Dado que un fenómeno regionalizado nunca posee una
extensión infinita, se estudiará la variable regionalizada sólo dentro de un
dominio limitado “D” llamado campo de la variable. Este campo puede
representar una zona natural, fuera de la cual la variable no está definida.
Puede tratarse también de un dominio particular, donde la variable interesa,
por ejemplo, los sitios donde no se anula o donde es mayor que un límite de
detección.

Momentos de una Variable Regionalizada

Se nombra como variable regionalizada Z(x) a la variable distribuida en el


espacio de manera tal que presenta una estructura espacial de correlación.

Una definición más rigurosa matemáticamente equivalente consistiría en decir


que una variable regionalizada es una variable aleatoria z definida en un punto
del espacio x .

Donde en el caso más general x es un punto en el espacio tridimensional, es


P á g . 33
decir x = ( x1 , x2 , x3 ) .

Variograma y Semivariograma.

El Variograma se define como la media aritmética de todos los cuadrados de


las diferencias entre pares de valores experimentados separados una distancia
(h) o lo que es lo mismo la varianza de los incrementos de la variable
regionalizada en las localizaciones separadas una distancia de (h).

El cálculo del variograma experimental es la herramienta Geoestadística más


importante en la determinación de las características de variables y correlación
espacial del fenómeno estudiado.

Figur a 15 : Vect or h

P á g . 34
El semivariograma, conocido también como variograma, es la herramienta
central de la Geoestadística. Dada una variable regionalizada Z (x) que cumpla
la Hipótesis

El semivariograma es una función que relaciona la semivarianza con el vector h


conocido como "lag", el cual denota la separación en distancia y dirección de
cualquier par de valores Z(x) y Z(x+h).

Donde N(h) es el número de pares Z(xi) y Z(xi+h) son valores separados a una
distancia (h).

P á g . 35
Ejemplo de Variograma Lineal:

Consideremos los siguientes datos especiados cada 100m:

5–3–6–4–2–1–1–2–4–3-2

El variograma experimental se puede calcular para distancia múltiplos de


100m, esto es:

γ (100m)= 1/2x10 (22 + 32 + 22 + 22 + 12 + 02 + 12 + 22 + 12 + 12) = 1.45

γ (200m)= 1/2x9 (12 + 12 + 42 + 32 + 12 + 12 + 32 + 12 + 22) = 2.39

γ (300m)= 1/2x8 (12 + 12 + 52 + 32 + 02 + 32 + 22 + 12) = 3.06


.
.

γ (1000m) = 1/2x1 (32)= 4.5

5.00
4.50
4.00
3.50
3.00
γ(h)

2.50
2.00
1.50
1.00
0.50
0.00
0 200 400 600 800 1000 1200
Lag (h)

Figur a 16 : Va rio gra ma Linea l


P á g . 36
Variografía de Malla Irregular:

En la siguiente figura se puede observar un muestreo en una malla irregular y la


pregunta es ¿Cómo se calcula el variograma en este caso?

Figur a 17 : M alla Irr egular

En este caso, se propone la siguiente metodología de búsqueda de muestras a


considerar:

P á g . 37
Pasos para la selección de muestras:

• Se define el azimut del vector de búsqueda.


• Definición de tolerancia angular ΔΘ (Angulo que considera incluir datos
válidos para el cálculo).
• Selección de la distancia del Lag o Paso
• Definición de tolerancia en el Lag(h) o Paso (Δh o Δp). Esta se utiliza para
incluir muestras que se encuentran a distancias mayores/menores, con
respecto al Lag definido.
• Ancho de banda horizontal: banda dentro la cual se consideran válidos
los datos para el cálculo del variograma; se mide en forma perpendicular
al azimut definido.

P á g . 38
¿Qué hacer cuando la data se encuentra distribuida en tres dimensiones X, Y,
Z?

En este caso, la búsqueda de datos se hace mediante una especie de cono o


con el método del lápiz (similar a lo explicado anteriormente, pero en 3D).

Figur a 19 : C ono en el
espa cio Figur a 18 : M éto do del Lá piz

P á g . 39
Reglas prácticas para el cálculo del variograma experimental:

Para el cómputo del semivariograma es necesario tener en cuenta algunas


reglas prácticas que permiten elevar la eficiencia y la calidad de la estimación,
independientemente del tipo de estimador que se utilice.

Estas reglas son las siguientes:

• En la estimación del semivariograma los pares de las observaciones se


agrupan según la distancia dentro de un intervalo h = h con una
tolerancia ± ∆h 2 y dentro de una dirección θ con una tolerancia ±∆θ /2.
El semivariograma así estimado es considerado suavizado o regularizado.
• El semivariograma muestral debe ser considerado solamente para
pequeñas distancias por lo que generalmente, se estima para valores de
h menores que la mitad de la distancia máxima ( h < dmax 2 ).
• La elección del número de intervalos es arbitraria. No obstante se
considera que un número máximo de 25 intervalos es suficiente para
cualquier propósito, y un mínimo de 10 debe ser usado para determinar
con precisión el rango y la meseta del semivariograma.
• El largo de los intervalos debe ser elegido de forma tal que el número de
pares en cada intervalo sea lo suficientemente grande para que el
estimado del semivariograma sea relativamente estable. Se considera
que entre 30 y 50 pares satisfacen este requerimiento.
• Los valores estimados para cada intervalo se deben graficar contra la
distancia promedio de todos los pares que se encuentran dentro de
dicho intervalo.

P á g . 40
Debido a que γ(h) es esencialmente una media muestral, tiene todas las
desventajas comúnmente asociadas a este tipo de estimador como es la no
robustez.

En la práctica a menudo el empleo de este estimador produce variogramas


experimentales erráticos, lo cuál se debe a desviaciones del caso ideal para la
aplicación del mismo.

Desviaciones en el muestreo.

Las observaciones {Z (xi ), i =1,...,n }de la función aleatoria Z (x) no están


distribuidas espacialmente en forma aleatoria. Consecuentemente se produce
un sesgo en el muestreo es decir en la elección de las localizaciones de las
observaciones, tendientes a estar agrupadas en áreas de altos o bajos valores.
Estas desviaciones pueden ser detectadas mediante un gráfico del número de
muestras n contra el valor medio m para vecindades móviles de un tamaño
determinado.

Existencia de valores atípicos (Outliers).

Normalmente las observaciones son correctas, pero a veces suelen aparecer


observaciones discordantes que pueden ser debidas a errores humanos y/o
mal funcionamiento de los instrumentos de medición. Si es posible constatar
que un valor de estos es erróneo, lo mejor es eliminarlo, aunque esto no
siempre es factible. De ahí que la eliminación de estas observaciones puedan
causar una subestimación del potencial de un área.

P á g . 41
Otras formas para estimar la variabilidad espacial de las muestras.

Debido a que las distribuciones de las leyes de mineral no siguen una


distribución normal; sino que presentan sesgos y presencia de Outliers como
en las siguientes figuras:

Contour Plot of CuT


C4
< 0.2
109000 0.2 – 0.4
0.4 – 0.6
0.6 – 0.8
108500 0.8 – 1.0
1.0 – 1.2
> 1.2
108000
Northing

107500

107000

106500

15000 15500 16000 16500 17000 17500


Easting

Figur a 20 : C ont orneo de leyes de C uT


P á g . 42
Summary Report for CuT
Anderson- Darling Normality Test
A- Squared 106.57
P- Value <0.005
Mean 0.31002
StDev 0.45151
Variance 0.20386
Skewness 2.17026
Kurtosis 5.09761
N 961
Minimum 0.01000
1st Quartile 0.03000
Median 0.08000
3rd Quartile 0.43000
Maximum 2.95000
95% Confidence Interval for Mean
0.0 0.5 1.0 1.5 2.0 2.5 3.0 0.28144 0.33860
95% Confidence Interval for Median
0.07000 0.09000
95% Confidence Interval for StDev
0.43219 0.47266

Figur a 21 : His togr a ma de l eyes de CuT


95% Confidence Intervals

En estos casos,
Mean
cuando se calcula el variograma experimental, en los pares
seleccionados se encuentran bajas leyes y altas leyes, cuya diferencia elevada
Median

0.10 0.15 0.20 0.25 0.30 0.35

al cuadrado, genera un diferencial muy grande y posteriormente generan


“ruido” cuando se analiza la variabilidad espacial de las muestras.

Figur a 22 : P resenc ia de " r uido" en el semi var iogr a ma

P á g . 43
Lo primero que se debe hacer es investigar la posibilidad de separar en
diferentes dominios o regiones, y de esa forma lograr separar muestras de
diferentes poblaciones regionales. Una vez que se ha hecho esto, se debe
proceder a realizar un análisis exploratorio de la data de las regiones.

Sin embargo, la probabilidad de que siga existiendo la presencia de sesgos en


la distribución y la presencia de Outliers, es que se estudiaron otras formas de
cálculo de la variabilidad espacial de las leyes con nuevos modelos
matemáticos; entre ellos tenemos:

El primero es el correlograma ρ, covarianza C; siendo m+(h) las leyes de las


“colas” del vector utilizado y m-(h), las leyes de la cabeza del par que se utiliza
para realizar el cálculo del semivariograma.

P á g . 44
Ejemplo del análisis de la variabilidad espacial, de la misma data con el
Correlograma:

Covarianza:

P á g . 45
Otro modelo es el “Pairwise Relative Variogram” en donde se le da menos
peso a la presencia de Outliers.

Figur a 23 : P air wise Rela t ive Va r iogr am

P á g . 46
Unidad II: Variografía Estructural
Ya se ha revisado las diferentes formas de calcular el variograma experimental
de la variabilidad espacial de las leyes; sin embargo, para poder utilizar esta
variabilidad, se deben ajustar modelos matemáticos que asegurarán que las
matrices de kriging tengan solución.

Para ello, se requieren las siguientes definiciones:

Efecto Pepita o Nugget Effect (N):

Se denota por C(0) y representa una discontinuidad puntual del


semivariograma en el origen. Puede ser debido a errores de medición en la
variable o a la escala de la misma. En algunas ocasiones puede ser indicativo
de que parte de la estructura espacial se concentra a distancias inferiores a las
observadas. En caso de sondajes, es muy común calcular el Efecto Pepita con
el variograma a lo largo del sondaje.

Meseta o Sill (S):

Es la cota superior del semivariograma. También puede definirse como el limite


del semivariograma cuando la distancia h tiende a infinito. La meseta puede ser
o no finita. Los semivariogramas que tienen meseta finita cumplen con la
hipótesis de estacionalidad fuerte; mientras que cuando ocurre lo contrario, el
semivariograma define un fenómeno natural que cumple sólo con la hipótesis
intrínseca. La meseta se denota por C1 o por (C0 + C1) cuando el Efecto Pepita
es diferente de cero. Si se interpreta el Efecto Pepita como un error en las
mediciones, esto explica porque se sugiere que en un modelo que explique

P á g . 47
bien la realidad, el Efecto Pepita no debe representar mas del 50% de la
meseta. Si el ruido espacial en las mediciones explica en mayor proporción la
variabilidad que la correlación del fenómeno, las predicciones que se obtengan
pueden ser muy imprecisas.

Figur a 24 : M odelo de ajust e de est ruct ur as

Rango o alcance (a):

En términos prácticos corresponde a la distancia a partir de la cual dos


observaciones son independientes. El rango se interpreta como la zona de
influencia. Existen algunos modelos de semivariograma en los que no existe
una distancia finita para la cual dos observaciones sean independientes; por
ello se llama rango efectivo a la distancia para la cual el semivariograma alcanza
el 95% de la meseta. Entre más pequeño sea el rango, más cerca se está del
modelo de independencia espacial.

P á g . 48
Modelos Estructurales:

Efecto Pepita Puro:

Este modelo considera ausencia total de correlación espacial.

Esférico:

Forma de variograma comúnmente encontrada. El alcance corresponde al


parámetro a, la meseta al parámetro C.

P á g . 49
Exponencial:

P á g . 50
Gaussiano:

Potencia:

Este modelo se asocia a fractales (movimientos Brownianos fraccionarios). Está


definido por una potencia 0<q<2 y una pendiente positiva C.

P á g . 51
Seno Cardinal:

Alcance práctico = 20.4 a, semi-período = 4.5 a, meseta = C

Modelos Anidados:

Para obtener modelos más complejos, se puede sumar varios variogramas


elementales. En este caso, se habla de “Variogramas Anidados”. Permite
modelar cambios de pendiente en el variograma

P á g . 52
Unidad III: Variografía de Indicadores
El variograma de indicadores es muy simple y sirve para incluir información
adicional “soft” de la región; por ejemplo, se puede utilizar para determinar la
“probabilidad” de ocurrencia de un tipo de roca, la probabilidad de limites de
mineralización, puede servir para calcular los ponderadores cuando las
poblaciones no pueden separarse en forma física, etc.

En el caso de leyes de mineral, se puede definir una ley de corte; por ejemplo,
si se han tomado muestras y se desea estimar la probabilidad de que en los
lugares que no se tomó muestra, exista la posibilidad de obtener leyes sobre la
ley de corte definida.

Para ello se debe definir una nueva variable “I” que dependerá de la ley de
corte.

I = 0, si la muestra tiene un valor bajo la ley de corte

I = 1, si la muestra tiene un valor sobre la ley de corte

Con esta nueva variable que sólo contiene valores 0 (cero) y 1 (unos), se
procede a analizar la variabilidad espacial de la variable I, mediante el
variograma de los indicadores.

P á g . 53
Ejemplo, si se desea saber cual es la probabilidad de encontrar valor sobre una
ley de corte de 0.6 % CuT, entonces:

I = 0, si la muestra tiene un valor de CuT menor a 0.6%

I = 1, si la muestra tiene un valor de CuT sobre 0.6%.

Figur a 25 : va ri ogr ama de indica dor es ajust a do con dos estr uct ura s esf éric as ani dada s.

P á g . 54
Unidad IV: Análisis de Anisotropías
Variograma Según el Comportamiento Direccional

Un variograma γ(h) es isotrópico si es idéntico en todas las direcciones del


espacio, es decir, si no depende de la orientación del vector h, sino sólo de su
módulo (h). En caso contrario, hay anisotropía; tal propiedad caracteriza un
fenómeno que se extiende de preferencia en ciertas direcciones.

En la práctica, las anisotropías se pueden identificar al comparar los


variogramas experimentales calculados a lo largo de varias direcciones del
espacio, por ejemplo, en el caso bidimensional, a lo largo de las direcciones
orientadas 0º, 45º, 90º y 135º con respecto al eje de las abscisas. los
variogramas experimentales en las diferentes direcciones se superponen. el
caso contrario, se está en presencia de una anisotropía. Se distingue varios
tipos de anisotropía, en especial, la anisotropía geométrica y la anisotropía
zonal.

P á g . 55
Anisotropía Geométrica

Se produce cuando los diversos variogramas pueden reducirse a un variograma


isotrópico mediante una transformación lineal de las coordenadas. El caso más
común en la práctica es cuando los variogramas presentan un mismo valor de
meseta pero diferentes alcances:

P á g . 56
Anisotropía Regional o Zonal:

Es aquella en la que el variograma en distintas direcciones presenta el mismo


rango pero diferente sill (Meseta).

Figur a 26 : Ej emplo de Aniso tr opía Zo nal

P á g . 57
Mapa de Variograma:

Los valores del variograma experimental en función de la separación (distancia


y orientación).

P á g . 58
Ejemplo:

Figur a 27 : Va rma p de C uT

P á g . 59
Ejemplo de Anisotropía en 3D:

En color rojo está el variograma calculado en la dirección Este, en azul la


dirección Norte y en negro, la dirección vertical.

• Efecto Pepita = 0.1 (Debe ser el mismo en todas las direcciones).


• Luego se agrega una estructura (exponencial) que llega a la primera
meseta, con alcances propios en cada dirección.
• γ(h) = 0.1 + Exp (200m, 120m, 50 m)

Figur a 28 : Ajust e co n una est r uctur a

P á g . 60
• Luego se agrega una segunda estructura para llegar a la segunda meseta,
dejando infinito el alcance en la dirección Este.
• γ(h) = 0.1 + Exp (200m, 120m, 50 m) + 0.3 Exp ( ∞, 120m, 50m)

Figur a 29 : M odelo a justa do con dos est ruct ur as anid ada s

• Finalmente se agrega una tercera estructura para llegar a la meseta total,


dejando infinitos los alcances en las direcciones Este y Norte.
• γ(h) = 0.1 + Exp (200m, 120m, 50 m) + 0.3 Exp ( ∞, 120m, 50m) + 0.2 Exp
( ∞, ∞, 50m)

Figur a 30 : M odelo a just ado c on tr es es tr uctur a s


a nidada s

P á g . 61
MODULO III : MODELOS DE
ESTIMACIÓN DE LEYES
Unidad I: Cambio de Soporte
Como se explicó anteriormente, a superficie o el volumen sobre el cual se
considera la variable regionalizada se denomina soporte, a menudo el soporte
es un cilindro llamado testigo.

¿Por qué es importante el cambio se soporte?

En la minería se extraen bloques minerales de gran tamaño y no del tamaño de


las muestras puntuales; además, la variabilidad espacial de muestras es
diferente, dependiendo del tamaño del soporte.

P á g . 62
Figur a 31 : Difer entes so port es

La primera imagen corresponde a un soporte de 1mx1m, la segunda a un


soporte de 5mx5m y la tercera a un soporte de 25mx25m.

SOPORTE: El soporte es el volumen sobre el cual se mide o se considera la


variable en estudio (testigo, compósito, pozo de tronadura, unidad selectiva de
explotación o “bloque”)

CAMBIO DE SOPORTE o REGULARIZACIÓN: La variable regularizada


sobre el bloque V, denotada como Z(V), se define como el promedio de los
valores puntuales en V:

en donde |V| representa el volumen del bloque V. Sr requiere que la variable


sea aditiva.

Tanto la distribución estadística de los valores (histograma) como su correlación


en el espacio (variograma) dependen del soporte considerado.

P á g . 63
Este efecto de soporte tiene importantes consecuencias en la evaluación de
yacimientos, pues los datos disponibles (sondajes, pozos de tronadura) no
tienen el mismo soporte que las unidades a estimar

Cambio en el variograma: El paso de un soporte pequeño a un soporte


mayor es una operación reguladora (→ “suavizamiento” de los mapas).

Figur a 32 : Va rio gra ma s a d iferent es sopor t es

Efecto de cambiar el soporte de los datos al compositarlos:

• Mientras mayor sea el tamaño de los compósitos, más regular será su


variograma cerca del origen y más pequeña será su meseta
• La teoría predice que la amplitud del efecto pepita es inversamente
proporcional al volumen del dato. Por ejemplo, al pasar de compósitos
de 1m de largo a compósitos de 2m de largo, el efecto pepita debería
disminuir a la mitad. La proporción del efecto pepa (en relación a la
meseta total) debería disminuir también

P á g . 64
Efecto en el Histograma:

mínimo: 0.013 mínimo : 0.082 mínimo: 0.178


máximo: 12.77 máximo: 6.319 máximo: 3.181
media: 0.941 media: 0.941 media: 0.941
varianza: 0.497 varianza: 0.336 varianza: 0.260

Curvas de Selectividad:

Las curvas de selectividad son herramientas alternativas al histograma para


visualizar la distribución de los valores de una variable. Entre ellas, las más
importantes son:

• Tonelaje - ley de corte: indica la proporción de valores (fracción


del tonelaje total) que supera una ley de corte
• Ley promedio - ley de corte: indica la media de los valores que
superan una ley de corte
• Ley promedio - tonelaje
• Cantidad de metal - ley de corte: la cantidad de metal se define
como el producto de la ley promedio por el tonelaje
• Cantidad de metal – tonelaje

P á g . 65
Figur a 33 : C urva de T onela je

Figur a 34 : C urva de Ley media

P á g . 66
Las curvas de selectividad cuantifican los recursos recuperables en un
yacimiento (tonelaje, cantidad de metal, etc.). Dependen de cuatro factores:

• El efecto de soporte: mientras más voluminoso el soporte, menos


selectividad.
• El efecto de información: algunos bloques de mineral son
subestimados y enviados equivocadamente a botadero; otros bloques
estériles son sobreestimados y enviados a planta.
• Las restricciones geométricas: algunos bloques de alta ley pueden ser
abandonados si los costos para alcanzarlos son demasiado altos.
• La dilución operativa

La decisión de enviar un bloque a planta o botadero se efectúa en base a la ley


estimada del bloque en lugar de la ley verdadera (desconocida

Figur a 35 : M isscla sific at ion

P á g . 67
Para minimizar el efecto de información, se buscará un estimador preciso e
insesgado (global y condicionalmente)

P á g . 68
Unidad II: Kriging Ordinario y Simple
El kriging es un término que ha sido acuñado para designar al "mejor
estimador lineal insesgado" de un punto y al mejor promedio lineal móvil
ponderado de un bloque.

Este nombre apareció alrededor de 1960 para nombrar una técnica creada en
Francia por Matheron a partir de los trabajos de D. G. Krige quién fue
probablemente el primero que hizo uso de la correlación espacial y del mejor
estimador lineal insesgado en el campo de la evaluación de yacimientos
minerales.

El kriging es una técnica de estimación local que ofrece el mejor estimador


lineal insesgado de una característica desconocida que se estudia. La limitación
a la clase de estimadores lineales es bastante natural ya que esto significa que
solamente se requiere el conocimiento del momento de segundo orden de la
función aleatoria (la covarianza o el variograma) y que en general en la práctica
es posible inferir a partir de una realización de la misma.

Sea Z (x) una función aleatoria, la cual está definida en un soporte puntual y es
estacionaria de segundo orden, con :

E ⎡Z (x)⎤ = m; ∀x

donde m es una constante generalmente desconocida,

• Una función de covarianza centrada

C ( h ) = E ⎡⎣ Z ( x + h ) Z ( x ) ⎤⎦ − m 2

P á g . 69
• Una función variograma

Var[Z(x + h) − Z(x)]= 2γ (h)

Cuando solamente existe el variograma, entonces la función aleatoria Z ( x ) se


considera intrínseca.

Los valores experimentales consisten en un conjunto de valores discretos {Z (xi),


i =1,...,n}. Con frecuencia estos valores están definidos en soportes puntuales o
casi puntuales, en otros casos son los valores medios ZVi (xi )definidos en los
soportes Vi centrados en los puntos xi , donde los n soportes pueden ser todos
diferentes.

La estimación del valor medio ZV (xi ) en el dominio de vi se define como:


i

El estimador lineal Zk* considerado es una combinación lineal de n valores de


datos tal que:

Los n coeficientes λi son calculados de manera tal que el estimador sea


insesgado y que la varianza de la estimación sea mínima, entonces se dice que
el estimador Zk* es óptimo.

P á g . 70
Kriging Ordinario:

Suponga que se hacen mediciones de la variable de interés Z en los puntos xi,


i= 1, 2,..., n, de la región de estudio, es decir se tienen realizaciones de las
variables Z(x1), . . . , Z(xn), y se desea predecir Z(xo), en el punto x0 donde no
hubo medición. En esta circunstancia, el método kriging ordinario propone que
el valor de la variable puede predecirse como una combinación lineal de las n
variables aleatorias así:

En donde los λi representan los pesos o ponderaciones de los valores


originales. Dichos pesos se calculan en función de la distancia entre los puntos
muestreados y el punto donde se va a hacer la correspondiente predicción. La
suma de los pesos debe ser igual a uno para que la esperanza del predictor sea
igual a la esperanza de la variable. Esto último se conoce como el requisito de
insesgamiento.

Estadísticamente la propiedad de insesgamiento se expresa a través de:

Asumiendo que el proceso es estacionario de media m (desconocida) y


utilizando las propiedades del valor esperado, se demuestra que la suma de las
ponderaciones debe ser igual a uno:

P á g . 71
*
Se dice que Z (x0) es el mejor predictor, lineal en este caso, porque los pesos
se obtienen de tal manera que minimicen la varianza del error de predicción, es
decir que minimicen la expresión:

V(Z*(x0)−Z(x0))

Esta última es la característica distintiva de los métodos kriging, ya que existen


otros métodos de interpolación como el de distancias inversas o el poligonal,
que no garantizan varianza mínima de predicción. La estimación de los pesos
se obtiene minimizando V[Z*(x0 )−Z(x0 )] sujeto a :

Se tiene que:

P á g . 72
Luego se debe minimizar la función anterior sujeta a la restricción de que la
suma de los pesos (ponderadores) sea igual a 1 (uno) . Este problema se
resuelve mediante el método de multiplicadores de Lagrange.

Siguiendo el procedimiento acostumbrado para obtener valores extremos de


una función, se deriva e iguala a cero, en este caso con respecto a λi y μ:

De igual manera se determinan las derivadas con respecto a λ2……λn

P á g . 73
Por último, se deriva con respecto a μ

De todo esto, resulta un sistema de ecuaciones:

Reemplazando por variogramas, se obtiene:

P á g . 74
La varianza de estimación de Kriging Ordinario, esta dada por:

Ejemplo:

Se tiene una configuración de datos como la que se presenta en el esquema de


abajo. Con base en siete datos observados (valores al lado del signo + por
fuera de los círculos numerados de 1 a 7) se quiere predecir un valor de la
variable en el punto donde se encuentra el signo de interrogación, por fuera
del circulo con el número cero.

P á g . 75
Sean las distancias entre las muestras las siguientes:

Y sea:

La estructura de correlación espacial entre los datos es estimada por un


modelo exponencial γ(h)=10(1−exp(−3h/10)) (pepita cero, meseta 10 y rango
10) o en términos de la función de autocovarianza por C(h)=10 (exp(−3h/10)),
se encuentran las siguientes matrices que permiten encontrar los pesos para la
predicción.

C11(0) = 10 exp (-3*0/10) = 10

C12(2.24) = 10 exp (-3*2.24/10) = 5.11

C13(10.44) = 10 exp (-3*10.44/10) = 0.44

…..

C10(4.47) = 10 exp (-3*4.47/10) = 2.61

C20(3.61) = 10 exp (-3*3.61/10) = 3.39

P á g . 76
y varianza de estimación igual a:

P á g . 77
Kriging Simple:

Suponga que hay una variable regionalizada estacionaria con media (m) y
covarianza conocidas. De manera análoga a como se define en modelos
lineales (por ejemplo en diseño de experimentos) el modelo establecido en
este caso es igual a la media más un error aleatorio con media cero. La
diferencia es que en este caso los errores no son independientes.

Sea Z(x) la variable de interés medida en el sitio x.

E[Z(x)]= m

Z(x)=m+∑(x), con E[∑(x)]=0.

Para asegurar que no exista sesgo, a diferencia del kriging ordinario, no existen
restricciones del tipo:

Y la matriz a resolver es la siguiente:

P á g . 78
Unidad III: Kriging puntual y de bloques
Hasta el momento se han realizado estimaciones en un punto (Kriging Puntual);
sin embargo, en el caso cuando se desee conocer el valor promedio sobre una
región o bloque, se formulan las ecuaciones del Kriging de manera análoga al
caso puntual.

En el kriging por bloques en lugar de estimar el valor en un punto xk se


considera una región Vk de área Ak con centro en el punto xk . El estimador
tiene la siguiente forma:

En las ecuaciones del Kriging puntual el vector del miembro derecho las
semivarianzas γ ij son reemplazadas por las semivarianzas promedios con
respecto al bloque Vk que se expresan como:

Quedando las ecuaciones del Kriging de Bloques como:

P á g . 79
Figur a 36 : Selecc ión de muest ra s par a est imar un blo que

El semivariograma ha sido determinado para un soporte del tamaño de las


muestras; por lo tanto es necesario estimar la varianza espacial entre el soporte
de la muestra (v) y el soporte del bloque (V). Para ello, el Bloque V, se discretiza
en infinitos puntos del tamaño del soporte de la muestra como a continuación
se muestra:

Bloque V

Muestra de Tamaño v

Figur a 37 : Discr etiza ció n de un Bloque

P á g . 80
El cálculo de γ(V,v) tomaría mucho tiempo ya que debería considerar un número
casi infinito de puntos dentro del bloque de volumen V; sin embargo, se han
desarrollado algoritmos matemáticos que permiten obtener una buena
aproximación en un corto período de tiempo.

Selección de Muestras:

En estricto rigor, el krigeado de un bloque V debería realizarse considerando


todos los datos disponibles (krigeado completo). Sin embargo, esta situación
implica cálculos muy largos; por otra parte, las muestras alejadas tendrían un
peso casi nulo. Por esta razón la práctica recomienda a una vecindad de
estimación que puede ser una esfera o círculos, o bien un elipsoide o elipse
(3D y 2D), o también, porque no, un rectángulo o una caja. Como
recomendación práctica, el radio en una cierta dirección no debe ser inferior al
alcance en esa dirección.

Figur a 38 : Selecc ión de muest ra s par a est imac ión

P á g . 81
La práctica ha demostrado que en el espacio de 2 dimensiones con una
vecindad que contenga un promedio del orden de 8 muestras, los resultados
son buenos. En el espacio de 3 dimensiones la situación es más compleja y
debe ser analizada en cada caso particular.

Una estrategia de búsqueda establece algunos parámetros que hay que utilizar
para la búsqueda de compósitos a utilizar en la estimación del bloque.
Dependiendo del software minero utilizado, estos parámetros son:

Figur a 39 : El ipsoide de Búsqueda

El elipsoide al momento de estimar debe dividirse en sectores y octantes para


restringir y distribuir de una mejor manera el aprovechamiento de los datos de
las muestras y obtener una mejor estimación.

Cuando las muestras son numerosas y se desea obtener el mejor estimador;


entonces la selección de muestras a considerar es algo crucial y para ello se
han diseñado dos tipos de búsqueda: Por Octante o por Cuadrante como se
muestra a continuación.

P á g . 82
Plan de Kriging:

El plan de Kriging considera las siguientes etapas:

• Definición de manejo de Outliers (Capping)


• Identificación de la zona a estimar los bloques (puede estar restringida
por sólidos en 3D o mediante Polígonos)
• Identificación de la muestras a utilizar (todas o restringirlas a sólo usar
aquellas que se encuentren dentro del sólido).
• Ingreso de variograma considerando las anisotropías (x, y, z)
• Definición de los radios de búsqueda del elipsoide.
• Definición de la búsqueda de muestras.
• Definir el número mínimo de muestras a utilizar por Cuadrante u Octante.
• Definir el número máxima de muestras a utilizar para la estimación.
• Seleccionar el método de interpolación (Kriging Ordinario o Kriging
Simple)

P á g . 83
Ejemplo de Faena Minera:

1. First Pass

• Major Axis Direction Defined By Variogram Model

• Distance Along Major Axis = 75m

• Directions/Distances for other two directions defined by variogram


model

• Minimum/Maximum Number of Composites = 18/25

• Number of Octants With Data = At least 5

• Maximum Number of Composites From One Hole = 6

2. Second Pass

• Major Axis Direction Defined By Variogram Model

• Distance Along Major Axis = 150m

• Directions/Distances for other two directions defined by variogram


model

• Minimum/Maximum Number of Composites = 18/25

• Number of Octants With Data = At least 4

• Maximum Number of Composites From One Hole = 8

P á g . 84
3. Estimation Pass 3

• Fixed Search (250x250x250m)

• Minimum/Maximum Number of Composites = 15/25

• 5 Octants Must Contain Data

4. Estimation Pass 4

• Fixed Search (300x300x300)

• Minimum/Maximum Number of Composites = 15/25

• Maximum Number of Composites From 1 Drillhole = 10

4. Estimation Pass 5

• Blocks not estimated in passes 1-4 are assigned a value equal to the
average of the blocks estimated in pass 4 (by estimation unit and zone)

Cada paso define la calidad de la estimación y es considerada en el momento


de la clasificación de recursos.

P á g . 85
Unidad IV: Validación del Modelo de leyes
Una vez terminado el proceso de estimación se procede a validar las leyes de
los bloques y analizar su comportamiento espacial.

Existen varios métodos que se aplican en la práctica:

• Validar que la ley media de modelo del bloques es igual (o muy


cercana) a la ley media de las muestras.

• Comparación con el bloque y el Vecino más Cercano (NN = Nearest


Neihbor).
• El NN se obtiene con el promedio de las leyes de las muestras que
estén más cercanas al centroide del bloque y se compara con el valor
estimado.

P á g . 86
• Comparación de contactos geológicos y comportamiento de las leyes
mediante “Swath Plots”.
• El Swath Plot es un gráfico que compara la distribución de leyes en una
serie de bandas, generados en diferentes direcciones a lo largo del
depósito en donde se comparan los resultados de Kriging versus el
modelo de leyes entregado por el NN.

P á g . 87
Figur a 40 : Ejemplo de estim ació n de Au

Figur a 41 : Ej emplo de est ima ción de C obr e

P á g . 88
MODULO IV : MODELOS DE
SIMULACIÓN DE LEYES
Unidad I: Bases de la Simulación
Las estimaciones espaciales de un fenómeno regionalizado que se pueda
describir mediante una función aleatoria Z(x) son con frecuencia insuficientes
debido a múltiples factores, pero sobre todo debido a la carencia de suficiente
información (mediciones) acerca de la función aleatoria Z(x).

Como desafortunadamente no se dispone de un conocimiento exacto de la


realidad "in situ" y la información disponible en muchos casos está usualmente
muy fragmentada y se limita fundamentalmente al conocimiento de unos pocos
puntos muestrales, las estimaciones obtenidas a partir de esta información
incluso empleando el estimador Kriging, son demasiadas imprecisas para los
cálculos exactos de las dispersiones que se requieren en ciertas aplicaciones.

¿Cómo es imposible estimar la realidad "in situ" correctamente, con suficiente


detalle?.

Una idea simple es simular esta realidad en base a un modelo, por lo que la
realidad y la simulación son variables diferentes de un mismo fenómeno.

Consideremos el siguiente ejemplo. Tenemos mediciones reales del fenómeno,


es decir, una realización {ZM (xi), i =1,...,n} de la función Z(x) en ciertos puntos xi
de la región a estudiar. El enfoque geoestadístico consiste en interpretar la
distribución espacial de la variable regionalizada ZM(x) como una realización
particular de la función aleatoria Z(x). Esta función aleatoria esta caracterizada

P á g . 89
por su función de distribución de probabilidad o por sus dos primeros
momentos, los cuales son estimados a partir de datos experimentales.

Este modelo es entonces adecuado para el problema práctico de la


determinación de medidas de la dispersión de los valores observados ZM(xi), ya
que las varianzas de la dispersión de Z(x) pueden ser expresadas como una
función del momento de segundo orden solamente (covarianza o variograma).
Una simulación entonces consiste en obtener otra realización ZS(x) de esta
función aleatoria Z(x). Las dos realizaciones la real y la simulada difiere una de
la otra en determinadas localizaciones pero ambas pertenecen a la misma
función aleatoria Z(x); es decir tienen la misma función de distribución y los
mismos momentos de primer y segundo órdenes por lo se dice que son
estadísticamente equivalentes.

El fenómeno simulado tiene la ventaja de ser conocido en todos los puntos y


no solamente en los puntos experimentales {ZM(xi), i=1,...,n}. Con frecuencia al
fenómeno simulado se le llama "modelo numérico" del fenómeno real.

Condicionamiento:

Existe un número infinito de realizaciones que cumplen con la condición de


que sus valores simulados coinciden con los valores experimentales, es decir

Z SC (x i )=Z M (x i ); i=1,...,n;

donde ZM(xi) es el valor muestral de la función aleatoria Z(x) en el punto xi .

Esta condición le confiere una cierta robustez a la simulación condicionada Z(x)


con respecto a las características de los datos reales {ZM(xi) ჼ, i ჼ1,...,n }ჼ/, los
cuales no son modelados explícitamente por la función aleatoria Z(x). Si por
ejemplo un número suficiente de datos muestran una tendencia local entonces
la simulación condicional que está basada incluso en un modelo estacionario
reflejará la tendencia local en la misma zona.

P á g . 90
La simulación condicional puede ser perfeccionada agregándole toda una
suerte de información cualitativa disponible del fenómeno real. Como por
ejemplo en el caso de un depósito se le puede añadir la geometría de las fallas
principales, etc.

¿Simulación o estimación?

Los fenómenos simulados tienen los mismos valores experimentales en las


localizaciones muestrales y tienen las mismas medidas de dispersión (al menos
hasta de orden 2) que el depósito real.

Entonces, ¿en qué sentido la simulación condicional difiere de una estimación ?

La diferencia estriba en sus objetivos:

• El objetivo de una estimación es ofrecer en cada punto x un valor


estimado Z*(x)ჼ el cual es tan cercano como sea posible del valor real
desconocido Z(x).
• Los criterios de la calidad de la estimación son:

• El estimador no tiene que reproducir la variabilidad espacial de los

P á g . 91
valores reales Z(x). En el caso del Kriging este produce un suavizado de
las dispersiones reales, dicho de otra forma, se subestima la variabilidad
de los valores reales.
• Mientras que el objetivo de la simulación es reproducir las propiedades
estadísticas de la función aleatoria Z(x). Dicho explícitamente, la
simulación ZS(x) posee los mismos momentos experimentales (media,
covarianza o variograma, así como el histograma) que los valores reales
{ZM(xi), i=1,...,n}, los cuales caracterizan las principales propiedades
estadísticas de Z(x). En particular, en las simulaciones condicionadas en
cada punto x el valor simulado ZSC(x) no es el mejor estimador posible de
Z(x). Por el contrario, se puede mostrar que la varianza del error de la
estimación de Z(x) mediante simulación condicional ZSC(x) es exactamente
el doble de la varianza del error usando Kriging.

P á g . 92
Métodos de Simulación de funciones aleatorias más conocidos:

Las aplicaciones de la simulación de funciones aleatorias en los últimos tiempos


han adquirido una importancia cada vez mayor en la industria del petróleo, en
geofísica e hidrogeología lo cual ha hecho que esta área de la geoestadística
sea la que más activamente se ha desarrollado. Debido a esto se han
diversificado los métodos de simulación, por lo que intentar establecer alguna
clasificación sistemática de los mismos resulta una tarea compleja y difícil. Aquí
intentaremos dar una idea general de los métodos más conocidos y sus
características.

P á g . 93
Una de las características distintivas de los métodos de simulación es si
generan directamente simulaciones condicionadas o si se requiere de un post-
procesamiento para condicionarlas usando Kriging. Existe una gran cantidad de
métodos que generan simulaciones Gaussianas, por lo que éste es otro punto a
tener en cuenta.

P á g . 94
Secuencia de la Simulación:

Definición de Malla de nodos a simular

P á g . 95
Las muestras pueden ajustarse al nodo más cercano.

Primer nodo a simular en forma aleatoria:

P á g . 96
Búsqueda de Muestras para simular el primer nodo

P á g . 97
Figur a 42 : T odo s lo s no dos simula dos

P á g . 98
Unidad II: Simulación Condicional Gaussiana
Como es conocido la mayoría de los fenómenos de ciencias de la tierra no
presentan histogramas simétricos y mucho menos gaussianos. Por lo que nos
enfrentamos aquí con la primera dificultad a la hora de aplicar esta clase de
métodos.

La primera condición necesaria para que una función aleatoria posea una
distribución normal multivariada es que su distribución univariada sea normal.
Esto nos dice que necesitamos transformar a la función aleatoria Z(x) de manera
que resulte su FDP (Función de Densidad de Probabilidad) normal.

El modo de hacerlo es relativamente simple. Si Y(x) es una función aleatoria con


FDP univariada FY(y) = G(y) normal estandarizada N(0,1) . Entonces, se cumple
que:

P á g . 99
Secuencia de la Simulación Gaussiana:

Luego de realizar la simulación Gaussiana a los datos transformados se requiere


hacer la transformación inversa de los valores simulados obtenidos.

P á g .100
Ejemplo:

Figur a 43 : His togr a ma de M uest ra s

Figur a 44 : Da to s t ra nsfo rma dos media nte ana mor fo sis G ussia na

P á g .101
Figur a 45 : Dist ri bución Acumula da de C uT

Figur a 46 : Dist ri bución en espa cio No rma l

P á g .102
Figur a 47 : M uestr as co n va lor es tipic ado s N or mal (0,1)

Figur a 48 : Semiva r iogr ama s de Da to s N or males

Υ(45,135) = 0.1 + 1.25 Sph (750, 900, 100)

P á g .103
Figur a 49 : Simula cio nes (Rea liza cio nes) equipo rba bles del Y a cimient o

P á g .104
Figur a 50 : His togr a ma de M uest ra s

Figur a 51 : His togr a ma de Si mulac ión (Ba ck-t ra nsfor ma da)

P á g .105
Unidad III: Simulación Condicional de
Indicadores.
Usa el Kriging indicador para estimar la función distribución de probabilidad
local. Requiere del modelo del semivariograma para cada valor de corte zc
especificado por el usuario o como alternativa mas eficiente pero menos
precisa del semivariograma obtenido para el valor corte correspondiente a la
mediana zM .

Leyes de corte escogidas:

Lc1 = 0.15 % CuT, Pdf = 60%

Lc2 = 0.40 % CuT, Pdf = 73%

Lc3 = 0.70 % CuT, Pdf = 85%

Lc4 = 1.50 % CuT, Pdf = 97%

P á g .106
Lc1: Υ(45,135) = 0.04 + 0.186 Sph (500, 900, 100)

Lc2: Υ(45,135) = 0.03 + 0.195 Sph (450, 800, 100)


P á g .107
Lc3: Υ(45,135) = 0.04 + 0.186 Sph (400, 700, 100)

Lc4: Υ(Omnidireccional) = 0.17 + 0.12 Sph (60, 60, 60)

P á g .108
Figur a 52 : Simula cio nes de Indica dor es

P á g .109
Figur a 53 : His togr a ma de M uest ra s

Figur a 54 : His togr a ma de da t os Simula dos

P á g .110
Unidad IV: Aplicaciones en Minería
Minera del Norte de Chile:

Esta minera ha querido priorizar la exploración brownfield en áreas cerca del


yacimiento, en búsqueda de mineral supérgeno que pueda ser tratado con la
actual infraestructura y cuya explotación requiera del menor gasto de capital
posible, y para ello se realizó un análisis geológico probabilístico de
mineralización hacia el sector nor-este del yacimiento. Para determinar los
límites mineralizados del sector se utilizó kriging de indicadores y los resultados
son los siguientes: Semivariogramas de Indicadores de zona mineralizada de
mineral lixiable (óxidos, sulfuro secundarios y mixtos):

Utilizando estos semivariogramas, se calculó la probabilidad de mineralización


como se muestra en las siguientes imágenes:

P á g .111
Figur a 55 : P ro babil idad de M iner aliz ació n

P á g .112
Con estas plantas se diseñó un cuerpo mineral, cuya probabilidad de
mineralización fuese mayor a un 25% y se determinaron los límites del cuerpo
mineralizado como se muestra en las siguientes imágenes:

Figur a 56 : C uerpo M inera l b asa do en P ro bab ilida des

Una vez determinado el cuerpo mineral, se procedió a aplicar simulación


Gaussiana condicional de leyes de Cu.

P á g .113
Correlogramas de Data Normalizada:

Los resultados de las simulaciones se muestran a continuación:

P á g .114
P á g .115
Figur a 57 : Da to s simul ado s co n sus Leyes

El resultado de las simulaciones entregó que existe la probabilidad de


encontrar un cuerpo de aproximadamente 60 millones de toneladas con una
ley media entre 0.4 % CuT y 0.7% CuT.

Los resultados de las simulaciones, concuerdan con los supuestos geológicos


para identificación de blancos de exploración adquiridos luego del aumento
del conocimiento del estilo y patrones de mineralización del yacimiento.

Por lo tanto, se recomienda realizar una campaña exploratoria de sondajes en


la zona que se muestra a continuación:

P á g .116
Figur a 58 : Zona de Ex plor ac ión

Para ello se sugiere lo siguiente:

o ჼ= 10-12 drill holes, 6.000 m RC


o ჼ= MUS$ 1,2 Budget required.

P á g .117

You might also like