You are on page 1of 54

3

Métodos para analizar


datos puntuales
MARCELINO DE LA CRUZ ROT
Departamento de Biología Vegetal, Escuela Univer-
sitaria de Ingeniería Técnica Agrícola, Universidad
Politécnica de Madrid, 28040 Madrid, España. E-
mail: marcelino.delacruz@upm.es

RESUMEN

Los patrones de puntos se caracterizan por dos propiedades intrínsecas: la de


primer orden (intensidad, o densidad) y la de segundo orden (que es la que sumariza
las interacciones de atracción o repulsión entre los puntos). El análisis y descripción
de patrones de puntos se basa en estudiar las propiedades de segundo orden, con un
conjunto variado de herramientas. A lo largo del capítulo se presentan diversos ejem-
plos de análisis y modelización de datos tanto artificiales como naturales. Se describe
el uso exploratorio de la función K de Ripley y su versión normalizada L(r), la distri-
bución de vecinos N(r), los mapas de Getis, la función de correlación de par y la fun-
ción O-ring. Se explica también su aplicación para realizar test de hipótesis sencillos,
tanto locales (pointwise) como globales, a partir de simulaciones Monte Carlo. Se co-
menta el uso exploratorio y los test basados en otra propiedad del patrón, las distan-
cias al vecino más cercano, tanto los basados en la distancia media (Clark y Evans)
como los basados en la distribución acumulada de las distancias (funciones F, G, J).

Cuando los puntos se diferencian unos de otros por alguna cualidad (especie,
sexo, tamaño), se emplean técnicas para el análisis de patrones marcados. Si las mar-
cas son continuas, generalmente la hipótesis nula a testar es la de independencia de
marcas, y se emplean herramientas como la función de correlación de marca, la fun-
cion K ponderada por marca o la función Km. Son pertinentes también los test de de-
pendencia entre marcas y posiciones, que determinan si pueden o no emplearse mé-
todos geoestadísticos para el análisis de las marcas. Como herramienta exploratoria
espacialmente explícita se puede emplear la medida de suma de marca.

Si las marcas son discretas, las herramientas suelen ser versiones cruzadas o
multivariadas de las funciones "univariadas": K-cruzada, G-cruzada, J-cruzada, así
76 MARCELINO DE LA CRUZ ROT

como funciones específicamente multivariadas (funciónes H, I, etc). En este caso


suele testarse la independencia entre marcas desde dos hipótesis: independencia o
etiquetado aleatorio. Suele ser interesante combinar funciones univariadas y multi-
variadas para testar diferencias de agregación y segregación entre patrones. Otra
posibilidad es analizar las tablas de contingencia de las frecuencias del vecino más
cercano.

Después del análisis exploratorio y los test anteriores, el paso natural sería ajus-
tar los parámetros de algún proceso estocástico (Neyman-Scott, Strauss, Geyer, etc.)
como explicación de la génesis del patrón. El ajuste puede realizarse usando funcio-
nes sumario (método del contraste mínimo, buscando los parámetros del modelo que
minimizan las diferencias entre sumario teórico y sumario empírico) o mediante fun-
ciones de verosimilitud y pseudo-verosimilitud, a partir de modelos especificados en
función de la intensidad condicional del patrón que consideren tanto la componente
de interacciones estocásticas entre puntos como la componente de tendencia espacial
(lo que permite tratar con patrones inhomogéneos). Este capítulo es una versión am-
pliada de De la Cruz (2006).

3.1. INTRODUCCIÓN

Quizás la forma más fiel de reflejar la estructura espacial de una po-


blación, comunidad, o de cualquier fenómeno ecológico de naturaleza
discreta (manchas de hábitat, perturbaciones, etc.) es la representación
cartográfica de todos los elementos del mismo en una región geográfica
concreta. En muchas ocasiones, dependiendo de la escala de estudio, tales
elementos pueden describirse aceptablemente mediante sus coordenadas
espaciales (x, y), generándose así un conjunto de datos que recibe el nom-
bre de patrón espacial de puntos (Diggle 2003). La metodología habitual en el
estudio de estas estructuras asume que el patrón espacial de puntos de
una población, comunidad, etc. es una realización concreta de un proceso
espacial de puntos subyacente, que hay que describir, y cuyas propiedades
son una buena descripción del patrón concreto. Un proceso de puntos es
un proceso estocástico que “genera” patrones de puntos aleatorios que
comparten la misma estructura espacial (la ley del proceso), por ejemplo
patrones de Poisson (distribución completamente al azar), regulares o
agrupados (Fig. 3.1).

Una de las aplicaciones para las que se suelen emplear las técnicas de
análisis de patrones de puntos es para inferir la existencia de interacciones
Métodos para analizar datos puntuales 77

100
0

0 100 0 100

a) b)

0 100

c)
Figura 3.1. Ejemplos de patrones aleatorio o de Poisson (a), agregado (b) y regular (c)

en comunidades y poblaciones a partir del estudio del patrón espacial (la


disposición) de los individuos. Su empleo se basa en la asunción de que el
análisis del patrón espacial y de sus variaciones en el espacio y en el tiem-
po podría explicar los mecanismos subyacentes a la construcción de la es-
tructura y al funcionamiento de la dinámica de poblaciones y comunida-
des (Haase et al. 1996, Wiegand et al. 2006).

La naturaleza del patrón generado por procesos biológicos puede es-


tar afectado por la escala a la que el proceso es observado. La mayoría de
los ambientes naturales muestran heterogeneidad a una escala lo suficien-
temente grande como para permitir la aparición de patrones agregados. A
una escala menor, la variación ambiental puede ser menos acentuada y el
patrón estará determinado por la intensidad y la naturaleza de las interac-
78 MARCELINO DE LA CRUZ ROT

ciones entre los individuos (Diggle 2003). La tradicional clasificación de los


patrones —como la que aparece en la mayoría de los libros de texto de eco-
logía— en regular, aleatoria o agregada, es por lo tanto una simplificación
excesiva que, aunque puede resultar útil en una primera etapa explorato-
ria del análisis, debería dejar paso a una descripción más detallada y mul-
tidimensional basada en estadísticos funcionales o en la formulación de
modelos explícitos del proceso subyacente.

En la mayoría de los análisis de patrones de puntos se asume estacio-


naridad (el proceso es homogéneo o invariante a la translación) e isotropía
(el proceso es invariante a la rotación). En esas circunstancias, las caracte-
rísticas principales de un proceso de puntos pueden ser sumarizadas por
su propiedad de primer orden (λ, o intensidad: el número esperado de
puntos por unidad de área en cualquier localidad), y por su propiedad de
segundo orden, que describe las relaciones entre pares de puntos (p. ej. la
probabilidad de encontrar un punto en las inmediaciones de otro). En el
caso de patrones uniformes o regulares, la probabilidad de encontrar un
punto en las inmediaciones de otro es menor de la que tendría un patrón
aleatorio mientras que en los patrones agrupados la probabilidad es ma-
yor. Patrones más complejos incluyen marcas (variables discretas o conti-
nuas que caracterizan a cada punto), inhomogeneidad (ausencia de esta-
cionaridad) e incluso anisotropía, propiedades que deberán ser tenidas en
cuenta a la hora de describirlos y analizarlos, ya que afectan a las propie-
dades de primer y segundo orden.

3.2. DESCRIPCIÓN DEL PATRÓN Y TESTS DE HIPÓTESIS


SENCILLAS

El uso más habitual de las técnicas de análisis de patrones de puntos


ha sido la descripción de los mismos (la clasificación en una de las tres ca-
tegorías señaladas en la Fig. 3.1), normalmente a partir de algún test de
aleatoriedad espacial. Se ha mencionado con frecuencia que dichos tests
no tienen un interés intrínseco, ya que la distribución aleatoria suele ser la
excepción más que la norma en la naturaleza, pero pueden ser un primer
paso para generar hipótesis interesantes respecto al origen de los patrones
y su génesis. Los primitivos métodos de recuentos en cuadrados, sencillos
de emplear, tienen la pega de estar condicionados por el tamaño del cua-
Métodos para analizar datos puntuales 79

drado de muestreo, lo que condiciona la escala a la que se podrán detectar


patrones. A no ser que se quiera trabajar a una escala definida por las hi-
pótesis de estudio, el análisis del patrón deberá realizarse con sumarios
funcionales, que realizan estimaciones "a todas las escalas". El más popular
de todos ellos es la función K de Ripley (1976)

3.2.1. Métodos basados en el análisis de segundo orden

3.2.1.1. La función K de Ripley

Tal vez el estimador más sencillo de la propiedad de segundo orden de


un patrón homogéneo e isotrópico sea N(r), el número medio de puntos
vecinos dentro de un círculo de radio r alrededor de cualquier punto típi-
co del patrón. Para una determinada escala (es decir, para un determinado
radio r) N(r) estima de alguna manera la probabilidad de encontrar un
punto en las inmediaciones de otro.

Sin embargo, con el objetivo de poder comparar las propiedades de


segundo orden de patrones de diferente densidad, la herramienta más
utilizada es la función K, una estandarización de N(r). La función K se de-
fine como

K(r) = N(r) /λ (3.1)

siendo λ la intensidad del patrón (en la mayoría de los casos equivalente a


la densidad de puntos). Con frecuencia se define la función K diciendo
que el producto λ K(r) es el número medio de vecinos dentro de un circulo
de radio r alrededor de un individuo "típico" del patrón.

K(r) describe las características del proceso de puntos a muchas escalas


(tantas como diferentes r consideremos). La forma más sencilla de estimar
N(r) es a partir de la media de el número de vecinos de cada punto del patrón:
N
1
Nˆ ( r ) =
N
∑ ∑
i =1 j≠i
k ij (3.2)
80 MARCELINO DE LA CRUZ ROT

donde N es el número de puntos del patrón, y kij la función indicadora,


que toma el valor de 1 si la distancia entre los puntos i y j es menor que r y
0 en el caso contrario. La intensidad se estimaría como la densidad del pa-
trón ( λˆ = N / A , número total de puntos dividido por la superficie del área
de estudio) y la función K por lo tanto tomaría el valor Kˆ (r ) =Nˆ (r ) / λ̂ .

A) B)

0.5
1500

0.0
1000

L(r)
K(r)

-0.5
500

-1.0
0

0 5 10 15 20 25 0 5 10 15 20 25

r r

C) D)
50

6
0

4
πr ) − 1
-50
2
K(r) − πr

2
(K(r)
-100

2
-150

0 5 10 15 20 25 0 5 10 15 20 25

r
Figura 3.2. Diferentes estimadores de las propiedades de segundo orden. En línea continua va-
lor observado y en línea discontinua valor teórico a) Función K(r) del patrón aleatorio de la Fi-
gura 3.1. b) Función L(r) [=(K(r)/π)1/2-r] del mismo patrón. c) K(r)-πr2. d) [K(r)/πr2]-1. Las
desviaciones entre la función empírica y la teórica se distinguen mucho mejor con la función L,
especialmente a distancias r cortas.
Métodos para analizar datos puntuales 81

Para interpretar los resultados, la función K observada se compara con la


función K teórica de un proceso de puntos de referencia (Fig. 3.2a). Habitual-
mente dicho patrón de referencia es el de Poisson (o "aleatorio"). Es fácil com-
probar que el valor teórico de K(r) en un patrón aleatorio es siempre πr2 (y que
asimismo en el caso de patrones agregados este valor sería mayor y menor en
el caso de patrones uniformes). La comparación visual o numérica de la curva
de K(r) y la de πr2 es una buena forma de análisis exploratorio de los datos,
con valores de K(r) > πr2 indicando agregación y valores de K(r)< πr2 indi-
cando uniformidad o regularidad a la escala r considerada.

En la práctica, suele emplearse con mayor frecuencia la función L(r) =


(K(r)/π)1/2 que además de tener una varianza constante (Ripley 1979), per-
mite una interpretación más clara (Fig. 3.2b). En el caso de un patrón de
Poisson, L(r) = r y por lo tanto puede examinarse si L(r) – r = 0 a cada dis-
tancia r. Otros estimadores que suelen representarse o testarse de forma
alternativa incluyen K(r)-πr2 (con valor teórico de 0) y [K(r)/ πr2]-1 (con va-
lor esperado de 0 y desviaciones proporcionales al exceso o mengua de in-
dividuos, Schenk et al. 2003, Fig. 3.2c, d).

Asimismo, y dado que el límite del área de estudio suele ser arbitrario, es
necesario introducir un factor que corrija el "efecto borde" (Fig. 3.3). Los "efec-
tos borde" surgen porque los puntos que aparecen fuera de los límites del área
de estudio no son tenidos en cuenta para estimar K(r) aunque se encuentren a
una distancia menor de r de un punto situado dentro del área. Si no se tienen
en cuenta, los efectos borde producen estimaciones sesgadas de K(r), especial-
mente para valores grandes de r. Una revisión de los métodos de corrección
del efecto borde puede consultarse en Haase (1995) y Goreaud y Pelissier
(1999). De todas formas, dado que los mecanismos que corrigen el efecto bor-
de no son perfectos, se suele recomendar no calcular K(r) más allá de r < 1/3
de la longitud del lado más corto del área de estudio (Baddeley y Turner, 2005)
o hasta r < (A/2)1/2 en el caso de áreas no rectangulares, (Dixon 2002c). Otros
autores (Lancaster y Downes, 2004) han puesto de manifiesto la importancia
de comprobar si el efecto borde es necesario en el contexto del estudio ecoló-
gico que se realice (no tendría sentido corregirlo, por ejemplo, en el análisis de
poblaciones completas con límites naturales).

Getis y Franklin (1987) adaptaron el método del análisis de segundo


orden basado en la función K para producir un resultado espacialmente
explícito (Fig. 3.4). En principio, a cada punto del patrón, y para cada uno
82 MARCELINO DE LA CRUZ ROT

Figura 3.3. Algunos métodos de corrección del efecto borde. Izquierda: método de Ripley. A las
estimaciones de los puntos próximos al borde se les da un peso proporcional a la porción del cír-
culo que queda fuera del límite del área de estudio (para compensar por los puntos no registrados
y que podrían encontrarse en las inmediaciones). Centro: método del área tampón. La estima-
ción de la función K(r) sólo se hace a partir de los puntos incluidos dentro de un área de menor
tamaño que la original, de forma que los puntos que quedan en el área "tampón" externa se pue-
den contar (no hay efecto borde). El grosor del área tampón debe ser igual al valor máximo de r
para el que se va a estimar la función. Derecha: método de la traslación toroidal (sólo posible en
áreas de estudio rectangulares): el patrón se repite en todos los lados del área de estudio, asu-
miendo que es representativo de lo que no se ha registrado fuera.

Figura 3.4. Izquierda: "mapa de Getis" de los valores de L(r=10) en el patrón de puntos de la figura
3.1. En cualquier punto del mapa, la función L(r) (en este caso representada para r=10) alcanza el
valor señalado por el tono o las isolíneas. Los tonos más claros o los valores más altos representan zo-
nas donde localmente (a la escala representada) existe agrupamiento. La interpretación más intuitiva
del mapa sería la de la derecha, donde se representa el valor de λK(r). En este caso, en cada punto del
mapa, existen tantos vecinos como indiquen el tono o las isolíneas, dentro de un círculo de radio
r=10. Dado que la densidad de puntos es λ = 0.0115, el valor teórico de N(r) es λπr2 = 3.61. Valores
superiores indican zonas de agrupamiento y valores inferiores zonas de repulsión. Podría realizarse
un test poinwise para determinar, a esta escala concreta, qué valores son significativamente mayores
o menores que el valor teórico. Valores diferentes de r proporcionarían mapas diferentes.
Métodos para analizar datos puntuales 83

de una serie de radios r seleccionados (cada uno de los cuales originará un


mapa) se le asigna el valor resultante de contar el número de vecinos den-
tro de un circulo de radio r dividido por la densidad del patrón. A partir de
esos valores se realizan mapas de isolíneas para facilitar la interpretación.
Para cubrir las regiones con pocos datos Getis y Franklin (1987) sugieren
calcular los valores en un conjunto adicional de puntos situados aleatoria-
mente o de forma regular (pero sin incluirlos en los recuentos).

3.2.1.2. La función de correlación de par y otras relacionadas

La función K es en cierta forma una función de distribución acumula-


da, al igual que las basadas en la distribución de distancias al vecino más
próximo, ya que, a cada escala o distancia r, todos los pares de puntos se-
parados por una distancia menor que r se usan para estimar el valor de la
correspondiente función. En ocasiones puede ser necesario disponer de
una función que caracterice de forma no acumulativa el patrón, es decir
que tenga en cuenta tan sólo los pares de puntos que se encuentran sepa-
rados por una distancia exactamente igual o similar a la distancia r. La fun-
ción de correlación de par g(r) (pair correlation function; Stoyan y Stoyan
1994) es la herramienta apropiada en este caso. La función de correlación
de par está relacionada con la función K:

g(r) = K'(r) / 2πr, (3.3)

siendo K'(r) la derivada de K(r). En un patrón de Poisson, g(r) ≡ 1 para to-


das las distancias r; en cualquier patrón empírico, valores de g(r) > 1 indi-
can que las distancias alrededor de r son relativamente más frecuentes de
lo que serían en un patrón aleatorio (por ejemplo, si se tratase de valores
pequeños de r indicaría agrupamiento) mientras que valores de g(r) < 1
indican que las correspondientes distancias son menos frecuentes de lo
esperado, lo que podría indicar algún tipo de inhibición (Stoyan y Pentti-
nen, 2000) (Fig. 3.5). Una versión re-escalada de la función de correlación
de par es la O-ring (Galiano, 1982, Wiegand y Moloney 2004). Esta función
se define como O(r) = λg(r). El término ring hace referencia a que, a dife-
rencia de los círculos de radio r alrededor de cada punto que se emplean
para calcular la función K empírica, aquí se emplean "anillos" (coronas cir-
culares) de radio similar a r y grosor variable.
84 MARCELINO DE LA CRUZ ROT

3.0

0.015
2.5
2.0

0.010
O(r)
g(r)

1.5

0.005
1.0
0.5

0.000
0.0

0 20 40 60 0 20 40 60

r (cm) r (cm)

Figura 3.5. Izquierda. Función de correlación de par del patrón de puntos de la comunidad
gipsófila de la Figura 3.6. Derecha. Función O-ring del mismo patrón. El valor teórico de la
función de correlación de par en un patrón CSR es 1. Valores de g(r) >1 indican que las distan-
cias entre puntos de valor alrededor de r son más frecuentes de lo que serían en un proceso CSR.
En este caso, al tratarse de valores de r pequeños (< 20 cm), la gráfica indica existencia de
agrupamiento. Cuando la función de correlación de par tiene sólo un pico, el tamaño medio de
los agregados puede estimarse a partir de la escala para la que el valor de g(r) cae hasta 1 (en este
caso, alrededor de 20 cm, lo que coincide con la estimación a partir de L(r) en la Figura 3.6). La
función O-ring es una versión reescalada de la función de correlación de par [O(r) = λ g(r)],
por lo que la única diferencia entre la representación gráfica de ambas es la numeración de la es-
cala. El valor teórico de O(r) es la intensidad del proceso, en este caso 0.052; la interpretación de
la forma de la función puede hacerse de forma análoga a la de g(r).

3.2.2. Test de hipótesis sencillos con la función K


Una de los principales usos que se le ha dado a la función K en el con-
texto ecológico es responder a la pregunta típica "¿cual es la distribución
de los individuos: regular, aleatoria, agrupada? La respuesta consiste en
realizar un test de aleatoriedad espacial completa (o "CSR", de Complete
Spatial Randomness), o lo que es lo mismo, aleatoriedad en todas las escalas.
En realidad la prueba testa la hipótesis nula de que el patrón observado
puede considerarse como una realización de un proceso de Poisson ho-
mogéneo. Si la hipótesis nula es rechazada, la desviación positiva o negati-
va de la función indicará la naturaleza agregada o unifrome del patrón.
El test se basa en calcular la función K (o la función L, o cualquiera de
los otros estimadores) sobre el patrón de puntos observado y compararlo
con el de la correspondiente función teórica de un patrón de Poisson de la
misma intensidad (que para la función K, como se ha comentado anterior-
Métodos para analizar datos puntuales 85

mente, tendría el valor πr2). Los valores críticos del test se calculan habi-
tualmente empleando el método de Monte Carlo.
Si se trata de un test de tipo local o pointwise, es decir, para una distancia
r concreta, se simula un número elevado s de patrones de Poisson con la
misma intensidad (es decir, con la misma densidad) y en un área del mismo
tamaño y forma que la del patrón observado. Los valores de la función de
cada uno de ellos se ordenan y bien se representan en forma de "envuelta"
para cada valor de r los valores máximo y mínimo alcanzados o bien se cal-
culan y representan gráficamente los percentiles apropiados, por ejemplo el
2.5% y el 97.5%, para formar una envuelta que representa un intervalo de
confianza local del 95 % (Fig. 3.6, Fig. 3.7, Dixon 2002b, Moller y Waagepeter-
sen 2007). Para una distancia r concreta, valores de la función observada
fuera de los límites de la envuelta rechazarían la hipótesis nula, con el nivel
de significación establecido. Cuanto mayor sea el número de simulaciones,
mayor será la precisión del intervalo de confianza. Martens et al. (1997) con-
sideran que el test tiene escasa validez cuando el producto α · s < 5.
300
250

2
15000
200

1
10000

L(r)
y (cm)

150

K(r)

0
100

5000

-1
50

0
0

0 20 40 60
0 50 100 150 200 250 300 0 20 40 60
r (cm)
x (cm)
Figura 3.6. Izquierda. Patrón espacial de puntos de una comunidad gipsófila del centro de la Penínsu-
( )

la Ibérica (Escudero et al. 2005). Cada punto representa una planta adulta. Centro. Función K(r) del
patrón observado (línea continua) y envueltas con los máximos y mínimos valores obtenidos en 99 si-
mulaciones de patrones CSR de la misma intensidad (líneas discontinuas). Derecha. Función L(r) [=
(K(r)/π)1/2-r] del mismo patrón. La linea continua en L(r) = 0 representa el valor teórico. Las líneas
discontinuas punteadas representan las mismas envueltas que en la figura central (pointwise test). Las
líneas discontinuas rayadas representan las envueltas de un test global, es decir el valor teórico 0 ±
dcrit, siendo dcrit la discrepancia máxima obtenida a partir de la simulación de 99 patrones CSR de la
misma intensidad y el cálculo para cada uno de ellos de d i = sup r Lˆi (r ) − L (r ) . Lˆi (r ) es la función L
de cada patrón simulado y L (r ) el valor teórico. A pesar de que los límites de confianza del test global
son mucho más amplios que los del test local, la hipótesis nula de CSR queda rechazada con un nivel de
significación α = 1/(1+99) = 0.01. Como las desviaciones de la función L ocurren por encima de la
envuelta superior, podemos concluir que el patrón es agregado. Por otro lado, la distancia r en la que
aparece el valor máximo de la función L indica el tamaño del agregado o mancha típica (en este caso, al-
rededor de 20 cm).
86 MARCELINO DE LA CRUZ ROT

Otro test local puede construirse analizando la distribución de un es-


tadístico como el valor absoluto de la diferencia entre el valor observado y
el teórico de la función (Barot et al. 1999), por ejemplo Kˆ ( r ) − π r , Lˆ (r ) ,
2

etc. Se calcula dicha diferencia tanto para el patrón observado como para
cada uno de los simulados. La significación del test (p-valor) lo da la pro-
porción de diferencias simuladas mayores o iguales que la diferencia abso-
luta del patrón observado.

Es importante volver a señalar que los test pointwise sólo tienen senti-
do si se realizan para una distancia r concreta establecida de antemano. El
examen "global" de la relación entre el estimador elegido de la función K y
sus envueltas pointwise sólo tiene valor como análisis exploratorio, pero no
tiene validez estadística formal, ya que infraestima el error tipo I. Goreaud
y Pelissier (2000: 12) han calculado a partir de simulaciones que, para un
patrón de Poisson, un intervalo de confianza local con un nivel de signifi-
cación α = 1% tiene un error global del 8.8 %, mientras que para los α loca-
les del 5% y 10 % el error global es del 36% y 56% respectivamente.

Cuando se quiere testar de forma global el patrón, lo correcto es combi-


nar la información de un rango de distancias r determinado en un único
estadístico basado en la máxima discrepancia o la suma de discrepancias
entre la función observada y la teórica, de forma semejante a los de Barot
et al. (1999) mencionados anteriormente. Diggle (2003:14) y Loosmore y
Ford (2006) sugieren emplear el estadístico tipo Cramer-Von Mises
ui =∫ {Hˆ i (r ) − H (r )}2 dr ; Baddeley y Turner (2005) proponen e implemen-
tan en spatstat (véase apartado 3.6) el estadístico tipo Kolmogorov-Smir-
nov d i = sup r Hˆ i (r ) − H (r ) , siendo en ambos casos Hˆ i (r ) y H (r ) el esti-
mador observado y teórico, respectivamente. Dixon (2002c) menciona
otros como Lˆ = sup Lˆ (r ) o Lˆ s = ∑ Lˆ (r ) .
m r r

En cualquier caso, la distribución muestral del estadístico se aproxima


mediante simulaciones Monte Carlo, calculando s estadísticos uno para cada
uno de los s patrones simulados. Se elige como "valor crítico" o "discrepancia
crítica" el valor más alto o el que tiene el rango m en la distribución y las en-
vueltas superior e inferior se construyen respectivamente sumando y sustra-
yendo la discrepancia crítica al valor teórico (Fig. 3.6). Este tipo de envueltas se
suelen denominar simultáneas y tienen una anchura constante igual al doble
del valor de la discrepancia crítica. El test rechaza la hipótesis nula si la fun-
ción observada aparece por fuera de las envueltas en cualquier valor de r. El
Métodos para analizar datos puntuales 87

test global tiene un nivel de significación exacto α = m/(1+s) (Baddeley y Tur-


ner 2005). En algunos casos no es necesario realizar la simulación Monte Car-
lo, ya que se conoce de forma aproximada cuáles son los límites críticos de la
distribución del estadístico (Fig. 3.7). Por ejemplo, Ripley (1979) calculó que
para L̂m , en áreas de estudio rectangulares, los valores críticos aproximados
del 5% y del 1 % son ± 1.42 A / N y ± 1.68 A / N , respectivamente, siendo
A la superficie del área de estudio y N el número de puntos. Este resultado,
por otra parte, arroja luz sobre los factores que influyen en la potencia del test:
la "angostura" de las envueltas, y por lo tanto su poder para discriminar hipó-
tesis, aumenta con N y disminuye con A.

3
2

2
1

1
0
L(r)

L(r)

L(r)
0

-1
-1

-2
0

-3
-2

0 5 10 15 20 25 0 5 10 15 20 0 5 10 15 20 25

r r r

Figura 3.7. Función L(r) [= (K(r)/π )1/2 –r ] de los patrones aleatorio (izquierda), agrupado (centro)
y uniforme (derecha) de la figura 3.1. La curva negra continua representa la función L(r) empírica.
La línea continua en L(r)=0 representa el valor teórico de la hipótesis CSR. Las líneas discontinuas
punteadas representan los máximos de la función L en 99 simulaciones de patrones CSR (pointwise
test). Las líneas discontinuas rayadas representan los valores críticos (1%) de un test global según la
aproximación de Ripley (1979): ± 1.68 A / N , siendo A la superficie del área de estudio y N el nú-
mero de puntos de cada patrón. En la gráfica de la izquierda la función L(r) empírica queda dentro de
la banda definida por el intervalo de confianza, por lo que no se puede rechazar la hipótesis de CSR
(es decir el patrón de puntos sería una realización de un proceso de Poisson). En la gráfica del centro,
la L(r) empírica tiene valores mayores que los del límite superior del intervalo de confianza a partir
de r = 2 metros, por lo que se puede rechazar la hipótesis de CSR con un riesgo α = 1 % a favor del
agrupamiento a escalas mayores de 2 metros. El valor máximo de L(r) aparece con r = 6-7 m, lo que
indicaría que es ese el tamaño más frecuente de los agregados. En la gráfica de la derecha, la L(r) em-
pírica tiene valores menores que el límite inferior del intervalo de confianza entre 5 y 8 metros, lo que
indicaría una fuerte inhibición entre los puntos a esa escala y permitiría rechazar también, con el
mismo α la hipótesis de CSR.

A pesar de lo comentado anteriormente, el test pointwise es el más fre-


cuentemente empleado en los estudios ecológicos. Un uso correcto del
mismo consistiría en seleccionar una o varias distancias r de interés tras un
primer análisis exploratorio y realizar el test pointwise para esas distancias
88 MARCELINO DE LA CRUZ ROT

sobre un conjunto diferente de datos. Otra posibilidad sería emplear en el


análisis exploratorio alguna herramienta no basada en las propiedades de
segundo orden (como la función G, F o J) y testar las desviaciones para las
distancias r sugeridas con un test pointwise basado en la función K.

3.2.3. Métodos basados en la distancia al vecino más cercano y


otras relacionadas

Otra de las características de un patrón de puntos que se emplean para


describir su estructura es el conjunto de distancias de cada punto a su vecino
más cercano. Como se conoce matemáticamente cuál sería la distribución
acumulada de distancias que presentaría un patrón de Poisson homogéneo,
se han desarrollado varios test que se basan en comparar dicha distribución
con la del patrón objeto de estudio. Una aproximación de la función de distri-
bución acumulada de distancias al vecino más cercano es (Diggle 2003: 16):

2
G ( y ) = 1 − e − λ ·π · y (3.4)

siendo y la distancia desde un punto cualquiera del patrón hasta el punto


más cercano y λ la intensidad (número esperado de puntos por unidad de
área). La media y la varianza de y son (Upton y Fingleton 1985: 74):

1
E ( y) = (3.5)
2· λ
4 −π
Var ( y ) = (3.6)
4·π ·λ

3.2.3.1. Test basados en la distancia media

Clark y Evans (1954) introdujeron un índice de "no aleatoriedad"


R = y / E ( y ) , que tendría valores próximos a 1 en el caso de patrones aleato-
rios, mayores en patrones regulares y menores en patrones agregados. Ade-
más, establecieron uno de los primeros test de CSR basados en la distribución
de distancias al vecino más próximo al proponer que la media estandarizada

y − E ( y)
Z CE = (3.7)
Var ( y )
Métodos para analizar datos puntuales 89

tendría una distribución normal si el patrón era CSR y si no existiese el


efecto borde. Clark y Evans propusieron emplear un área tampón para
evitar los problemas del efecto borde. Donnelly (1978), propuso una de las
aproximaciones más empleadas, consistente en calcular la media y varian-
za esperadas como:

E(y)= 0.5 (A/N)1/2+0.0154 P/N + 0.041 P/N3/2 (3.8)

Var(y) =0.0703 A/N2 + 0.037 P (A/N5)1/2 (3.9)

3.2.3.2. Tests basados en la distribución de distancias vecino más próximo

En vez de usar sólo la media de las distancias, puede emplearse la distri-


bución completa de distancias al vecino más próximo para testar CSR. En este
caso lo que se compara es la distribución observada G(+ y) con la distribución
teórica G(y). Valores de G(+ y) mayores que el valor teórico G(y) indican agrupa-
miento (un exceso de distancias al vecino más próximo de valor y) mientras
que valores de G(+ y) menores que el teórico indican regularidad.

En un primer análisis, la comparación entre ambas funciones debería


realizarse de forma gráfica, bien enfrentando en el mismo gráfico la distri-
bución teórica (en abscisas) a la distribución observada (en ordenadas; Fig.
3.8b), o bien representando conjuntamente ambas distribuciones de fre-
cuencias acumuladas (Fig. 3.8a), con sus valores absolutos o centradas al-
rededor del valor teórico (es decir, sustrayendo el valor de la distribución
teórica) para favorecer la claridad (Fig. 3.8c, d).

Al igual que con la función K y sus derivados, los test de la función G pue-
den realizarse de forma local (pointwise) o global (simultánea). El procedi-
miento es semejante. Para los test simultáneos, Dixon (2002c) cita tres tipos de
estadísticos que se pueden calcular a partir de la distribución observada y teó-
rica, como el estadístico tipo Kolmogorov-Smirnov: sup y Gˆ ( y ) − G ( y ) , el es-

tadístico tipo Cramer-von Mises: ∫{Gˆ ( y) − G ( y)} dy , y el estadístico tipo An-


2

derson-Darling:
∫{Gˆ ( y) − G ( y)} / G ( y)[1 − G ( y)] dy . La significación de
2

estos estadísticos se testa con simulaciones Monte Carlo de forma análoga a la


de los test simultáneos de la función K.
90 MARCELINO DE LA CRUZ ROT

1.0 1.0

a b
0.8 0.8

G(y) observada
0.6 0.6
G(y)

0.4 0.4

0.2 0.2

0.0 0.0

0 5 10 15 20 0.0 0.2 0.4 0.6 0.8 1.0

distancia al vecino más cercano (y) G(y) teórica

0.5

0.2
0.4
c d
0.1
0.3

0.0
0.2
^ (y) − G( y)
^ (y) − G( y)

0.1 -0.1
G
G

0.0 -0.2

-0.1
-0.3

-0.2
-0.4

0 5 10 15 0 5 10 15

distancia al vecino más cercano (y) distancia al vecino más cercano (y)

Figura 3.8. Diferentes representaciones de la función G. a): Comparación de la función G(y) del patrón alea-
torio de la figura 3.1 (línea continua) con la función G(y) de un patrón CSR de la misma intensidad (línea
punteada). Las dos funciones son bastante semejantes. Nótese que, a diferencia de la función K, el rango de
valores de para los que se puede representar G(y) viene dado por la mínima y máxima distancia entre vecinos
próximos(en este caso alrededor de 15). b). G(y) teórica frente a G(y) observada para el patrón de la figura
3.1b (línea continua) y el patrón 3.1c (línea punteada). La diagonal discontinua sirve como referencia de la
representación que tendría un patrón CSR. La línea continua es prácticamente siempre mayor que la diago-
nal, indicando que cualquier distancia y entre vecinos más próximos está más representada de lo que estaría
en un patrón CSR, o lo que es lo mismo, que el patrón es agregado. En el caso de la línea punteada, el resulta-
do es el contrario, lo que sugiere la existencia de regularidad. c). Diferencia entre la función G(y) observada y
teórica del patrón de la figura 3.1b (línea continua) con las envueltas simultaneas de un test global
(sup y Gˆ ( y ) − G ( y ) , líneas discontinuas) obtenido a partir de 99 simulaciones de patrones CSR. En este
tipo de tests, si la distribución observada queda dentro de la envuelta no existe evidencia en contra de la hipó-
tesis nula (es decir, el patrón observado es una realización del tipo de proceso simulado, CSR). Si la curva ob-
servada sale por debajo de de la envuelta a distancias "cortas" quiere decir que existen menos vecinos a distan-
cias cortas de lo que sería "normal", evidenciando la existencia de un patrón regular o de un proceso de
inhibición a distancias cortas. Por el contrario, si la distribución observada supera la envuelta superior a dis-
tancias cortas significa que existen más distancias cortas de lo que sería normal, lo que es compatible con un
proceso de agrupamiento. Evidentemente, la hipótesis de CSR es rechazada con un nivel de significación α
= 0.01. Como la función observada es mayor que la teórica, se confirma que el patrón es agregado. d). Dife-
rencia entre la función G(y) observada y teórica del patrón de la figura 3.1c con las envueltas resultantes de
un test pointwise. En este caso, las distancias entre vecinos de 3 a 8 son mucho menos frecuentes de lo nor-
mal, poniendo de manifiesto inhibición a estas distancias.
Métodos para analizar datos puntuales 91

Los test locales (pointwise) de G(y) también se realizan de forma análo-


ga a los de la función K. Los valores máximo y mínimo (o determinados
percentiles) de la distribución de valores de G(y) computados a partir de
un número elevado de patrones CSR simulados se representan gráfica-
mente en forma de "envueltas" y permiten testar si una determinada dis-
tancia entre vecinos y aparece con mayor o menor frecuencia de lo que se
esperaría por azar. Diggle (1979a) investigó el comportamiento de los esta-
dísticos basados en la función G y concluyó que es especialmente buena
para detectar desviaciones de CSR hacia la regularidad.

3.2.3.3. Test basados en la distribución de espacio vacío o de distancias


punto-evento
Un análisis relacionado con el anterior emplea la distribución de dis-
tancias x desde cada uno de un conjunto de m puntos adicionales hasta el
más próximo de los n puntos del patrón observado. Para un patrón CSR,

2
F ( x ) = 1 − e − λ ·π · x (3.10)

siendo λ la intensidad del patrón (Diggle 2003). Para la estimación de las


distancias suele emplearse una rejilla regular con un número m de puntos
similar al n del patrón observado.

El uso de la función F(x) es análogo al de la función G(y), empleándose


estadísticos del mismo tipo (por ejemplo ∫ [ Fˆ ( x) − F ( x)]2 y simulaciones
x
Monte Carlo) y herramientas de diagnóstico gráfico de la misma forma. La
interpretación de las desviaciones de la distribución observada, sin em-
bargo, son opuestas: valores mayores que los de la distribución teórica o
esperada indican regularidad; valores menores indican agrupamiento. De
la misma forma, la función F es más potente para detectar desviaciones de
CSR hacia el agrupamiento (Diggle 1979b).

3.2.3.4. Otros test basados en distribuciones de distancias: La función J

Dado que las funciones F y G tienen exactamente la misma distribu-


ción para un patrón CSR y que las desviaciones de CSR inducen desvia-
ciones opuestas en ambas funciones, se ha propuesto combinar ambas
92 MARCELINO DE LA CRUZ ROT

tanto para construir estadísticos que testen CSR como para diagnosticar
gráficamente el ajuste del patrón observado a un proceso CSR. Diggle
(2003:28) propone emplear la suma de las diferencias cuadradas entre am-


bas: u1 = [ Fˆ ( x) − Gˆ ( x)]2 , y obtener la distribución muestral del estadísti-
x
co mediante simulación Monte Carlo, análogamente a los test comentados
anteriormente. Fortin y Dale (2005: 37) recomiendan emplear la suma de
las diferencias absolutas entre ambas funciones, S a = ∑ Fˆ ( x) − Gˆ ( x) , y
x
además la representación gráfica frente a la distancia x de la diferencia en-
tre ambas funciones, Fˆ ( x) − Gˆ ( x) . Van Lieshout y Baddeley (1996) combi-
naron las funciones F y G para construir la función J:
1 − G ( x)
J ( x) = (3.11)
1 − F ( x)
Para un patrón CSR, J(x) =1; desviaciones de J(x) < 1 y J(x) >1 indican
respectivamente agrupamiento o regularidad. Una de las ventajas de la fun-
ción J es que puede calcularse sin necesidad de corregir el efecto borde
(Baddeley et al. 2000). Fortin y Dale (2005: 48) denominan a esta función H(t).

3.2.4. Métodos basados en recuentos


Una de las alternativas a la cartografía intensiva de un territorio es el
recuento del número de eventos en un número elevado de cuadrados dis-
persos a lo largo de toda su extensión. El análisis de este tipo de datos se
basa en su ajuste a una distribución estadística. La más sencilla y más fre-
cuentemente empleada es la distribución de Poisson, ya que permite reali-
zar un test de CSR. Si los individuos se distribuyesen de forma completa-
mente aleatoria en el espacio (en los cuadrados), la distribución de
frecuencias de los recuentos seguiría una distribución de Poisson con me-
dia igual a la media del número de individuos por cuadrado.
Existen dos métodos principales para testar la bondad de ajuste a una
distribución de Poisson (Krebs 1989):

3.2.4.1. Test del índice de dispersión


Fisher et al. (1922) emplearon por primera vez el índice de dispersión I,
definido como
Métodos para analizar datos puntuales 93

var ianza observada s 2


I= = (3.12)
media observada x

Este índice se puede interpretar como un ratio de varianzas ya que el


numerador representa la varianza de los datos sin asumir ninguna distri-
bución mientras que el denominador es la varianza de los datos asumien-
do que siguen una distribución de Poisson (Diggle 2003). En la distribu-
ción de Poisson, la varianza es igual a la media, por lo que el valor
esperado en condiciones de CSR será siempre 1. El estadístico más simple
para testar el índice de dispersión es

χ2 = I(n-1) (3.13)

que, si la media es mayor que 1 y si n (el número de cuadrados) es ma-


yor que 6, se comporta como un chi cuadrado con n-1 grados de liber-
tad. El test es de dos vías ya que existen dos posibles desviaciones: si los
organismos presentan una distribución uniforme, la varianza será mu-
cho menor que la media y por lo tanto I tenderá hacia 0; si los organis-
mos se encuentran agregados, por el contrario, el índice será muy su-
perior a 1.0. La hipótesis nula (el patrón presenta CSR) se acepta si
χ .2975, n −1 < χ observado
2
< χ .2025, n −1

Valores superiores o inferiores a los valores críticos de la distribución


se aceptan como indicadores de agrupamiento o regularidad, respectiva-
mente. Diggle (2003) afirma que el índice de dispersión no tiene serios ri-
vales (mencionando los índices de Morisita 1959 y Lloyd 1967) como test
estadístico para datos procedentes de recuentos en cuadrados.

3.2.4.2. Test de bondad de ajuste chi-cuadrado

Como forma alternativa de testar CSR con recuentos en cuadrados se


ha propuesto también calcular el estadístico de Pearson (Diggle 2003: 24):

( xi − x ) 2
n
χ =∑
2
(3.14)
i =1 x
94 MARCELINO DE LA CRUZ ROT

(siendo n el número de cuadrados y xi el recuento en cada cuadrado) y com-


pararlo con el valor de la distribución chi cuadrado con n-1 grados de liber-
tad. Valores significativamente más grandes o más pequeños que el espera-
do indicarán agrupamiento o regularidad, respectivamente. El valor de este
estadístico coincide con n-1 veces el valor del índice de dispersión.

3.3. ANÁLISIS DE PATRONES DE PUNTOS MARCADOS

Con frecuencia los elementos representados por el patrón de puntos


no son idénticos sino que representan diferentes clases tales como espe-
cies, sexos, clases de edad, etc. En la terminología del análisis de patrones
de puntos, a esta información adicional asociada a las coordenadas se la
denomina "marca" y al patrón que la posee "marcado". Las marcas pueden
ser de tipo discreto, como las mencionadas anteriormente o continuas (la
más común el tamaño, dbh, etc., pero también el crecimiento, los residuos
de una regresión en la que cada punto era un caso, etc, Fig. 3.9). Cuando
los patrones de puntos son marcados, el análisis puede extenderse más
allá de la caracterización del patrón global o de los patrones de cada tipo
de marca para intentar responder a la pregunta de si existe dependencia
entre los diferentes tipos (marcas) del patrón.

3.3.1. Patrones con marcas continuas

3.3.1.1. Funciones de correlación de marca

Cuando las marcas representan alguna variable continua (por ejemplo,


los diámetros a la altura del pecho dbh o las áreas basales en una formación
forestal) se emplean funciones que estimen la correlación entre marcas. Si
m(0) es el valor de la marca en un punto "origen" y m(r) el valor de la marca
en cualquier punto situado a la distancia r, su relación se cuantifica por
f(m(0), m(r)), donde f es una función "apropiada" para testar dicha relación.
Dos de las más importantes funciones son (Stoyan y Pentinen 2000):

f1(m1, m2) = m1m2 (3.15)

f2(m1,m2) = ½ (m1 - m2)2 (3.16)


Métodos para analizar datos puntuales 95

HSC1 HSC2
650

650
600

600
550

550
500

500
450

450
400

400
300 350 400 450 500 550 600 300 350 400 450 500 550 600

DBH

gremios
50

FX
NS
40

NX
OT
30

TD
20
10
0

0 50 100 150 200


Figura 3.9. Ejemplos de patrones marcados. HSC1: mapa de una cohorte de plántulas de H.
squamatum. El tamaño de los círculos es proporcional a la altura (en cm) de los individuos.
HSC2: mapa de otra cohorte (posterior) de la misma población de plántulas. DBH: patrón con
marcas continuas de una parcela experimental de la Estación Biológica Chamusquín (U.T.P.L,
Zamora Chinchipe, Ecuador). El diámetro de cada círculo es proporcional al dbh de cada árbol.
gremios: patrón multivariado. Cada punto representa un árbol y cada símbolo un gremio fo-
restal diferente. Debajo: patrón multivariado de una parcela en Savannah River Site, South
Carolina, USA (Good y Whiple 1982). FX: Fraxinus caroliniana; NX: Nyssa aquatica; NS
= Nyssa sylvatica, TD: Taxodium distichum; OT: otras especies.
96 MARCELINO DE LA CRUZ ROT

La función de correlación de marca (mark correlation function, Stoyan y


Stoyan 1994) kmm(r) se obtiene dividiendo el valor medio de f1(m1,m2) en-
tre el valor medio de la marca (μ2) para normalizarlo. En el caso de marcas
independientes, kmm(r) = 1 para todas las distancias r; valores kmm(r) < 1
indican que la "correlación" es menor que la media a esas distancias y valo-
res > 1 lo contrario (Fig. 3.10). Por ejemplo, en el caso de que la marca sea
el dbh (“diameter at breast height”, diámetro a la altura del pecho), lo normal
es encontrar valores de kmm(r) < 1 para r pequeñas y valores oscilando al-
rededor de 1 para r grandes (Stoyan y Penttinen 2000).

1.2
1.02

HSC1
HSC2
H0:
1.1
1.00
0.98

1.0
kmm( r)

0.96

Kmm(r)

0.9
0.94

0.8
0.92

0.7
0.90

0.6

0 5 10 15 20 25 0 20 40 60 80 100

r (m) r (cm)

Figura 3.10. Izquierda: Función de correlación de marca para el diámetro a la altura del pecho
(dbh) en la parcela experimental de Chamusquín. El valor teórico esperado en el caso de inde-
pendencia entre las marcas es kmm(r) = 1. Como suele ser habitual para esta variable en am-
bientes forestales, kmm(r) < 1 para r pequeñas, indicando la existencia de repulsión entre indi-
viduos de parecido diámetro a distancias cortas. Derecha: Función K ponderada por marca
(Kmm), normalizada, del tamaño de los individuos de las dos cohortes de H. squamatum. Si las
marcas se distribuyesen independientemente, Kmm(r) sería igual a K(r), la función K del pa-
trón sin marcar, y por lo tanto, la función normalizada [=Kmm(r)/K(r)] sería igual a 1 para to-
das las distancias r. Aunque no se han construido envueltas mediante permutaciones de las
marcas para testar la significación estadística de las diferencias respecto a la hipótesis nula de
independencia entre las marcas (H0), resulta evidente en la gráfica que existen diferencias en la
distribución de las marcas en las dos cohortes. En la primera cohorte (HSC1), hasta distancias
de 40 cm, Kmm(r) es siempre mayor que K(r) (lo que quiere decir que las plántulas grandes tien-
den a aparecer juntas). En la segunda cohorte (HSC2) ocurre justo lo contrario (lo que indica
que el tamaño de los individuos cercanos tiende a ser diferente y, en conjunto, inferior al tama-
ño medio de la cohorte). Este resultado sugiere que la génesis de las jerarquías de tamaños de las
dos cohortes está mediada por mecanismos ecológicos diferentes.
Métodos para analizar datos puntuales 97

La función de variograma de marca (mark variogram, Cressie 1993) γ(r)


se obtiene del valor medio de f2(m1,m2) para cada distancia r. Su nombre se
debe al paralelismo formal con los variogramas geoestadísticos y describe
las diferencias de las marcas de los puntos separados por una distancia r.
En el caso de comunidades de plantas, para valores pequeños de r da in-
formación sobre las interacciones entre los individuos, mientras que para r
mayores da información sobre la influencia de factores ambientales como
el suelo, la humedad o la altitud (Stoyan y Penttinen 2000).

Tanto la función de correlación de marca como la de variograma de


marca son funciones de densidad locales, no acumulativas, igual que la fun-
ción de correlación de par o la O-ring. Una comparación aplicada entre la
función de correlación de par y la función K-bivariada sobre los mismos pa-
trones puede verse por ejemplo en Pelissier (1998) o en Schurr y al. (2004).

3.3.1.2. Función K ponderada por marca

Penttinen (2006) define la función K ponderada por marca (mark-weig-


hted K-function) como

⎛ ⎞
K mm ( r ) = Ε 0 ⎜⎜ ∑ m( x0 ) m( xn )1(0 <|| xn − x0 ||≤ r ) ⎟⎟ /(λμ m2 ), r > 0 (3.17)
⎝ [ xn , m ( xn ) ]∈N m ⎠

donde Nm es el patrón marcado, xn y m(xn) son un punto cualquiera y su


marca, λ es la intensidad del patrón y μm el valor medio de las marcas del
patrón.

Se trata de una función sumario semejante a la función K de Ripley


que "mide" el patrón conjunto de puntos y marcas a las diferentes escalas
determinadas por r. Si todas las marcas se codifican como 1, Kmm se con-
vierte en la función K típica (para patrones sin marcas). Si el patrón está
marcado independientemente, K mm (r ) ≡ K (r ) (Fig. 3.10). Puede también
separarse el agrupamiento de las marcas con una función K ponderada
normalizada:

K mm ( r )
K mm ( r ) = (3.18)
K (r )
98 MARCELINO DE LA CRUZ ROT

Una función relacionada es la denominada Km (Madelaine et al. 2007,


también llamada Kcor en Oddou-Muratorio et al. 2004):

1 1
K m (r ) =
var(m) N r
∑∑ (m − μ
i j
i m )( m j − μ m ) (3.19)

donde m es el valor de la marca de los Nr individuos dentro de un círculo


de radio r. La interpretación de Km(r) es muy similar a las funciones de co-
rrelación: tiene una esperanza teórica de 0 para todas las r bajo la hipótesis
nula de ausencia de correlación espacial entre los valores de la marca. Va-
lores de Km(r) entre 1 y 0 indican correlación positiva entre las marcas a la
distancia r. Valores entre -1 y 0 indican correlación negativa.

Tanto en el caso de Kmm(r) como de Km(r), la significación de los resultados


se determina mediante test de Monte Carlo, construyendo envueltas a partir
de los valores máximos y mínimos obtenidos de las funciones recalculadas
tras permutar muchas veces las marcas entre los puntos del patrón.

3.3.1.3. Métodos geoestadísticos

Dado que los datos que definen un patrón de puntos con marcas con-
tinuas son muy semejantes a los que se emplean en la geoestadística (es
decir, se parecen mucho a los valores de una variable continua regionali-
zada estimados en un conjunto de puntos de muestreo), puede plantearse
la conveniencia de emplear herramientas geoestadísticas, como el semiva-
riograma u otras, para analizar la estructura espacial de la variable consi-
derada. De modo general puede rechazarse dicha opción (Penttinen 2006,
Schlather et al 2004) ya que las herramientas geoestadísticas asumen que
existe independencia entre la localización de los puntos de muestreo y el
valor de las marcas, mientras que lo más común en los estudios ecológicos
será que el valor de la marca en un punto (por ejemplo, el diámetro de un
árbol) dependa de la existencia de otros puntos en las inmediaciones (por
ejemplo, de otros árboles que compitan por los recursos y, por lo tanto,
afecten al crecimiento). Tan sólo en los casos en los que pueda demostrarse
la independencia entre la posición de los puntos y el valor de las marcas
(los denominados patrones marcados geoestadísticamente), sería pertinente
emplear métodos geoestadísticos.
Métodos para analizar datos puntuales 99

Schlater et al. (2004) han elaborado un test para determinar si se trata


de patrones marcados geoestadísticamente, basado en E(r) y V(r), la espe-
ranza condicional y la varianza condicional del valor de la marca en un
punto dado que existe otro punto a una distancia r. Si el patrón de puntos
y el proceso que genera las marcas son independientes, tanto E(r) como
V(r) serán constantes para cualquier valor de r, y su valor igualará al de la
media y la varianza de una marca típica del patrón. Las diferencias de E y
V respecto a los valores constantes esperados se testan con test Monte Car-
lo. El método requiere, por otro lado, que los valores de las marcas sigan
una distribución normal, o que sean transformados para tener una distri-
bución normal, ya que se basan en un modelo geoestadístico gausiano.
Guan (2006) y Guan y Afshartous (2007) proporcionan otras herramientas
para testar la hipótesis de independencia, que no requieren transforma-
ción de las marcas.

Si bien las marcas del patrón pueden no corresponderse con un cam-


po aleatorio (random field), es posible generar campos aleatorios continuos
a partir de determinadas transformaciones del patrón marcado. Penttinen
(2006), sugiere el empleo de la medida de suma de marca (mark-sum measure)
para generar campos aleatorios ("marked point process generated random
fields) que pueden ser empleados tanto como herramienta de visualiza-
ción en la fase de análisis exploratorio de los datos como para estudiar las
propiedades a gran escala del patrón o su relación con otras covariables
espaciales. Además existen métodos geoestadísticos para estudiar este
tipo de campos aleatorios.

La medida de suma de marca SR(x) (Fig. 3.11) se define como la suma de


las marcas de todos los puntos del patrón que aparecen dentro de un cír-
culo de radio R con centro en una localización fija x (no necesariamente un
punto del patrón). Su valor esperado es

E[SR(x)] = πλμmR2, (3.20)

siendo μm el valor medio de las marcas y λ la densidad del patrón. Pentti-


nen (2006) sugiere emplear además la medida de suma de marca normali-
zada es decir, dividida por la medida de suma de puntos IR(x)(el número de
puntos dentro del círculo).
100 MARCELINO DE LA CRUZ ROT

Figura 3.11. La medida de suma de marca SR(x) (mark-sum measure, columna izquierda)
es una herramienta de carácter exploratorio que resume localmente la contribución de
puntos y marcas de un patrón, con el objetivo de visualizar la heterogeneidad a gran escala.
En cada localidad x representa la suma de las marcas de todos los puntos presentes dentro
de un radio R alrededor de la misma. La medida de suma de punto IR(x) (point-sum
measure, columna central), es un estimador de la intensidad local (de la densidad de
puntos dentro de un círculo de radio R alrededor de cada localidad x). La medida de suma
de marca normalizada [SR(x)/ IR(x), columna derecha] describe la contribución de las
marcas del patrón. En la fila superior se representan las medidas correspondientes al
patrón marcado de HSC1 (Fig. 3.9), para R = 25 cm. En la fila inferior, las medidas
correspondientes a HSC2, para R= 20 cm. Tonalidades más claras indican valores más
altos de la correspondiente medida. Dado que se trata de patrones agrupados, existen
zonas en donde tanto la suma de marca como la suma de punto tienen valor 0 (en negro).
La suma de marca normalizada (que tiene en cuenta el número de individuos y, por lo
tanto, el agrupamiento), pone de manifiesto que la distribución espacial de los tamaños no
es homogénea ya que hay zonas (resaltadas por las curvas de nivel) con valores muy altos.
Métodos para analizar datos puntuales 101

3.3.2. Patrones con marcas discretas

3.3.2.1. Funciones de segundo orden multivariadas

La herramienta más comúnmente utilizada para el análisis de patrones


con marcas discretas es la función K-cruzada (K-cross, con frecuencia denomi-
nada también K bivariada o intertipo). La función λjKi j(r), donde Ki j(r) es la
función K-cruzada y λj es la intensidad del patrón de tipo "j", proporciona el
número medio de puntos de tipo "j" dentro de un radio r alrededor de cual-
quier punto de tipo "i". Los estimadores de Ki j(r), así como los mecanismos
para corregir el efecto borde son muy similares a los de K(r) (ver por ejemplo
en Diggle 2003, Dixon 2002c). En un patrón con n tipos diferentes de marcas
se podrían calcular hasta n2 funciones Kij diferentes. Desde un punto de vista
práctico, sin embargo hay que distinguir las auténticas funciones K-cruzadas
(Kij(r) cuando i ≠ j) de las funciones K univariadas [Kii(r)].

Como los análisis de dependencia entre patrones se realizan siempre


entre pares de marcas, independientemente del número diferente de éstas,
es frecuente denominar a la función K-cruzada como K bivariada o K12(r).
En el caso de patrones infinitos, sin límites, K12(r)= K21(r); sin embargo en
patrones dentro de un área limitada el efecto borde afecta de forma no si-
métrica a las dos funciones por lo que lo habitual suele ser emplear la fun-
ción bivariada de Lotwick y Silverman (1982) K*12(r), un estimador ponde-
rado de los dos anteriores. Otras funciones de segundo orden, como la
función de correlación de par y la O-ring también tienen su versión cruzada.
Su uso e interpretación es similar al de la función K-cruzada.

3.3.2.2. Análisis de la relación entre dos o más patrones de puntos

La relación entre dos procesos espaciales puede abordarse desde dos


perspectivas diferentes (Dixon 2002c, Goreaud y Pélissier 2003). La pers-
pectiva o hipótesis de independencia (Lotwick y Silverman 1982) se plan-
tea cuestiones relativas a la interacción entre los dos procesos. La perspec-
tiva o hipótesis del etiquetado aleatorio (random labelling, planteada por
Cuzick y Edwards 1990) se plantea cuestiones relativas al proceso que
asigna las etiquetas o marcas a los puntos de un patrón global. Cada hipó-
tesis tiene aplicación en problemas ecológicos distintos.
102 MARCELINO DE LA CRUZ ROT

Bajo la hipótesis de independencia (la hipótesis nula es que los dos pro-
cesos son independientes), el valor teórico esperado para K*12(r) = πr2, in-
dependientemente de cómo sea la estructura espacial del patrón que porta
cada tipo de marca. Por lo tanto, al igual que en el caso de la función K uni-
variada, se puede y se suele trabajar con la función L*12(r) = (K*12(r)/π)1/2.
En el caso de que se cumpla la hipótesis nula, L*12(r)= r, por lo que se puede
testar si L*12(r) – r = 0 a cada distancia r. Valores de L*12(r) – r > 0 indican
atracción entre los dos procesos a la distancia r; valores < 0 indican repul-
sión. Al igual que en el caso de la función univariada, los valores críticos de
L*12(r) – r se calculan también con simulación Monte-Carlo, aunque aquí es
más complicado que en el caso univariado ya que las simulaciones deben
mantener el patrón espacial de cada proceso individual a la vez que rompen
la posible dependencia que exista entre ellos. En el caso de que los procesos
individuales puedan ser descritos por modelos paramétricos, la simulación
de estos permite fácilmente estimar los valores críticos del test (Dixon 2002c;
ver ejemplo en apartado 3.5, Fig. 3.20). Cuando la forma del área de estudio
es rectangular, el método no paramétrico de desplazamiento toroidal (toroi-
dal shift) es una alternativa razonable (y de hecho se usa con gran frecuen-
cia). El método consiste en mantener constantes las coordenadas de uno de
los patrones y desplazar una idéntica pequeña distancia aleatoria en las di-
recciones x e y todos los puntos del otro patrón. El área de estudio se trata
matemáticamente como un toro (con los bordes superior e inferior conecta-
dos y los bordes izquierdo y derecho conectados) de tal forma que los pun-
tos que con el desplazamiento "salen" del área por un lado reingresan por el
lado contrario. El desplazamiento aleatorio y el cálculo de L*12(r) se repite
un número elevado de veces para obtener los valores críticos del test. He y
Duncan (2000) usan este método para, entre otras cosas, analizar la asocia-
ción entre pares de especies en un bosque de abeto de Douglas y averiguar
el efecto de la mortalidad sobre dicho patrón.

La hipótesis del etiquetado aleatorio se debe emplear cuando el pa-


trón multivariado se puede considerar como resultado de un proceso je-
rárquico en el que un primer "subproceso" genera el patrón de puntos y
un subproceso posterior asigna marcas a los puntos (por ejemplo, sexo
en especies dioicas, presencia o ausencia de epífitos en árboles, enferme-
dad o no en los individuos, mortalidad y supervivencia, etc.). Bajo la hi-
pótesis de random labelling cada patrón individual sería una muestra
aleatoria del patrón total y por lo tanto, debido a la naturaleza de la fun-
Métodos para analizar datos puntuales 103

ción K, K(r)12 = K(r)21 = K(r)11 = K(r)22 = K(r), es decir, todas las funciones
cruzadas serían iguales a la función K univariada del patrón completo
(Dixon 2002a). Las desviaciones de la hipótesis nula de etiquetado aleatorio se
evalúan mediante diferencias entre pares de funciones K. K(r)11 - K(r)22 eva-
lúa si un patrón está más o menos agrupado que el otro (y a qué escala,
Fig. 3.12). K(r)11 - K(r)12 y K(r)22 -K(r)12 evalúan la segregación de los proce-
sos, es decir, evalúan si un tipo de punto tiende a estar rodeado por otros
puntos del mismo tipo (Fig. 3.12). La inferencia se basa habitualmente en
simulación Monte Carlo mediante la permutación aleatoria de las marcas
sobre las coordenadas del patrón completo.

En alguna ocasión, en vez de emplear las diferencias entre funciones


K, se ha empleado la función univariada L(r), para analizar la estructura
de cada uno de los procesos que componen el patrón bivariado por sepa-
rado. Suzuki et al. (2003) analizan los patrones espaciales de mortalidad y
supervivencia en una especie herbácea calculando la función L de cada
uno de las marcas y comparándola con las envueltas obtenidas por per-
mutación aleatoria de la marca sobre el patrón de puntos. Valores de L (r)
mayores o menores que los límites indicados por las envueltas indican res-
pectivamente agregación o repulsión del suceso considerado en cada caso
(mortalidad o supervivencia).

En ocasiones puede ser necesario combinar ambas hipótesis. Por


ejemplo, De la Cruz et al. (2008) evalúan la relación entre el patrón espacial
de la mortalidad de plántulas de H. squamatum y las plantas adultas de una
comunidad gipsófila. La hipótesis nula para la relación entre las plantas
adultas y las plántulas muertas debería ser la de independencia, pero
dado que la hipótesis nula de la mortalidad se puede considerar como un
proceso de etiquetado aleatorio sobre la población de plántulas, en vez de
realizar toroidal shift de adultos y plántulas muertas, la simulación para la
inferencia se basa en aleatorizar las marcas (mortalidad, supervivencia)
sobre el patrón de plántulas (Fig. 3.13).

Otros procesos marcados pueden modelizarse a partir de modelos


empíricos. Por ejemplo, Batista y Maguire (1998) para analizar el patrón
espacial de autoaclareo en bosques tropicales ajustan un modelo generali-
zado binomial (regresión logística) a los datos de mortalidad de árboles,
empleando como predictores variables de tamaño, crecimiento y vecin-
104 MARCELINO DE LA CRUZ ROT

Supervivencia - Mortalidad

700

15000
600
500

5000
400

K1 − K2
^

0
y

300

-5000
^
200

-15000
100
0

0 50 100 150 200


0 100 200 300 400 500 600

Segregación supervivencia Segregación mortalidad

10000
5000

5000
K1 − K12

K2 − K12
0
^

0
^

^
-5000

-5000

0 50 100 150 200 0 50 100 150 200

Figura 3.12. Análisis de la dependencia en patrones bivariados con la hipótesis de etiquetado


aleatorio (random labelling). Cuadro superior izquierdo: patrón bivariado de supervivencia
(oscuro) y mortalidad (claro) de plántulas de H. squamatum. Ya que este patrón de puntos se
puede describir como el resultado de dos procesos secuenciales (un primer subproceso establece
el patrón de plántulas; un subproceso posterior distribuye las etiquetas "sobrevive" y "muere"
sobre el patrón anterior), la hipótesis nula adecuada para analizar la dependencia espacial entre
las marcas es la del etiquetado aleatorio. La relación entre los patrones se analiza mediante la
diferencia de las funciones univariadas (cuadro superior derecho), con lo que se puede testar si
los patrones presentan diferencias en la intensidad de agrupamiento. Las diferencias entre la
función univariada de cada proceso y la bivariada (cuadros inferiores) permite testar si existe
segregación (es decir, si los puntos de cada patrón se rodean de puntos del mismo tipo con ma-
yor frecuencia de lo esperado por azar). Las envueltas se generan en todos los casos mediante
permutaciones aleatorias de las marcas sobre el patrón global de plántulas. La diferencia entre
el patrón de supervivencia y mortalidad muestra que éste es más agrupado que el primero (dife-
rencia negativa). Los test de segregación ponen de manifiesto que tanto los casos de superviven-
cia como los de mortalidad están segregados (están más rodeados de casos del mismo tipo), espe-
cialmente la mortalidad, lo que confirma la separación espacial de ambos fenómenos.
Métodos para analizar datos puntuales 105

SUPERVIVENCIA MORTALIDAD
700

14

15
600

12
500

10

10
400

L12( r)
8
L12(r)
300

5
200

4
2
100

0
0
0

0 100 200 300 400 500 600 0 50 100 150 200 0 50 100 150 200

x r r

Figura 3.13. Combinación de hipótesis en el análisis de un patrón marcado. Izquierda: Parte de


un patrón multivariado de una comunidad gipsófila. Triángulos grandes: individuos adultos
de Helianthemum squamatum; puntos oscuros: plántulas de H. squamatum que sobrevi-
ven al censo post-estival; puntos claros: plántulas que mueren. Centro: función L cruzada (bi-
variada) para testar la asociación entre los casos de supervivencia y los individuos adultos de
H. squamatum. Izquierda: idem con los casos de mortalidad. Como los procesos que generan
el patrón de adultos y los patrones de supervivencia y mortalidad de plántulas son indepen-
dientes, la hipótesis apropiada para testar la asociación entre ambos es la de independencia. Sin
embargo, dado que la supervivencia y mortalidad son generadas por un subproceso aleatorio so-
bre el patrón total de plántulas, las simulaciones para generar las envueltas se basan en el eti-
quetado aleatorio (mortalidad, supervivencia) de dicho patrón. El patrón de supervivencia
muestra repulsión con el de adultos a escalas de entre 40 y 120 cm mientras que la mortalidad
esta asociada a los adultos aproximadamente a la misma escala, lo que parece indicar que el te-
rritorio ya ocupado por los adultos es el más apropiado para el establecimiento de las plántulas
(sin que ello suponga un incremento en la supervivencia) mientras que a partir de 40 cm de dis-
tancia de los adultos se encuentran ambientes en los que la supervivencia se ve comprometida.

dad. El modelo ajustado se emplea después como "algoritmo" para simu-


lar el proceso a partir del mapa de la cubierta forestal original.

3.3.2.3. Funciones de distribución de distancias multivariadas

Para el caso de patrones bivariados, con dos tipos de puntos i y j, Gij(x)


o "función G-cruzada" es la distribución acumulada de distancias desde
un punto aleatorio de tipo i al vecino más cercano de tipo j. Si el patrón bi-
variado es independiente,
− λ j ·π · y 2
Gij ( y ) = 1 − e (3.21)

donde λj es la intensidad de los puntos de tipo j (Baddeley y Turner, 2005).


Desviaciones entre la función Gij teórica y la observada sugieren depen-
dencia entre los puntos de tipo i y j. Es importante notar que en general,
106 MARCELINO DE LA CRUZ ROT

Gij ≠ Gji. Por otro lado, si los puntos de tipo i son independientes de los
puntos de tipo j, Gij(y) sería igual que Fj(y), la función de espacio vacío de
los puntos j (Upton y Fingleton 1989: 246), por lo que estadísticos que com-
paren ambas, como los comentados para el caso univariado, o la función J
cruzada (Van Lieshout y Baddeley 1999),

1 − Gij ( x)
J ij ( x) = (3.22)
1 − Fj ( x)

cuyo valor esperado en caso de independencia es 1, pueden emplearse


para testar la dependencia entre los patrones. Al igual que Gij, Jij tampoco es
simétrica, por lo que su uso será especialmente útil en el caso de patrones
bi- o multivariados donde las relaciones de dependencia no son simétricas
(por ejemplo, patrón de plántulas germinadas dependiente del patrón de
plantas adultas, pero no al revés).

En el caso de patrones multivariados, la función Gi. ("G-dot", Baddeley y


Turner 2005) describe la distribución acumulada de distancias desde un pun-
to aleatorio de tipo i hasta el vecino más próximo de cualquier tipo. Si los pun-
tos de tipo i son independientes del resto de tipos de puntos, Gi. será igual a
Gii, la función G "univariada" de los puntos de tipo i. Desviaciones entre am-
bas funciones sugerirán dependencia del tipo i de los demás. La función "J-
dot" (Van Lieshout y Baddeley 1999) se interpreta análogamente.

Lotwick y Silverman (1982) propusieron investigar el signo de la función

T(y) = log{1 - F(y)} - log {1 - Fi(y)} - log{1 - Fj(y)}, (3.23)

que debería ser igual a 0 si los dos patrones son independientes. Valores
positivos o negativos de T(y) indicarían respectivamente atracción o re-
pulsión entre los patrones. De un modo más general, Diggle (2003: 99)
propone las funciones

H2(y) = {1 – F(y)} – {1 – Fi(y)} – {1 – Fj(y)} (3.24)

3
H 3 ( y ) = {1 − F ( y )} − ∏{1 − F j ( y )} (3.25)
j =i
Métodos para analizar datos puntuales 107

para "medir" la independencia entre vecinos cercanos de un patrón bi- y


trivariado. Al igual que en el caso anterior, valores positivos o negativos
sugerirán atracción o repulsión, mientras que un valor de 0 indicará inde-
pendencia entre los procesos.

La función I (Van Lieshout y Baddeley 1999) resume la dependencia


entre tipos de puntos en un patrón multivariado. Para un patrón con m ti-
pos de puntos, se define como

m
I ( y ) = ∑ pi J ii ( y ) − J ( y ) (3.26)
i =1

Aquí, Jii(y) es la función J del patrón de tipo i y pi su abundancia re-


lativa; J(y) es la función J del patrón total ignorando las marcas de cada
tipo. Si los diferentes tipos son independientes, I(y) = 0. Desviaciones
de I(y) < 1 y I(y) >1 indican asociación negativa o positiva, respectiva-
mente.

3.3.2.4. Tablas de contingencia de las frecuencias del vecino más cercano

Dixon (2002a) ha desarrollado una nueva herramienta para el análisis de


patrones multivariados, basándose en las frecuencias con las que cada tipo
de patrón aparece como el vecino más próximo de cada uno de los otros pa-
trones. Se trata de una aproximación original y distinta a las que se han co-
mentado hasta ahora ya que no se basa en las distancias entre individuos.

En un patrón con k tipos de puntos, se construye una tabla de contingen-


cia k x k. En cada celda kij se anota Nij, el número de veces que los puntos del
tipo i tienen como vecino más próximo a puntos del tipo j. A partir de dichos
valores pueden construirse diferentes índices de segregación (Tabla 3.1).

N ii /( N i − N ii ) N ij /( N i − N ij )
Si = log ; Sij = log (3.27)
( N i − 1) /( N − N i ) N i /( N − N j − 1)

Si mide la segregación del tipo i en un patrón multivariado. Valores de


Si > 0 indican que el tipo i está segregado, es decir, que está rodeado por
vecinos del mismo tipo más frecuentemente de lo que se esperaría de un
etiquetado aleatorio. Valores Si < 0 indican que el tipo i está menos rodea-
108 MARCELINO DE LA CRUZ ROT

do de vecinos del mismo tipo de lo esperado por azar o, lo que es lo mis-


mo, que está asociado con uno o más tipos diferentes. Valores próximos a 0
indican independencia del tipo i.

Sij mide específicamente la asociación entre los tipos i y j. Valores de Sij


> 0 aparecen cuando Nij, la frecuencia de vecinos de tipo j alrededor de
individuos del tipo i es mayor que la esperada bajo la hipótesis nula de eti-
quetado aleatorio y por lo tanto indicarían asociación positiva de i con j.
Valores negativos y nulos de Sij indicarían respectivamente repulsión e in-
dependencia. Hay que tener en cuenta que se trata de índices asimétricos
y que generalmente Sij ≠ Sji.

La segregación, asociación o repulsión entre pares de tipos puede tes-


tarse con el estadístico

N ij − Ε N ij
Z ij = , (3.28)
Var N ij

donde Nij es el valor observado y E Nij es el valor esperado en la celda co-


rrespondiente. Zij tiene una distribución normal asintótica con media 0 y
varianza 1. El p-valor asociado se puede obtener de la distribución normal
acumulada o por simulación (etiquetado aleatorio). En general se obten-
drá un p-valor de dos colas, para testar H0: Nij = E Nij.

Puede realizarse también un test global de la tabla de contingencia


(Tabla 3.2), investigando simultáneamente si todas las frecuencias obser-
vadas en la tabla son iguales a las frecuencias esperadas con el estadístico

C = (N - E N)' Σ- (N - E N), (3.29)

donde N es el vector k2 x 1 de frecuencias en la tabla de contingencia y Σ- es


la inversa generalizada de la matriz k2 x k2 de varianza-covarianza de di-
chas frecuencias (Dixon 2002). C se distribuye asintóticamente como una
Chi cuadrado con k(k-1) grados de libertad. Los p-valores asociados se ob-
tienen bien de la distribución Chi-cuadrado o bien mediante simulaciones
de Monte Carlo. El estadístico global puede "partirse" en k estadísticos es-
pecíficos de cada tipo Ci, que testan simultáneamente si las frecuencias
con que cada tipo es vecino del tipo i son las que se esperarían por azar.
Métodos para analizar datos puntuales 109

Tabla 3.1. Resultados del análisis de tabla de contingencia de vecino más cercano para el patrón
multivariado de Savannah River (Fig. 3.9). "Árbol" indica el árbol focal y "NN" el vecino más cerca-
no (FX: Fraxinus caroliniana; NX: Nyssa aquatica; NS = Nyssa sylvatica, TD: Taxodium
distichum; OT: otras especies). Obs es la frecuencia observada y Esp la frecuencia esperada en la ta-
bla de contingencia. S es el índice de segregación. Cuando el "Árbol" y "NN" son la misma especie
(señalado en negrita), se trata de Si; valores de Si > 0 indican que la especie está segregada (sus indi-
viduos están rodeados por vecinos de la misma especie con mayor frecuencia de la esperada de un eti-
quetado aleatorio; Si < 0 indica lo contrario, y Si = 0 indica compatibilidad con etiquetado aleatorio.
Cuando "Árbol" y "NN" son diferentes especies, Sij mide la afinidad de la especie i (la "Árbol") con la
especie j ("NN"). Sij> 0 indica que las frecuencias observadas en la celda Nij de la tabla de contingen-
cia son mayores que las esperadas, o lo que es lo mismo, que existe asociación positiva entre la especie
i y la especie j. Sij < 0 indica lo contrario, y Sij = 0 indica compatibilidad con etiquetado aleatorio.
Hay que tener en cuenta que se trata de un índice asimétrico, y en general Sij ≠ Sji. La significación
de los índices se testa indirectamente con el estadístico Zij (columna Z) cuyo p-valor, aproximado
asintóticamente, aparece en la columna correspondiente (en realidad lo que se testa es la hipótesis
nula de que la frecuencia observada en la celda Nij es igual a la frecuencia esperada). En la parcela de
Savannah River, la mayoría de las especies están segregadas (Si > 0, p< 0.0001), a excepción de
Taxodium distichum. La asociación con especies diferentes es en general negativa (Sij < 0 en la ma-
yoría de los casos). Para este resultado existen diversas posibles explicaciones, como diferentes reque-
rimientos de microhábitat para cada especie, crecimiento clonal, parches con diferente historia de
perturbaciones, etc. La ausencia de segregación en Taxodium puede indicar una historia de extrac-
ción selectiva o cualquier otra diferencia con el resto de las especies (Dixon 2002a).
Árbol NN Obs Esp S Z p-valor
FX FX 82 32.99 0.62 8.08 0.0000
FX NS 23 43.63 -0.35 -3.73 0.0002
FX NX 23 45.76 -0.38 -4.05 0.0001
FX OT 6 12.77 -0.35 -2.04 0.0410
FX TD 22 20.86 0.03 0.28 0.7820
NS FX 26 43.63 -0.27 -3.09 0.0020
NS NS 117 57.05 0.54 8.05 0.0000
NS NX 38 60.13 -0.26 -3.44 0.0006
NS OT 8 16.78 -0.34 -2.34 0.0194
NS TD 16 27.41 -0.26 -2.43 0.0150
NX FX 29 45.76 -0.24 -2.87 0.0041
NX NS 40 60.13 -0.23 -3.11 0.0019
NX NX 112 62.77 0.42 6.39 0.0000
NX OT 14 17.60 -0.11 -0.94 0.3484
NX TD 20 28.74 -0.18 -1.82 0.0682
OT FX 5 12.77 -0.47 -2.47 0.0135
OT NS 8 16.78 -0.40 -2.54 0.0112
OT NX 7 17.60 -0.50 -3.02 0.0025
OT OT 33 4.83 1.14 10.77 0.0000
OT TD 7 8.02 -0.07 -0.39 0.6952
TD FX 29 20.86 0.19 2.04 0.0418
TD NS 29 27.41 0.03 0.36 0.7180
TD NX 19 28.74 -0.24 -2.18 0.0295
TD OT 7 8.02 -0.06 -0.38 0.7008
TD TD 14 12.97 0.04 0.25 0.8011
110 MARCELINO DE LA CRUZ ROT

Tabla 3.2. Resultados del análisis de tabla de contingencia de vecino más cercano para el patrón
multivariado de Savannah River (continuación). Segregación:tipo de test, global o de cada espe-
cie (FX: Fraxinus caroliniana; NX: Nyssa aquatica; NS = Nyssa sylvatica, TD: Taxodium
distichum; OT: otras especies). G.L.: grados de libertad. χ2: Valor del estadístico. p asintótico y
p M C: p-valor del estadístico, aproximado asintóticamente o mediante simulación Monte Carlo.
Primera fila: Test global de etiquetado aleatorio. A diferencia de los test de la tabla 3.1, que consi-
deraban cada par de especies por separado, el test global testa la hipótesis de que en todas las celdas
de la tabla de contingencia las frecuencias observadas son iguales a las esperadas. El test se basa en
el estadístico C (ver texto) que se distribuye como una χ2 en el caso de etiquetado aleatorio (valor
señalado en la tabla). El p-valor se calcula de la probabilidad de observar valores de C iguales o
mayores (estimada asintóticamente o mediante simulaciones Monte Carlo). El valor de C obteni-
do en este caso es, significativamente, mucho mayor del que existiría con etiquetado aleatorio, lo
que confirma la existencia de segregación. Filas 2 a 6: Test específicos de segregación para cada es-
pecie. En este caso lo que se testa es, para cada especie, si las frecuencias con las que aparecen el res-
to de las especies como vecinos más próximos es similar a las esperadas si se diese etiquetado alea-
torio. El estadístico Ci se calcula y testa de forma similar al anterior. En este caso, tan sólo
Taxodium (TD) presenta un Ci compatible con etiquetado aleatorio, mientras que las demás es-
pecies tiene valores significativamente elevados, lo que indicaría segregación.

Segregación G.L. χ2 p, asintótico p, M C


global 20 275.64 0.0000 0.00
de FX 4 70.99 0.0000 0.00
de NS 4 65.13 0.0000 0.00
de NX 4 41.27 0.0000 0.00
de OT 4 117.48 0.0000 0.00
de TD 4 7.09 0.1313 0.11

3.3.2.5. Test de asociación para recuentos multivariantes

Cuando no se dispone del mapa completo de individuos de los dife-


rentes tipos de un patrón multivariante (especies, estados fenológicos o
fases del ciclo vital, estado de salud, etc), sino que tan sólo se conoce si apa-
recen en los mismos cuadrados de muestreo (ver métodos basados en recuen-
tos), puede realizarse un test de asociación, que indicará que tipo de aso-
ciación (si existe alguna) presentan los patrones de los diferentes tipos.

A partir de una tabla de contingencia 2 × 2 (Fig. 3.14), en la que se tabu-


la el número de cuadrados en los que se presentan o ausentan los diferen-
tes pares de tipos, se calcula el estadístico de Pearson para una tabla de
contingencia, bien con la fórmula habitual o bien mediante la siguiente:
Métodos para analizar datos puntuales 111

n·(a·d − c·b) 2
χ2 = (3.30)
F1·F 2·C1·C 2
en la que n es el número total de cuadrados de muestreo. Si el χ2 es signifi-
cativamente mayor que el de una distribución chi-cuadrado con 1 grado
de libertad (valor crítico = 3.841) se admite que los patrones de ambos ti-
pos están asociados. El signo de la asociación viene dado por el signo de la
diferencia entre los productos de las diagonales de la tabla. Así, si (a·d – c·b)
> 0 existe asociación positiva o atracción entre ambos patrones, mientras
que si (a·d – c·b) < 0, existe asociación negativa o repulsión.

tipo A
presente ausente
presente

a b F1
tipo B

ausente

c d F2

C1 C2
Figura 3.14. Tabla de contingencia del test de asociación espacial para recuentos multivariantes.
Cuando no se dispone del mapa de puntos sino simplemente unos "recuentos" o inventarios en cuadra-
dos de muestreo, puede analizarse la asociación entre los diferentes tipos de puntos realizando un aná-
lisis de la tabla de contingencia en la que se tabulen la frecuencia de sus presencias y ausencias. Si tipo
A y tipo B son los dos tipos de puntos (especies, sexos, etc) cuya asociación se va a analizar, a represen-
ta el número de cuadrados de muestreo en los que aparecen los dos tipos conjuntamente; b es el número
de cuadrados en los que aparece el tipo B pero no el A; c es el número de cuadrados en los que aparece el
tipo A pero no el B; d es el número de cuadrados en que no aparecen ni A ni B; F1 y F2 son, respectiva-
mente, la suma de la fila 1 y la suma de la fila 2 de la tabla de contingencia (es decir, el número total de
cuadrados en los que, respectivamente, aparece y no aparece el tipo B); C1 y C2, análogamente, son las
sumas de las columnas (y representan, respectivamente, el número de cuadrados en los que aparece y
no aparece el tipo A). Siendo n el número total de cuadrados de muestreo, el estimador χ2 = [n (a·d-
c·b)2/(F1·F2·C1·C2)] seguiría una distribución Chi-cuadrado con 1 grado de libertad si los dos tipos
fuesen independientes. Si el valor del χ2 calculado es mayor que el valor crítico de una distribución chi-
cuadrado con 1 grado de libertad (= 3.841) se admite que los patrones de ambos tipos están asociados
significativamente, a la escala determinada por el tamaño de los cuadrados de muestreo. La aso-
ciación es positiva si (a·d – c·b) > 0 ó negativa si (a·d – c·b) < 0.
112 MARCELINO DE LA CRUZ ROT

3.4. AJUSTE DE MODELOS DE PROCESOS ESPACIALES DE PUNTOS

3.4.1. ¿Cómo se puede describir el patrón?

El objetivo del análisis estadístico de un patrón de puntos después de


los análisis exploratorios y los test sencillos de CSR (en el caso de patrones
univariados) o de independencia de marcas (patrones marcados), normal-
mente consistirá en obtener una descripción más detallada mediante la
formulación de un modelo (paramétrico o no) que describa el proceso ge-
nerador del patrón observado y su ajuste a los datos disponibles. Por
ejemplo, para el caso de los patrones univariados, en la literatura sobre es-
tadística espacial se han desarrollado y explorado numerosos modelos
que describen procesos no-CSR y que podrían tomarse como vías para
continuar el análisis según los resultados del test (ver una introducción
por ejemplo en Diggle 2003).

Uno de los más célebres y con evidentes aplicaciones en ecología es el


proceso de Poisson agrupado (también llamado proceso de Neyman-Sco-
tt). Este proceso incorpora una forma explícita de agrupamiento espacial y
por lo tanto proporciona una base bastante satisfactoria para modelizar
patrones agregados. Se basa en tres postulados (Diggle 2003):

1) Existe un conjunto de puntos "padres" con distribución completa-


mente aleatoria (CSR) e intensidad ρ.
2) El número de puntos "hijos" de cada padre sigue una distribución
de Poisson con media m.
3) Los puntos "hijos" se distribuyen alrededor de los padres siguien-
do una distribución gausiana bivariada, con media 0 y varianza σ2
en x e y.
Para un matemático es fácil demostrar que la función K teórica del
proceso es

K(r; σ, ρ)= πr2 + ρ -1 [1-exp(-r2/4σ2)] (3.31)

El proceso de Strauss es apropiado para modelizar repulsión o regula-


ridad a pequeña escala. Se basa en que el número de vecinos a una distan-
cia crítica δ de cualquier punto es menor al esperado en caso de CSR. Se
Métodos para analizar datos puntuales 113

genera a partir de un proceso de Poisson homogéneo en donde una pro-


porción 1-γ de los puntos dentro de la distancia δ son borrados. Una
aproximación de la función K para el proceso de Strauss de núcleo blando
(soft-core) es (Dixon 2002c):
2 si 0 < r ⱕ d
⎧ γπ r
K ( r ;γ ,δ ) = ⎨ 2 2 (3.32)
⎩ π r – ( 1 – γ )πδ si r ⱖ d
En el proceso Strauss de núcleo duro (hard core), γ = 0, y por lo tanto no
existe ningún vecino dentro de la distancia crítica.

3.4.2. Ajuste de modelos usando funciones sumario

Tradicionalmente el ajuste de modelos se ha realizado con métodos de-


nominados ad hoc (Diggle 2003). Estos métodos se basan en comparar la fun-
ción sumario empírica del patrón y la función sumario teórica del proceso
que se supone que lo genera (por lo tanto sólo se puede aplicar para ajustar
aquellos procesos de los cuales se conoce la forma matemática de la función
sumario del modelo teórico –no se conoce de todos). La idea consiste en en-
contrar los parámetros que minimizan las diferencias entre ambas funcio-
nes (método del contraste mínimo, Diggle y Graton 1984, también denomi-
nado ajuste ad hoc, Diggle 2003). Por ejemplo, para ajustar el proceso de
Poisson agrupado, Diggle (2003) sugiere minimizar la expresión:
r0 2
D(σ , ρ ) = ∫ ⎧⎨[Kˆ (r )] − [K (r ; σˆ , ρˆ )] ⎫⎬ dr
c c
(3.33)
0
⎩ ⎭

donde K(r) es la función K del mapa de puntos observado y K(r;σ,ρ) es la fun-


ción K teórica del proceso agrupado dados los parámetros σ y ρ. La constante
r0 representa el límite de integración (es decir, selecciona el límite de las escalas
que se ajustarán) y c es una constante de ajuste necesaria para controlar (estabi-
lizar) la varianza de la función K empírica y asegurar una convergencia más es-
table en el proceso de minimización. Para el caso concreto del proceso de Pois-
son agrupado, Diggle (2003) recomienda un valor de c ≤ 0.25 y un límite de
integración r0 menor de ¼ de la longitud del lado en el caso de parcelas cuadra-
das (aunque a mayor o menor límite el modelo se ajustará más a efectos globa-
les o a pequeña escala respectivamente). Los valores de los otros parámetros, σ
y ρ se estiman durante la minimización de D(σ,ρ). La minimización se realiza
114 MARCELINO DE LA CRUZ ROT

de forma análoga a una regresión no linear, por ejemplo con el algoritmo de


Nelder y Mead (1965). Los valores iniciales para la minimización de σ y ρ pue-
den obtenerse mediante "tanteo" (representación, junto a la función K empírica,
de varias funciones K teóricas con valores intuidos de los parámetros y selec-
ción de los que produzcan un ajuste visual más aproximado; Fig. 3.15) o me-
diante una minimización previa de la función K(r; σ, ρ) con valores arbitrarios.
4

4
3

3
2

2
L(r)

L(r)
1

1
0

0
-1

-1
-2

-2

0 20 40 60 0 20 40 60

r (cm) r (cm)

Figura 3.15. Ajuste de un proceso de Poisson agrupado mediante el método ad hoc basado en la
función K de Ripley. Izquierda: En línea continua, función L(r) de la comunidad gipsófila de la
figura 3.6. Líneas discontinuas finas: envueltas pointwise de la simulación de patrones CSR de
la misma intensidad. Curva punteada fina, "tanteo" con la función teórica del proceso agrupado
{K(r; σ, ρ)= πr2 + ρ -1 [1-exp(-r2/4σ2)} con valores de σ = 5.0 y ρ = 3.33e-03. Curva
discontinua gruesa (gris): Función ajustada tras la minimización de la función D(σ,ρ) con el
algoritmo de Nelder y Mead (1965). Los parámetros ajustados son σ = 6.80 y ρ = 2.48e-03.
Derecha: Curvas continua y discontinua gruesa igual que en la figura de la izquierda. Curvas
discontinuas finas: envueltas obtenidas tras la simulación de 99 procesos agrupados de Poisson
de la misma intensidad que el original y con los parámetros ajustados en la etapa anterior.
Curva punteada fina: valor medio de la función L en 99 las simulaciones.

El ajuste ad hoc del proceso de Strauss o de cualquier otro del que se conoz-
ca explícitamente la formula matemática de la función sumario que lo describe
(función K o la que sea) se realiza de forma similar. La única diferencia aprecia-
ble estriba en el valor de la constante de ajuste c que mientras para otros proce-
sos de naturaleza agregada debe seguir siendo de c ≤ 0.25, para procesos de na-
turaleza similar a CSR o regular se establece en c = 0.5 (Diggle 2003).

A partir del modelo ajustado se simulan patrones de puntos que sir-


ven para construir las envueltas igual que en el caso del test de CSR. Si la
función K observada queda dentro de la banda definida por las envueltas
Métodos para analizar datos puntuales 115

se acepta que el patrón pueda ser descrito por el modelo ajustado (Fig.
3.15). Aunque ésta ha sido la forma tradicional del ajuste ad hoc en ecolo-
gía, desde un punto de vista estadístico lo ideal sería emplear una función
distinta a la función K (por ejemplo la G, H, J, etc) para realizar el test de
Monte Carlo (Diggle 2003).
A pesar del desarrollo reciente de métodos formales basados en el
análisis de la verosimilitud, los métodos ad hoc siguen siendo útiles tanto
por su utilidad para una rápida exploración de un rango de modelos como
por el método de evaluación visual directa del ajuste del modelo que pro-
porcionan. De hecho son los que siguen empleándose mayoritariamente
en los análisis ecológicos de patrones de puntos. Interesantes ejemplos re-
cientes son la modelización del patrón de establecimiento de árboles en
zonas aclaradas del bosque tropical por Batista y Maguire (1998) o del pa-
trón de reclutamiento de plántulas de Pinus uncinata en el Sistema Ibérico
por Camarero et al. (2005a).

3.4.3. Ajuste de modelos con funciones de verosimilitud y


pseudo-verosimilitud
Uno de los inconvenientes de los ajustes ad hoc es la necesidad de co-
nocer la forma matemática de la función sumario que se empleará en ajus-
tar el modelo. Como se ha comentado anteriormente, no todos los proce-
sos tienen funciones sumario teóricas conocidas. Por otra parte, la mayoría
de las funciones sumario asumen que el patrón de puntos es homogéneo
(es decir, de intensidad constante), cuando esto sólo suele ocurrir en esca-
las muy pequeñas y la existencia de gradientes ambientales condiciona la
aparición de patrones inhomogéneos (o no estacionarios, con intensidad va-
riable en función de la localidad). Aunque se han propuesto algunos mé-
todos para intentar solucionar este problema, por ejemplo, delimitando
áreas de intensidad más o menos "constante", (Pélissier y Goreaud 2001),
tales aproximaciones sólo son válidas en casos de patrones heterogéneos
muy sencillos en los que se pueden delimitar objetivamente subparcelas
homogéneas. No es el caso de los patrones inhomogéneos ligados a gra-
dientes. En estos casos se ha propuesto dividir el patrón en pequeñas
subparcelas de un tamaño tal que la intensidad dentro de cada una pueda
ser considerada constante, realizar un test local de CSR en cada subparce-
la y posteriormente realizar un test global tomando como hipótesis nula
un proceso de Poisson inhomogéneo (Couteron et al. 2003).
116 MARCELINO DE LA CRUZ ROT

Uno de los avances recientes en la modelización de patrones de pun-


tos consiste en el empleo de métodos de inferencia basada en la verosimi-
litud para ajustar modelos paramétricos flexibles, que permiten liberarse
de las restricciones de la homogeneidad (pueden incluir superficies -
trends- espaciales) e incluso introducir dependencia de covariables, inte-
racciones entre puntos y dependencia de marcas (etiquetas asociadas a
cada punto). Cada modelo se especifica en función de su intensidad condi-
cional. La intensidad condicional es una función λ(u, x) de la localidad es-
pacial u y del patrón de puntos completo x. De esta forma, si considera-
mos una región infinitesimal de área du alrededor de un punto u, la
probabilidad de el proceso de puntos contenga un punto en esa región in-
finitesimal, dada la posición del resto de puntos fuera de esa región, es
λ(u, x) du (Baddeley y Turner 2006). Por ejemplo, el proceso de Poisson ho-
mogéneo tiene intensidad condicional

λ(u, x) = β (3.34)

donde β, una constante, es la intensidad del proceso. En el proceso de


Poisson inhomogéneo la intensidad no es constante sino una función de la
localidad, β(u), por lo que la intensidad condicional es

λ(u, x) =β(u) (3.35)

El proceso de Strauss, por el contrario, tiene como intensidad condi-


cional

λ(u, x) =βγ t(u, x) (3.36)

donde t(u, x) es el número de puntos del patrón x que quedan dentro de


una distancia δ de la localidad u. Aquí γ es el parámetro de la interacción y
δ la distancia crítica del proceso de Strauss (Baddeley y Turner 2006).

Expresados de esta forma, los modelos pueden ajustarse con cierta di-
ficultad con el método de máxima verosimilitud o más fácilmente con el
método de máxima pseudo-verosimilitud (Baddeley y Turner, 2000). Esta
Métodos para analizar datos puntuales 117

técnica permite ajustar cualquier modelo para el cual la intensidad condi-


cional tenga la forma loglineal

λ(u, x) = exp [ψT B(u) + ϕT C(u, x)] (3.37)

donde ψ y ϕ son los parámetros que hay que estimar. El término B(u) re-
presenta la "tendencia espacial" (trend) o el efecto de covariables espacia-
les, mientras que el término C(u, x) representa las "interacciones estocásti-
cas" del proceso de puntos. Este término, por ejemplo, no aparece si el
modelo es de un proceso de Poisson. En algunos casos puede que haya
que realizar una re-parametrización del modelo para adaptarlo a la forma
loglineal. Por ejemplo, la intensidad condicional del proceso de Strauss
adopta la forma loglineal si se hace B(u) ≡ 1 y C(u, x) = t(u, x), y los pará-
metros se toman como ψ = log β y ϕ = log γ (Baddeley y Turner 2006).

A la hora de ajustar el modelo, la función B(u) se trata como la compo-


nente "sistemática" del modelo, mientras que la interacción entre puntos
[C(u, x)] define la "familia" de distribuciones del modelo, de forma análoga
a las familias de los modelos lineales generalizados (glm), lo que permite
emplear software estadístico estándar en esta tarea (Baddeley y Turner
2000). Sin embargo este método estima sólo los parámetros canónicos de
modelo (ψ y ϕ), es decir, aquellos para los que la intensidad condicional es
loglineal. Los llamados "parámetros irregulares", como el radio δ de la in-
teracción en el proceso de Strauss o cualquier otro, deben especificarse a
priori; si se desconocen, su estimación puede realizarse construyendo per-
files de pseudo-verosimilitud (ver más adelante, Fig. 3.18).

Una de las numerosas ventajas del ajuste de modelos mediante la ve-


rosimilitud y pseudo-verosimilitud es que se pueden hacer predicciones y
generar mapas de la intensidad condicional ajustada. Más importante, sin
embargo, es la posibilidad de examinar los residuos del modelo para diag-
nosticar su idoneidad (Baddeley et al. 2005; Moller y Waagepetersen,
2007), e incluso realizar inferencia formal. Para procesos de Poisson (ho-
mogéneos o inhomogéneos), la máxima pseudo-verosimilitud es equiva-
lente a la máxima verosimilitud, por lo que diferentes modelos ajustados
al mismo patrón de puntos se pueden comparar mediante el test de co-
ciente de verosimilitud (likelihood ratio test, Tabla 3.3). Para otros procesos,
Baddeley y Turner (2006) proponen un estadístico llamado Δ (delta), aná-
118 MARCELINO DE LA CRUZ ROT

logo a la desviación en la teoría de la verosimilitud y consistente en el do-


ble del logaritmo del cociente de pseudo-verosimilitud (PL):

Δ =Δ( x) = 2(log PL(θˆ1 ( x); x) − log PL(θˆ0 ( x); x) ) (3.38)

cuya significación estadística puede ser determinada mediante un test de


Monte Carlo basado en la simulación del proceso ajustado con algoritmos
como el de Metropolis-Hastings (Moller y Waagepetersen 2003, 2007).

3.5. CASOS PRÁCTICOS

3.5.1. Análisis de la dependencia entre marcas en un patrón


multivariado complejo

El objetivo es testar la dependencia espacial entre especies forestales


de los distintos gremios forestales tropicales que crecen en una parcela ex-
perimental de la Estación Biológica Chamusquín (Universidad Técnica
Particular de Loja, Zamora-Chinchipe, Ecuador, Fig. 3.9): TPS: tolerantes
parciales a la sombra; TS: tolerantes a la sombra; PVC: pioneras de vida
corta; PVL: pioneras de vida larga. Los gremios se definen fundamental-
mente en relación con la tolerancia a la luz y el tipo de crecimiento de las
diferentes especies, por lo que es previsible encontrar patrones de asocia-
ción y repulsión entre los distintos gremios según su mayor o menor afini-
dad.

El análisis de las relaciones entre las marcas de la parcela de Cha-


musquín se ve complicado por dos motivos: cada gremio parece seguir
una tendencia espacial distinta, en ningún caso homogénea (Fig. 3.16)
y la forma de la parcela, no rectangular, lo que impide emplear el méto-
do de toroidal shift, que sería el más fácil de aplicar para testar la hipóte-
sis nula de independencia. Como alternativa, en primer lugar se ajus-
tan mediante máxima pseudo-verosimilitud patrones de Poisson
homogéneos e inhomogéneos con superficies de tendencia polinomia-
les (de primer grado y de segundo grado en x e y) a cada patrón indivi-
dual. El análisis del cambio de desviación de los modelos (al ser proce-
sos de Poisson la máxima pseudo-verosimilitud es equivalente a la
Métodos para analizar datos puntuales 119

80 TS TPS

80
60

60
y

y
40

40
20

20
0 20 40 60 80 120 0 20 40 60 80 120

x x

PVL PVC
80

80
60

60
y

y
40

40
20

20

0 20 40 60 80 120 0 20 40 60 80 120

x x
Figura 3.16. Intensidad de los patrones de los diferentes gremios forestales en la parcela de
Chamusquín (estimada mediante un kernel gausiano isotrópico). TPS: tolerantes parciales a la
sombra; TS: tolerantes a la sombra; PVC: pioneras de vida corta; PVL: pioneras de vida larga.
Se aprecia una falta de homogeneidad en todos los patrones y gradientes de variación distintos
para cada uno de ellos.

máxima verosimilitud y se puede emplear el cociente de verosimili-


tud), confirma que ninguno de los gremios tiene intensidad constante
y que excepto TPS, que puede describirse mediante una superficie sen-
cilla, los demás requieren una superfice polinómica de orden 2 (Tabla
3.3). La simulación de los modelos ajustados (Fig. 3.17) muestra que
dos de ellos (PVC y TS) quedan razonablemente bien descritos con la
superficie ajustada mientras que los otros dos (PVL y TPS) requieren la
inclusión en el modelo de un componente de interacción que dé cuenta
del "agrupamiento" que se pone de manifiesto en las gráficas. De entre
120 MARCELINO DE LA CRUZ ROT

Tabla 3.3. Análisis secuencial de la desviación en el ajuste de modelos Poisson homogéneos e inhomo-
géneos a los patrones de los gremios forestales de la parcela de Chamusquín (fig. 3.9). Gremio: patrón
de puntos al que se le ajusta el modelo (PVC= pioneras de vida corta; PVL= pioneras de vida larga,
TS= tolerantes a la sombra, TPS= tolerantes parciales a la sombra). Modelo: tipo de modelo ajustado
[homogéneo= proceso de Poisson homogéneo; x+y = proceso de Poisson inhomogéneo, con compo-
nente espacial polinómica de orden 1; (x + y)2 = proceso de Poisson inhomogéneo, con componente es-
pacial polinómica de orden 2]. G.l. Resid.: grados de libertad del modelo ajustado. Desv. Resid.: des-
viación (deviance) del modelo ajustado. Δ G.l.: disminución de grados de libertad (respecto al modelo
inmediato). Δ Desviación: disminución de la desviación respecto al modelo reducido inmediato.
P(>|Chi|): p-valor del test de cociente de verosimilitud (likelihood ratio test). Cuando el análisis ex-
ploratorio de los datos sugiere que la intensidad del patrón no es constante (ver Fig. 3.16), el modelo
más simple que se puede ajustar es el de un proceso de Poisson inhomogéneo (ver sección 3.4.3). El
ajuste de modelos más sencillo en la actualidad consiste en expresar la intensidad condicional del proce-
so en forma loglineal y emplear el método de máxima pseudo-verosimilitud para estimar los paráme-
tros. En el caso del proceso de Poisson (homogéneo o inhomogéneo) la máxima pseudo-verosimilitud es
equivalente a la máxima verosimilitud (Baddeley y Turner 2006) por lo que los diferentes modelos
ajustados al mismo patrón se pueden comparar (siempre que sean anidados) con el test del cociente de
verosimilitud. En la tabla se representan, para cada gremio, las características (grados de libertad y des-
viación residual) de los tres modelos ajustados, desde el más sencillo (Poisson homogéneo) al más com-
plicado (Poisson inhomogéneo con superficie cuadrática). El test de cociente de verosimilitud evalúa si
la disminución en la desviación residual (Δ Desviación) que se obtiene con un modelo más complicado
(con más parámetros) "compensa" la pérdida de grados de libertad (Δ G.l.) respecto al modelo más sen-
cillo. Para todos los gremios, excepto para TPS, los modelos más complicados reducen significativa-
mente la desviación residual. En el caso de TPS, el modelo de Poisson inhomogéneo con una superficie
de orden 1 (x+y) reduce significativamente la desviación respecto al modelo de Poisson homogéneo,
pero la reducción del Poisson inhomogéneo cuadrático [(x+y)2] respecto al inhomogéneo sencillo
(x+y) no es estadísticamente significativa.
Gremio Modelo G.l. Resid. Desv. Resid. ΔG.l. Δ Desviación P(>|Chi|)
PVC homogéneo 1282 893.61
x+y 1280 887.66 2 5.95 0.05
(x + y)2 1277 873.61 3 14.05 0.003

PVL homogéneo 1328 1054.68


x+y 1326 1026.23 2 28.45 6.634e-07
(x + y)2 1323 1012.61 3 13.63 3.462e-03

TS homogéneo 1287 907.33


x+y 1285 905.11 2 2.22 0.33
(x + y)2 1282 898.64 3 6.47 0.09

TPS homogéneo 1301 984.35


x+y 1299 975.18 2 9.18 0.01
(x + y)2 1296 975.03 3 0.15 0.99
Métodos para analizar datos puntuales 121

TS TPS
2.5

0.5 1.0 1.5


1.5
L(r)

L(r)
0.5

-0.5
-0.5

0 5 10 15 20 25 0 5 10 15 20 25

r r

PVL PVC
3

3
2

2
L(r)

L(r)
1

1
0

0 5 10 15 20 25 0 5 10 15 20 25

r r
Figura 3.17. Función L (curva continua gruesa) de los gremios forestales de la parcela de
Chamusquín. En cada caso, las líneas discontinuas gruesas representan las envueltas obte-
nidas tras la simulación de 99 modelos Poisson inhomogéneos ajustados a cada patrón, con
polinomio de segundo grado en x e y como componente de tendencia espacial (excepto en
PVL, de grado 1). La línea discontinua fina representa el valor medio de todos los obteni-
dos en las simulaciones y puede emplearse como referencia de el valor esperado de cada mo-
delo ajustado. Se observa cómo las funciones de los gremios TPS y PVC quedan dentro del
espacio delimitado por sus envueltas, por lo que se puede considerar que el modelo de Pois-
son inhomogéneo los describe razonablemente bien. En el caso de TS y PVL, la función em-
pírica sobresale por encima de las envueltas superiores, lo que sugiere la necesidad de in-
corporar en sus modelos una componente de interacción que dé cuenta del agrupamiento
que se pone de manifiesto en las curvas.
122 MARCELINO DE LA CRUZ ROT

los escasos procesos que puedan modelizar agrupamiento y que ac-


tualmente estén disponibles para ser ajustados mediante máxima
pseudo-verosimilitud, empleamos el proceso de saturación de Geyer
(1999). Se trata de una modificación del proceso de Strauss en el que
cada punto contribuye a la densidad de probabilidad del patrón en una
cantidad β γ min[s, t(xi,X)], donde t(xi, X) representa el número de "veci-
nos íntimos" de xi en el patrón X (vecinos dentro de un radio r estable-
cido) y s el umbral de saturación del proceso. Si s es infinito, el proceso
se convierte en uno de Strauss con parámetro de interacción γ2 mien-
tras que s = 0 genera el proceso de Poisson. Si s es un valor positivo
cualquiera, valores de γ <1 describen un proceso uniforme y de γ >1
un proceso agregado. Independientemente de la mejor o peor inter-
pretación biológica que se le pueda dar a los parámetros del modelo, su
uso en esta ocasión se justifica en la posibilidad de ajustar un modelo
paramétrico que nos permita realizar simulaciones de los procesos
ajustados. Como hay dos parámetros no "canónicos" en el modelo (el
coeficiente de saturación s y el radio de interacción r) construimos un
perfil de pseudo-verosimilitud asignando diferentes combinaciones de
valores para s y r y observando qué combinación proporciona el mejor
ajuste (Fig. 3.18). La simulación de los modelos nuevamente ajustados
para PVL y TPS (Fig. 3.19) ahora sí parece describir razonablemente di-
chos patrones por lo que se podrán emplear en el siguiente paso.

Dado que no se puede emplear la técnica de toroidal shift, para cons-


truir las envueltas que permitan testar la hipótesis de independencia, la
alternativa más razonable es realizar simulaciones de cada uno de los
patrones individuales (o dejar uno fijo y simular el otro) mediante los
modelos que hemos ajustado y calcular la función K bivariada en cada
caso (Fig. 3.20). El análisis de las funciones K cruzadas bajo hipótesis de
independencia pone de manifiesto, por ejemplo, que la distribución de
los pioneros de vida corta (PVC) es independiente de la de los toleran-
tes a la sombra (TS) y tolerantes parciales a la sombra (TPS). Por el con-
trario, el gremio de pioneros de vida larga (PVL) presenta atracción a
corta distancia con los tolerantes a la sombra y parece casi independien-
te de los TPS.
Métodos para analizar datos puntuales 123

TPS

sat=4

sat=10
sat=9
sat=8
sat=7
sat=6
sat=5

-155
sat=1
sat=2
log PL
sat=3
-160
-165

2 4 6 8 10

r
Figura 3.18. Perfil de pseudo-verosimilitud para el ajuste de un proceso de Geyer al patrón del
gremio de especies tolerantes parciales a la sombra (TPS). Como el proceso de Geyer tiene dos
parámetros irregulares (r, la distancia que define dos puntos como vecinos íntimos, y s, la satu-
ración), el perfil se construye ajustando modelos para diferentes combinaciones de valores de r y
s (en el ejemplo, y a partir de las gráficas de la función K, se consideró probar valores para am-
bos parámetros entre 1 y 10). La gráfica representa el logaritmo de la máxima pseudo-verosimi-
litud alcanzada por cada combinación de parámetros. El valor máximo se obtiene para r = 2 y s
= 4, por lo que se fijaron dichos valores en el modelo.

TPS PVL
4
2

3
1

2
L(r)

L(r)

1
0

0
-1

-1

0 5 10 15 20 25 0 5 10 15 20 25

r r
Figura 3.19. Función L (línea gruesa continua) de los gremios TPS y PVL y envueltas (líneas
gruesas discontinuas) procedentes de 99 simulaciones de los procesos de Geyer inhomogéneos
ajustados en cada caso. En esta ocasión la función empírica queda dentro del intervalo definido
por las envueltas por lo que se puede considerar que los modelos ajustados describen razonable-
mente bien cada patrón.
124 MARCELINO DE LA CRUZ ROT

TS vs. PVC TPS vs. PVC


1.5

0.5
1.0

0.0
L12(r)
0.5

-0.5
0.0

-1.0
-0.5

0 5 10 15 20 25 0 5 10 15 20 25

r r

PVL vs. TS PVL vs. TPS


2.0
0.5

1.5
0.0

1.0
L12(r)
-0.5

0.5
-1.0

0.0
-1.5

-0.5

0 5 10 15 20 25 0 5 10 15 20 25

r r
Figura 3.20. Análisis de las relaciones entre patrones individuales de un patrón marcado mul-
tivariado, siguiendo la hipótesis de independencia. La línea gruesa continua representa la fun-
ción L cruzada (o bivariada). Las líneas gruesas discontinuas representan las envueltas obteni-
das tras 99 simulaciones en cada caso. Como se trata de una parcela de contorno irregular y los
patrones individuales tienen una distribución no estacionaria, no es posible realizar las simula-
ciones con el método de thoroidal shift. En su lugar se han simulado 99 realizaciones de los mo-
delos paramétricos ajustados a cada tipo de patrón. La línea fina punteada representa el valor
medio de las funciones simuladas. La distribución de los árboles del gremio de pioneros de vida
corta (PVC) es independiente de la de tolerantes a la sombra (TS) y tolerantes parciales a la
sombra (TPS). El gremio de pioneros de vida larga (PVL) presenta atracción a corta distancia
con los tolerantes a la sombra y es casi independiente de los TPS.
Métodos para analizar datos puntuales 125

3.6. REVISIÓN DE SOFTWARE Y PÁGINAS WEB DE INTERÉS

A medida que los métodos espaciales se asientan dentro de la metodo-


logía ecológica, las herramientas para el análisis de patrones de puntos
van apareciendo con mayor frecuencia dentro de aplicaciones específicas
o generales. Por ejemplo, es posible calcular la función K de Ripley con la
plataforma ARGIS o con MS Excel (instalando el add-in SpPack, Perry
2004). Sin embargo los programas o paquetes de software específicos para
el análisis espacial o, en concreto, el análisis de patrones de puntos suelen
incluir muchas más capacidades. A continuación se presenta una sucinta
revisión de los más populares.

PASSaGE (Pattern Analysis, Spatial Statistics, and Geographic Exegesis


http://www.passagesoftware.net) es un programa de análisis espacial de uso
sencillo, basado en el uso de menús y del ratón, en el que existen varias he-
rramientas para el análisis espacial de puntos. La versión 1 tan sólo calcula
la función K; la versión 2 (en desarrollo en el momento de redactar esta re-
visión) incluirá funciones para el análisis de segundo orden univariado y
bivariado, análisis de tercer orden y análisis direccional (para patrones no
isotrópicos).

Programita (Wiegand y Moloney 2004, http://www.oesa.ufz.de/towi/


towi_programita.html) ha sido desarrollado específicamente para el análisis
de patrones de puntos por Thorsten Wiegand e incluye diversas aplicacio-
nes. Además de las funciones K uni- y bivariadas, calcula la función de co-
rrelación de par, la O-ring, y permite testar una variedad de modelos nu-
los, tanto para patrones univariados como bivariados. Además, permite
realizar análisis teniendo en cuenta la naturaleza no puntual (es decir, de
tamaño finito) y forma irregular de los objetos (por ejemplo, de las plantas
de una comunidad; Wiegand et al. 2006b).

ADS (Analyses des Données Spatiales, http://pbil.univ-lyon1.fr/ADE-4/


ADSWebUS.html; http://wwwlisc.clermont.cemagref.fr/Labo/Produits_ recher-
che/Logiciel/logiciel_ads.htm), es un módulo del software de análisis de da-
tos ecológicos ADE-4. Incluye herramientas para calcular la función K y la
función de correlación de par, tanto en el caso univariado como el bivaria-
do, así como herramientas para representar mapas de densidad local a di-
ferentes escalas y mapas locales de la densidad de segundo orden (Getis y
Franklin 1987). Existe una versión en forma de paquete para la plataforma
126 MARCELINO DE LA CRUZ ROT

R (R Development Core Team 2006), denominado ads (http://ads2r.free.fr/),


que además de las anteriores incluye también herramientas para calcular
la función Km (Madelaine et al 2007).
El software más potente hoy en día para análisis y modelización de
patrones espaciales de puntos está distribuido en forma de paquetes (gra-
tuitos y de código libre), como ads, apoyados en la plataforma R (R Deve-
lopment Core Team, 2005; www.r-project.org; algunos con versiones tam-
bién para la plataforma [de pago] S-plus www.insigthful.com): spatial
(Venables y Ripley 2002), que incluye herramientas para otros tipos de
análisis espacial, permite calcular la función K y sus envueltas, así como si-
mular algunos procesos de puntos. splancs (http://www.maths.lancs.ac.uk/
~rowlings/Splancs/; Rowlingson y Diggle 1993, 2005), además de calcular
las funciones de segundo orden y de distancias al vecino más cercano (K,
F, G) permite simular algunos procesos de puntos, estimar densidades lo-
cales mediante kernels, y calcular funciones K espacio-temporales (Diggle
et al. 1995). Sin duda, hoy en día el paquete más completo y potente es
spatstat (Baddeley y Turner 2005, http://www.spatstat.org); reúne un eleva-
dísimo número de herramientas que permiten crear, manipular y repre-
sentar gráficamente patrones de puntos; realizar análisis exploratorios; si-
mular un variado número de modelos de procesos de puntos (e incluye
herramientas para diseñar nuevos modelos por el usuario); ajustar mode-
los paramétricos (y no paramétricos) y realizar diagnósticos de los mode-
los ajustados mediante el análisis de los residuos. Además del documento
de introducción a spatstat que se suministra con el software y algunos artí-
culos de sus autores (Baddeley y Turner 2005, 2006), el elaborado texto y
los numerosos ejemplos que incluye en la ayuda de sus funciones repre-
sentan una completísima introducción a las técnicas de análisis y modeli-
zación de patrones de puntos. Otra de las fortalezas de spatstat es su ele-
vado ritmo de actualización (varias versiones al año, que incorporan
nuevas funciones, mejoran las existentes, etc). En el momento de redactar
esta revisión, la versión en curso es la 1.11.7, con la que se han realizado la
mayoría de los ejemplos de este capítulo.
Por último, el paquete ecespa, que se encuentra en el CD que acompa-
ña a este libro (dentro de la carpeta “Capítulo 3”), reúne un conjunto de
funciones que, en el momento de redactar esta revisión, no existían en los
paquetes mencionados anteriormente. Así, se incluyen funciones para
realizar el análisis de tablas de contingencia de frecuencias de vecinos cer-
Métodos para analizar datos puntuales 127

canos (Dixon 2002a), para calcular las medidas de suma de marca y de


suma de puntos (mark-sum y point-sum measure, Penttinen 2006), para esti-
mar la función Kmm (Pentinnen 2006), para realizar mapas de densidad lo-
cal de segundo orden (Getis y Franklin 1987, en una aproximación distinta
a la de ads), etc. Además incluye los datos empleados en los ejemplos de
este capítulo (y el código para realizar los análisis) y algunas funciones ac-
cesorias.

AGRADECIMIENTOS

A los profesores de la Universidad Técnica Particular de Loja (Ecua-


dor) Jaime Black, Soledad Bustos, Karla Tapia, y Rafael Vicuña por com-
partir los datos de la parcela experimental de la Estación Biológica Cha-
musquín. Philip M. Dixon (Iowa State University, U.S.A.) facilitó el uso de
los datos de Savannah River Site. Este capítulo se ha escrito gracias al pro-
yecto REMEDINAL (S-0505/AMB/0335) financiado por la Comunidad de
Madrid.

You might also like