You are on page 1of 13

Regresin y

correlacin
La covarianza, sin embargo, no permite
tener una nocin del grado de
asociacin ya que puede variar entre
- y + y no hay modo de saber si es
grande o pequea.
Para poder cuantificar el nivel de
asociacin se utilizan el coeficiente de
determinacin y el coeficiente de
correlacin.
COEFICIENTE DE
DETERMINACIN ( r2
R 2
)
El coeficiente de determinacin es el
termino que mide el poder explicativo del
modelo de regresin, es decir, la parte de
la variacin de Y explicada por la variacin
de X. Se designa como r2. El valor de este
coeficiente vara entre 0 y 1, ya que es
imposible explicar mas del 100%; a mayor
valor de r2 mayor poder explicativo tendr
nuestro modelo. Se calcula as:
2
2
S xy
r
S x2 S y2 0 r2 1
Si lo expresamos en porcentaje, dicho coeficiente nos
indica el % de la varianza de la variable explicada (Y)
que se ha conseguido explicar mediante la regresin
lineal.

Si r2 = 1, existe dependencia; la totalidad de la


variabilidad de Y es explicada por la regresin.
Si r2 = 0, dependencia nula; la variable
independiente no aporta informacin vlida para la
estimacin de la variable dependiente.
Si r2 0.75 , se acepta el modelo ajustado.
CORRELACIN LINEAL
SIMPLE ( r R )
Para ver si existe relacin lineal entre dos
variables X e Y, emplearemos un
parmetro que nos mida la fuerza de
asociacin lineal entre ambas variables. La
medida de asociacin lineal mas
frecuentemente utilizada entre dos
variables es r o coeficiente de
correlacin lineal de Pearson; este
parmetro se mide en trminos de
covarianza de X e Y.
S xy
r
Sx S y -1 r 1
Si R = 1, existe una correlacin positiva perfecta entre X e Y.
Si R = -1, existe una correlacin negativa perfecta entre X e Y.
Si R = 0, no existe correlacin lineal, pudiendo existir otro tipo de
relacin.
Si 1<r< 0 , existe correlacin negativa y dependencia inversa,
mayor cuanto ms se aproxime a - 1.
Si 0<r<1, existe correlacin positiva, y dependencia directa,
mayor cuanto ms se aproxime a 1.
Cuando se estudian dos variables se pretende medir de alguna forma la
asociacin (llamada correlacin) que existe entre ellas.
Una forma de investigar la dependencia es ver cmo se comportan ambas
variables en torno a sus respectivas medias, lo cual se hace mediante la
covarianza. La covarianza permite decidir el tipo de asociacin (positiva o
negativa) sobre la base de su signo pero no permite cuantificar el grado de
asociacin.
El signo del coeficiente de correlacin lineal ser el mismo que el de la
covarianza.
Relacin existente entre los coeficientes de determinacin y correlacin lineal:

r r2
Ejemplo
El gerente tcnico del Acueducto de
una ciudad, desea establecer la
relacin entre el consumo mensual
domiciliario de agua y el tamao de las
familia. Se recogi una muestra
aleatoria con los datos que se
muestran en la tabla adjunta.
Ejemplo
Se da la tabla de alturas en cms de 10
padres e hijos:
Altura X del 16 17 16 18 17 17 17 17 17 16
padre 9 0 7 0 6 5 2 0 9 9
Altura Y del hijo 17 17 17 16 16 16 17 17 17 17
0 6 3 7 8 9 1 0 1 2
Xi 1727
X padres 172,70cms
n 10
Yi 1707
Y hijos 170,70cms
n 10


n 2
Xi X
i 1 184,10
S S S 4,52
n 1 x 10 1 x

60,10
S S 2,58
y 9 y

XiYi 294733
Sxy X Y Sxy 172,7 170,7 7,32
n 10
coeficiente de determinacin
2
2
S xy 2 6 , 59 2 2
r r r 0 , 3179
S x2 S y2 20 , 466 , 68

La variable X explica el 37,79% de la


variable Y
coeficiente de correlacin
S xy 6 , 59
r r r 0 , 5639
Sx S y 4 , 522 , 58

Como 1<r< 0 , existe correlacin


negativa y dependencia inversa.
Al analizar el diagrama de dispersin, este nos
muestra una tendencia lineal, por lo tanto la
decisin de utilizar la regresin lineal es adecuada
como se puede ver en este.
Al estudiar los coeficiente encontramos que el
coeficiente de correlacin es negativo; el coeficiente
de determinacin nos dice que el 31,79% de la
estatura de los hijos (variable dependiente) esta
explicado por la estatura de los padres (variable
independiente) y el coeficiente de correlacin con un
valor de -0.5639 nos dice que una correlacin baja
entre las variables.

You might also like