You are on page 1of 113

ANALISIS DE DATOS

ESTADSTICA DESCRIPTIVA E INFERENCIAL

CONCEPTOS BSICOS DE ESTADSTICA

POBLACIN: es el conjunto de todos los elementos que cumplen

ciertas propiedades, entre las cuales se desea estudiar un determinado


fenmeno UNIVERSO

SEGN LA FINITUD:

Poblacin finita: se conoce el nmero exacto de todos los elementos que componen el conjunto Poblacin infinita: en el supuesto que no se puedan conocer todos los elementos que componen el conjunto

SEGN LA MUESTRA ESCOGIDA

Poblacin objeto: es aquella en la que se desea estudiar cierta informacin

Poblacin inferencial: es aquella para la cual se hacen inferencias, no


necesariamente vlidas

ESCALAS DE MEDIDA NIVELES DE MEDIDA DE LAS VARIABLES*

CONCEPTOS BSICOS DE ESTADSTICA


MUESTRA: si la poblacin es un conjunto, la muestra es un subconjunto de sta. INDIVIDUO: se identifica al individuo de una poblacin o de una muestra como cada uno de los elementos que la componen y de los cuales obtenemos cierta informacin mensurable del fenmeno que se desea estudiar. Podemos considerar individuo un ser humano, un animal, o un evento, por ejemplo acudir a consulta, etc.

CONCEPTOS BSICOS DE ESTADSTICA


CARCTER: es la propiedad o cualidad que presentan los elementos de una poblacin que se desea estudiar

Caracteres cualitativos: son aquellos que no pueden medirse numricamente, es decir, que no pueden cuantificarse. Caracteres cuantitativos: son aquellos que pueden medirse numricamente, es decir, pueden cuantificarse Modalidad o clase de un carcter: son las distintas formas en las que dicho carcter puede presentarse.

Ej: el carcter sexo presenta dos modalidades hombre y mujer.

CONCEPTOS BSICOS DE ESTADSTICA


La frecuencia absoluta de una modalidad de un carcter es el nmero de elementos en estudio que presentan esa modalidad de ese carcter. La frecuencia relativa de una modalidad de un carcter es el cociente entre la frecuencia absoluta de dicha modalidad y el nmero total de elementos que constituyen la muestra. Porcentaje de una modalidad: se obtiene multiplicando la frecuencia relativa por 100.

NIVELES DE MEDIDA DE LAS VARIABLES

Medicin supone establecer una regla para hacer corresponder los nmeros con las formas en las que se presenta una caracterstica de los objetos o individuos. Con niveles de medida nos referimos a las formas en que se emplean los nmeros:

Nominal: asignar nmeros supone etiquetar o poner nombres. Los objetos difieren entre s. Ordinal: establecemos una ordenacin, creciente o decreciente, entre los objetos. Sabemos que es mayor o menor, pero no cunto. Intervalo: las distancias numricas iguales suponen distancias idnticas respecto a la cualidad que se est midiendo. Razn: a las caractersticas del nivel de medida de intervalo, se aade la existencia del cero absoluto (cero supone ausencia de rasgo medido), no hay valores negativos.

ESCALAS DE MEDIDA
ESCALAS DE MEDIDA
Nominal

OPERACIONES LGICAS
Establecer la igualdad o desigualdad

CONDICIONES

ESTADSTICOS APLICABLES
Frecuencias Moda Coefic. De contigencia Mediana Percentiles Correlacin lineal

Permutacin

Ordinal

Determinar lo >, lo =, o lo <

Mantenimiento del orden

De intervalo

Determinar la igualdad o diferencia de intervalo


Establecer igualdad de razones

Unidad constante

Media aritmtica Desviacin tpica Correlaciones


Media geomtrica Media armnica Coeficiente de variacin

De razn o proporcin

Cero absoluto

ANLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDA

Anlisis de la Fiabilidad

La precisin o fiabilidad de una medida: ausencia de variabilidad. Una medicin es fiable cuando se obtienen resultados iguales en mediciones sucesivas. Medicin de temperatura: 36, 30, 40 (no es fiable). Orgenes de la variabilidad:

1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc).


2.Variabilidad debida a discrepancias entre los observadores (variaciones inter-observador e intra-observador). 3.Variabilidad por cambios en las caractersticas sometidas a medicin (variaciones biolgicas, conductuales, ambientales, etctera), La fiabilidad se valora realizando dos o ms mediciones independientes del mismo atributo y comparando luego los hallazgos.

Anlisis de la Fiabilidad

La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una forma de medicin nueva. Se deben realizar esfuerzos para hacer ms fiable la informacin recogida, pero ms que intentar conseguir una fiabilidad total, se debe poder cuantificar el grado de error cometido en la medicin. Cuando en el diseo de un estudio se planifique la medicin de las variables seleccionadas, se deben adoptar medidas para conseguir una mnima variabilidad en los resultados. Cmo?: - definiciones operativas claras,

- instrucciones precisas sobre la recogida de informacin,


- entrenamiento de los observadores, - procedimientos de medidas estndar previamente utilizados y - tcnicas de enmascaramiento.

Anlisis de la Fiabilidad en variables cualitativas

Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado

Coincidieron 20 negativos en el test1 tb son negativos en el test2. 20 + en test 1 tambin son + en el test2. Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+) No coincidieron 5 + en test 1 despus en test 2 son negativos No coincidieron 5 negativos en test 1 despus en test 2 son +

Anlisis de la Fiabilidad en variables cualitativas


Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)

Chi-cuadrado indica si una medicin coincide con la otra o no.

Anlisis de la Fiabilidad en variables cuantitativas


Analizar/ Escalas / Anlisis de fiabilidad

La matriz de correlaciones indica que existe una alta relacin entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.

Anlisis de la Fiabilidad en variables cuantitativas


Analizar/ Escalas / Anlisis de fiabilidad

VALIDEZ Y FIABILIDAD
DE LA ESCALA DE MEDIDA
Medida de adecuacin muestral de KaiserMeyer-Olkin. Prueba de esfericidad de Bartlett Chi-cuadrado aproximado gl Sig. ,752 64,101 10 ,000

Anlisis de la Variabilidad (varianza) de una medicin


Identificar un pequeo nmero de factores que explique la mayora de la varianza observada.
Componente 1

PRETEST dolor cabeza-cuello PRETEST dolor columna dorsal PRETEST dolor columna lumbar PRETEST dolor MM.II. PRETEST dolor MM.SS.

,771 ,773 ,589 ,555 ,852

Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeas (% de varianza en mis variables generada por esos factores).
La prueba de esfericidad de Bartlett me indica si mis variables estn relacionadas o no. Grfico de sedimentacin: varianza asociada a cada factor. Tpicamente muestra la clara ruptura entre la pronunciada pendiente de los factores ms importantes y el descenso gradual de los restantes (los sedimentos).

Analizar/ Reduccin de datos / Anlisis factorial / KMO y prueba de esfericidad de Barlett

ESTADSTICA DESCRIPTIVA UNIVARIANTE

ESTADSTICA DESCRIPTIVA

Una distribucin de frecuencias consiste en presentar deforma ordenada todos los valores que contiene la variable objeto de estudio, as como la

frecuencia con que aparecen

En el SPSS:
Analizar/ Estadsticos descriptivos/ Frecuencias

ESTADSTICA DESCRIPTIVA

Una serie de datos quedan perfectamente definidos si se dan sus tablas de

frecuencias o se realizan unas representaciones grficas adecuadas.

A veces es ms simple y suficientemente representativo obtener unas medidas que los resuma.

A tales medidas se les denomina medidas de distribucin de frecuencias.


medidas de tendencia central, medidas de posicin, medidas de dispersin y medidas de forma.

ESTADSTICA DESCRIPTIVA
MEDIDAS DE TENDENCIA MEDIDAS DE DISPERSIN o VARIABILIDAD Desviacin tpica MEDIDAS DE POSICIN Mediana Cuartiles Asimetra Curtosis Deciles Centiles Percentiles

MEDIDAS
DE FORMA

CENTRAL
Media Mediana Moda

Varianza
Amplitud

Analizar/ Estadsticos descriptivos/ Frecuencias Analizar/ Estadsticos descriptivos/ Descriptivos Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE TENDENCIA CENTRAL

MEDIA: se define como el valor obtenido como

resultado de sumar todas las puntuaciones y


dividir por el nmero de las mismas.

Para su clculo, los datos han de estar medidos, al menos, en una escala de intervalo.
Es tadsticos rea_de_c ontac to_pi_iz quierdo N V lidos 48 Perdidos 0 Media 126,6731 Mediana 124,2000 Moda 80,08a Suma 6080,31 a. Ex is ten varias modas. Se mos trar el menor de los v alores .

Solo para variables cuantitativas.

MEDIDAS DE TENDENCIA CENTRAL


MEDIANA: es el valor perteneciente o no a la muestra que divide en dos partes iguales un conjunto de puntuaciones.

Deja tantas observaciones por debajo como por encima de l.


Es el percentil 50 Su clculo es posible cuando los datos se miden en escala ordinal, al menos (variables cuantitativas). La mediana en un nmero de datos impar, corresponde al valore central. Cuando el nmero de observaciones es par, la mediana es el promedio de las dos observaciones centrales.
Es tadsticos

La mediana es una medida de tendencia central que


no es sensible a los valores atpicos (a diferencia de la media).

rea_de_c ontac to_pi_iz quierdo N V lidos 48 Perdidos 0 Media 126,6731 Mediana 124,2000 Moda 80,08a Suma 6080,31 a. Ex is ten varias modas. Se mos trar el menor de los v alores .

MEDIDAS DE TENDENCIA CENTRAL


MODA: es el valor que ms se repite dentro de un

conjunto de puntuaciones.
Valor con mayor frecuencia absoluta. Si varios valores comparten la mayor frecuencia

de aparicin, cada una de ellas es una moda.


SPSS da la + pequea de esas modas mltiples. Se calcula con cualquiera de los
Es tadsticos rea_de_c ontac to_pi_iz quierdo N V lidos 48 Perdidos 0 Media 126,6731 Mediana 124,2000 Moda 80,08a Suma 6080,31 a. Ex is ten varias modas. Se mos trar el menor de los v alores .

niveles de medida (variables cualitativas o cuantitativas).

MEDIDAS DE TENDENCIA CENTRAL

Suma: es la suma o total de todos los


valores, a lo largo de todos los casos que no tengan valores perdidos .

Es tadsticos rea_de_c ontac to_pi_iz quierdo N V lidos 48 Perdidos 0 Media 126,6731 Mediana 124,2000 Moda 80,08a Suma 6080,31 a. Ex is ten varias modas. Se mos trar el menor de los v alores .

MEDIDAS DE TENDENCIA CENTRAL

La mediana es menos sensible que la media a la variacin de las observaciones muestrales. La media est muy influenciada por observaciones muy grandes o muy pequeas con relacin a las restantes que componen la muestra, y sin embargo la mediana no. La mediana es el fundamento de diversas tcnicas estadsticas, pero el nmero de estas es mucho menor que el de las tcnicas basadas en la media. La mediana es ms recomendable que la media cuando la distribucin de frecuencias

es muy asimtrica, es decir, cuando existen una o muy pocas observaciones en uno de
los extremos.

La media no debe ser calculada cuando las observaciones no sean numricas. La moda tiene el inconveniente de no ser necesariamente nica. En el caso de variables cualitativas y dado que este tipo de datos no permite el clculo

ni de la media ni de la mediana, el clculo de la moda es forzoso.

Las unidades en que vienen expresadas la media, mediana y moda corresponden a las de la variables en estudio.

MEDIDAS DE DISPERSIN
Indican si los valores de las observaciones (si los valores de las modalidades de un carcter) se encuentran muy prximas entre s o muy dispersas.
Ejemplo: podemos obtener una media de 5 con los siguientes datos: 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay mayor variabilidad. pero como podemos medir la variabilidad?

DESVIACIN TPICA: es la raz cuadrada de la varianza.


VARIANZA: suma de los cuadrados de las desviaciones respecto a la media dividida por el nmero de casos menos 1. Es el promedio de las desviaciones de las puntuaciones respecto a la media aritmtica.
Analizar/ Estadsticos descriptivos/ Frecuencias Analizar/ Estadsticos descriptivos/ Descriptivos Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE DISPERSIN

AMPLITUD: es la diferencia entre el valor mximo y el mnimo de un conjunto de puntuaciones.

Mnimo. Valor ms pequeo de una variable numrica. Mximo. El mayor valor de una variable numrica.

Error Tpico de la media. Medida de cunto puede variar el


valor de la media de una muestra a otra, extradas stas de la misma distribucin.
Analizar/ Estadsticos descriptivos/ Frecuencias Analizar/ Estadsticos descriptivos/ Descriptivos Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE DISPERSIN

Todas las medidas de dispersin son siempre positivas. Todas las medidas de dispersin se anulan cuando todas las observaciones muestrales son idnticas. La amplitud presenta el inconveniente de utilizar nicamente dos observaciones: las dos ms extremas. La varianza tiene el inconveniente de tener como unidades las de la variable

original al cuadrado. Esta es la razn por la que se emplea la desviacin


tpica.

La varianza y la desviacin tpica son muy sensibles a la variacin de cada una de las observaciones, ya que su valor depende de todos y cada uno de los valores de los datos obtenidos en la muestra.

La varianza y la desviacin tpica son fundamentos de muchas tcnicas estadsticas. No se recomienda el uso de la varianza o de la desviacin tpica en aquellos casos en los que no se recomiende el uso de la media como medida de

tendencia central.

MEDIDAS DE FORMA

Estas medidas nos informan sobre la distribucin de las puntuaciones Describen la forma y la simetra de mi distribucin de datos. Dos medidas: (asimetra y curtosis)

ASIMETRA:

Si valores de media, mediana y moda coinciden distribucin simtrica Cuando se alejan hacia la izda asimetra negativa Hacia la dcha asimetra positiva
Estadsticos rea_de_contacto_pi_izquierdo N Vlidos Perdidos Asimetra Error tp. de asimetra Curtosis Error tp. de curtosis

Analizar/ Estadsticos descriptivos/ Frecuencias Analizar/ Estadsticos descriptivos/ Descriptivos Analizar/ Estadsticos descriptivos/ Explorar

48 0 ,173 ,343 ,077 ,674

MEDIDAS DE FORMA

ASIMETRA:

Una distribucin que tenga una asimetra positiva significativa tiene una cola derecha larga. Una distribucin que tenga una asimetra negativa significativa tiene una cola izquierda larga. Un valor de la asimetra mayor que el doble de su error tpico se asume que indica una desviacin de la simetra. Cuando al trazar una vertical, en el diagrama de barras o histograma, de una variable (discreta o continua) por la media, esta vertical es el eje de simetra, la distribucin es simtrica. Simtrica, cuando a ambos lados de la media aritmtica haya el mismo n de valores de la variable, equidistantes de dicha media dos a dos, y tales que cada par de valores equidistantes tiene la misma frecuencia absoluta.

MEDIDAS DE FORMA

Clculo de la ASIMETRA:

coeficiente de FISHER (g1):

Si g1 > 0 la distribucin ser asimtrica positiva o a derechas (desplazada hacia la derecha). Si g1 < 0 la distribucin ser asimtrica negativa o a izquierdas (desplazada hacia la izquierda). Si g1 = 0 la distribucin ser simtrica.

coeficiente de PEARSON (Ap):

solo es cierto cuando la distribucin tiene las siguientes condiciones: Unimodal, campaniforme y moderada o ligeramente asimetrica.

MEDIDAS DE FORMA

CURTOSIS: Medida del grado en que las observaciones estn agrupadas en torno al punto central Nos indica el apuntamiento o escarpamiento de la distribucin de puntuaciones.

Estadsticos rea_de_contacto_pi_izquierdo N Vlidos Perdidos Asimetra Error tp. de asimetra Curtosis Error tp. de curtosis

48 0 ,173 ,343 ,077 ,674

Analizar/ Estadsticos descriptivos/ Frecuencias o Analizar/ Estadsticos descriptivos/ Descriptivos Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE POSICIN

Estas medidas nos informan de la situacin de una puntuacin respecto al grupo en el que se encuentra includo.

Mediana: es tb una medida de tendencia central, aqu divide la distribucin de la variable en dos partes iguales. Cuartiles: son los 3 valores que divide en 4 partes idnticas el conjunto de puntuaciones

Deciles: son los 9 valores que divide en 10 partes idnticas el conjunto de puntuaciones Centiles: es dividir la distribucin de la variable en 100 partes iguales 99 valores, pertenecientes o no a la distibucin de datos, que dividen a esta en 100 partes iguales.

Percentiles: es asignar a un valor de la variable el porcentaje de individuos que deja por debajo de l.

Tales medidas son informacin de las m simas (por ciento, dcimas y cuartas) partes del total de puntuaciones del grupo.

MEDIDAS DE POSICIN
Esta dsticos edad N
Estadsticos edad N Percentiles Vlidos Perdidos 5 25 50 75

Perc entiles

Esta dsticos
52 0 47,30 55,00 62,00 66,75

edad N Perc entiles

Vlidos Perdidos 25 50 75

52 0 55,00 62,00 66,75

Vlidos Perdidos 10 20 25 30 40 50 60 70 75 80 90

52 0 50,30 54,60 55,00 55,00 57,20 62,00 64,00 65,10 66,75 68,00 70,00

Analizar/ Estadsticos descriptivos/ Frecuencias Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE POSICIN
eda d Frec uencia 1 1 1 1 1 1 3 1 6 3 2 2 1 1 5 2 5 2 1 3 1 4 1 1 2 52 Porc entaje 1,9 1,9 1,9 1,9 1,9 1,9 5,8 1,9 11,5 5,8 3,8 3,8 1,9 1,9 9,6 3,8 9,6 3,8 1,9 5,8 1,9 7,7 1,9 1,9 3,8 100,0 Porc entaje vlido 1,9 1,9 1,9 1,9 1,9 1,9 5,8 1,9 11,5 5,8 3,8 3,8 1,9 1,9 9,6 3,8 9,6 3,8 1,9 5,8 1,9 7,7 1,9 1,9 3,8 100,0 Porc entaje acumulado 1,9 3,8 5,8 7,7 9,6 11,5 17,3 19,2 30,8 36,5 40,4 44,2 46,2 48,1 57,7 61,5 71,2 75,0 76,9 82,7 84,6 92,3 94,2 96,2 100,0 Vlidos 45 46 48 49 50 51 52 54 55 56 57 58 60 61 62 64 65 66 67 68 69 70 71 72 76 Total

Esta dsticos edad N Perc entiles Vlidos Perdidos 25 50 75

52 0 55,00 62,00 66,75

Analizar/ Estadsticos descriptivos/ Frecuencias

LA DISTRIBUCIN NORMAL

Abraham de Moivre (1667-1754) Carl Friedrich Gauss (1777-1855)

PROPIEDADES DE LA DISTRIBUCIN NORMAL

Tiene una nica moda, que coincide con su media y su mediana. La curva normal es asinttica al eje de abscisas (rea total bajo la curva es = 1) Es simtrica con respecto a su media.

La distancia entre la lnea trazada en la media y el punto de inflexin de la curva es igual a una desviacin tpica.
El rea bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estndar de la media es igual a 0,95. La forma de la campana de Gauss depende de los parmetros: media y desviacin tpica

DISTRIBUCIN NORMAL ESTNDAR

Corresponde a una distribucin de media 0 y varianza 1.

CONTRASTE DE NORMALIDAD

Determina si se ajusta a una normal o no (paramtrica o no paramtrica). Esto determina el tipo de pruebas estadsticas a desarrollar, para establecer correlaciones o contrastar hiptesis que establezcan la existencia de una relacin causa efecto. Los coeficientes de asimetra de Fisher y de Pearson indican si una distribucin se ajusta a una normal ( = 0). Existen tres pruebas estadsticas que nos permiten determinar si una distribucin de datos se ajusta a una normal o no:

el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no paramtricas/ K-S de 1 muestra) (variables cuantitativas). El test de Kolmogorov-Smirnov con un nivel de significacin de Lilliefors (en el SPSS Analizar/ Estadsticos descriptivos/ Explorar se abre un cuadro de dilogo en el que podemos meternos en la pestaa grficos, una vez que entramos en grficos marcamos la cuadrcula Grficos con pruebas de normalidad). (variables cuantitativas).

CONTRASTE DE NORMALIDAD
Coeficiente de asimetra de Fisher Variables cuantitativas Test de Kolmogorov-Smirnov Sig. mayor de 0,05 se ajusta a la normal. Menor a 0,05 no se ajusta a la normal.

Las variables pretest, postest e ndice de mejora no se distribuyen de forma normal. Tendremos que usar pruebas no paramtricas (aunque si el tamao de la muestra es grande la violacin de los supuestos paramtricos es tolerable.

Analizar/ Pruebas no paramtricas/ K-S de 1 muestra

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov Variables cuantitativas

La variable nmero de sesiones en todos los casos no se distribuyen de forma normal.


Pero los grado I y grado II si se distribuyen de forma normal
Analizar/ Pruebas no paramtricas/ K-S de 1 muestra

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de significacin de Lilliefors
Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/ Grficps con prueba de normalidad

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de significacin de Lilliefors
Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/ Grficps con prueba de normalidad

Grfico Q-Q normal de rea_de_contacto_pi_izquierdo

Grfico Q-Q normal sin tendencias de rea_de_contacto_pi_izquierdo

0,75

0,50
2

Normal esperado

Desv. de normal

0,25

0,00

-2

-0,25

-4

80
80 100 120 140 160 180 200

100

120

140

160

180

200

Valor observado

Valor observado

REPRESENTACIN GRFICA DE LA INFORMACIN

CONDICIONES GENERALES QUE DEBEN CUMPLIR


Deben indicar claramente las escalas y unidades de medida.
Deben explicarse por s solas. Deben contribuir a clarificar el material presentado.

GRFICO DE SECTORES Y GRFICO DE BARRAS


Analizar/ Estadsticos descriptivos/ Frecuecias/ Grficos

Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativas Grfico de Sectores: Contribucin de las partes a un todo (frecuencia o %). El ngulo central es proporcional a la frecuencia absoluta.

Grfico de Barras: muestra la frecuencia de cada valor como una barra diferente permitiendo comparar las categoras de forma visual (frecuencia o %).

HISTOGRAMA
Representacin de una variable cuantitativa que muestra la concentracin relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que estn medidos dichos datos. Cuentan con barras, pero se representan a lo largo de una escala de intervalos iguales La altura de cada barra es el recuento de los valores que estn dentro del intervalo para una variable cuantitativa. Los histogramas muestran la forma, el centro y la dispersin de la distribucin.
El histograma se construye sobre unos ejes de coordenadas.

Se sealan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo.
A partir de esto se construyen rectngulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo.

POLGONO DE FRECUENCIAS
El polgono de frecuencias resulta de la unin mediante una lnea quebrada de los puntos medios de las bases superiores de los rectngulos de un histograma. No es aplicable a las variables cualitativas

CAJA Y BIGOTES

En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos.

La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja).
La lnea negra que viene remarcada se corresponde con el percentil 50 o mediana. Los bigotes representan los casos mximo y mnimo. (ojo cuando aparezca un * no se corresponden con mnimo y mximo).

DIAGRAMA DE TALLO Y HOJAS

Tallo

Hojas

GRFICO DE NORMALIDAD

Grfico Q-Q normal sin tendencias de rea_de_contacto_pi_izquierdo

0,75

0,50

Desv. de normal

0,25

0,00

-0,25

80

100

120

140

160

180

200

Valor observado

DIAGRAMA DE BARRAS AGRUPADAS Y BARRAS DE ERROR

GRFICO DE LNEAS Y DIAGRAMA DE DISPERSIN

DOS DIAGRAMAS DE LNEAS SUPERPUESTOS Y DIAGRAMA DE DISPERSIN (REGRESIN LOGSTICA)

ESTADSTICA DESCRIPTIVA BIVARIANTE

RELACIN ENTRE VARIABLES Y REGRESIN


330

El establecimiento de la correlacin supone el primer paso para predecir una variable a partir de la otra.
100 90 80 70 60 50 40 30 140 150 160 170 180 190 200

280 230 180 130 80

Incorrelacin

30 140

150

160

170

180

190

200

Incorrelacin
80 70 60 50 40 30 20 10 0 140 150 160 170 180 190 200

Fuerte relacin directa.

Cierta relacin inversa

Correlacin positiva

Correlacin negativa

COEFICIENTES DE CORRELACIN

Si las dos variables son:

Distribuciones Paramtricas (de intervalo u ordinal): coeficiente de correlacin de Pearson


Analizar/ Correlaciones/ Bivariadas

Distribuciones No Paramtricas (de intervalo u ordinal): coeficiente de correlacin Spearman


Analizar/ Correlaciones/ Bivariadas

Variables Nominales: coeficiente de contingencia


Analizar/ Estadsticos descriptivos/ Tablas de contingencia

COEF. CORREL. DE PEARSON


(VARIABLES CUANTITATIVAS PARAMTRICAS)

Medida de la asociacin lineal entre dos variables. Sus valores se encuentran comprendidos entre -1 y 1. El signo del coeficiente indica la direccin de la relacin y su valor absoluto indica la fuerza.

Los valores mayores indican que la relacin es ms estrecha. Un valor positivo indica que a puntuaciones por encima de la media en una de las variables le corresponden puntuaciones tambin por encima de la media en la otra variable, y viceversa.

Un valor negativo seala que a puntuaciones por encima de la media en una de las variables le corresponden puntuaciones tambin por debajo de la media en la otra variable, y viceversa.

Un valor igual o cercano a cero indica que no existe relacin lineal entre las variables, aunque puede existir cualquier otro tipo de relacin no lineal.
Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. DE PEARSON


(VARIABLES CUANTITATIVAS PARAMTRICAS)

Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. RHO DE SPEARMAN


(VARIABLES CUANTITATIVAS NO PARAMTRICAS)

Versin no paramtrica del coeficiente de correlacin de Pearson


Se basa en los rangos de los datos en lugar de hacerlo en los valores reales. Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el supuesto de normalidad.

El signo del coeficiente indica la direccin de la relacin y el valor absoluto del coeficiente de correlacin indica la fuerza de la relacin entre las variables.

Los valores absolutos mayores indican que la relacin es mayor. Es el coeficiente de correlacin de Pearson, pero aplicado despus de transformar las puntuaciones originales en rangos.

Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlacin de Pearson.

Se utiliza como alternativa al de Pearson cuando las variables estudiadas son ordinales y/o se incumple el supuesto de normalidad.

Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. RHO DE SPEARMAN


(VARIABLES CUANTITATIVAS NO PARAMTRICAS)

Analizar/ Correlaciones/ Bivariadas

TABLAS DE CONTIGENCIA
Entramos

en el SPSS EN Analizar/ Estadsticos descriptivos/ Tablas de

Contingencia. En el cuadro de dilogo que se abre seleccionamos la variable que queremos que vaya en las columnas y cual en las filas. Despus entramos en la pestaa estadsticos que nos permite 3 opciones fundamentalmente.

Permiten establecer si existe correlacin entre:

Dos

variables

cualitativas

nominales

(dicotmicas

etc).

Cualquiera de las 2 puede ir en columnas o filas.

Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir en columnas o filas.

Una variable cuantitativa y otra nominal. Mejor poner la cuantitativa en las filas y la cualitativa en las columnas.

TABLAS DE CONTIGENCIA

Permite obtener el estadstico Chi-cuadrado.

Permite obtener correlaciones (coeficiente de correlacin de Pearson


o Rho de Spearman).

En el caso de comparar DOS VARIABLES NOMINALES pedimos el

coeficiente de contingencia.

Medida de asociacin basada en chi-cuadrado. El valor siempre est comprendido entre 0 y 1 (tambin puede ser negativo).

El valor 0 indica que no hay asociacin entre las variables. Valores cercanos a 1 indican que hay gran relacin entre las variables.

TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES NOMINALES)

Ejemplo: matriz faltar a clase (si o no) segn sexo (26 hombres frente a 26 mujeres).

TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)

En el caso de comparar dos variables ordinales pedimos en


Estadsticos descriptivos/ Tablas de Contingencia/ Estadsticos

Analizar/

ordinal el

coeficiente Gamma.

Gamma es una medida de asociacin simtrica entre dos variables ordinales cuyo valor siempre est comprendido entre -1 y 1.

Los valores prximos a 1, en valor absoluto, indican una fuerte relacin entre las dos variables.

Los valores prximos a cero indican que hay poca o ninguna relacin

entre las dos variables.

TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) segn edad del sujeto (nio, adolescente, joven, adulto joven, adulto mediana edad).

TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) segn edad del sujeto (nio, adolescente, joven, adulto joven, adulto mediana edad).

TABLAS DE CONTIGENCIA
(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Cuando una variable es categrica y la otra es cuantitativa empleamos el estadstico Eta. La variable categrica debe codificarse numricamente. Eta. Medida de asociacin cuyo valor siempre est comprendido entre 0 y 1. El valor 0 indica que no hay asociacin entre la variable de fila (la cuantitativa) y de columna (la cualitativa nominal). Los valores cercanos a 1 indican que hay gran relacin entre las variables. Se calculan dos valores de eta: uno trata la variable de las columnas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo.

TABLAS DE CONTIGENCIA
(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Ejemplo: matriz piernas (relacin entre el ngulo tibio-tarsiano anterior con el suelo o ngulo Rebollo y la longitud del miembro inferior medida como variable nominal dicotmica: pierna corta o larga).

TABLAS DE CONTIGENCIA
Las Tablas de Contingencia, adems de todo lo anterior, nos permiten obtener otros muchos estadsticos, entre ellos el NDICE KAPPA DE COHEN que ya hemos comentado y que nos permite calcular la FIABILIDAD DE LA

MEDICIN
CUALITATIVA.

DE

UNA

VARIABLE

ESTADSTICA INFERENCIAL

HIPTESIS ESTADSTICAS

Cuando investigamos, buscamos generalizar los resultados, lo cual va a ser posible con la estadstica inferencial. Partimos de hiptesis cientficas, que son traducidas a hiptesis estadsticas. Las hiptesis estadsticas son PROPOSICIONES ACERCA de parmetros de la poblacin, tales como la media, varianza, correlacin, etc. Dos tipos de hiptesis estadsticas:

Hiptesis nula (H0): generalmente supone la negacin de la hiptesis de contraste. Hiptesis alternativa (H1): supone la afirmacin de la hiptesis que deseamos someter a contraste.

Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM) H0 IH IM H1 IH > IM

DECISIN ESTADSTICA

Basndonos en la distribucin muestral del estadstico de contraste podemos conocer cul es el valor esperado para esa distribucin bajo la hiptesis nula. En consecuencia, compararamos nuestro valor observado con el esperado para decidir si rechazamos o no la hiptesis nula.

Regin de rechazo: regin formada por los valores que se alejan del valor esperado bajo H0. Regin de aceptacin: regin formada por los valores que no se alejan tanto del valor esperado bajo H0. Valores crticos: valores del estadstico de contraste que delimitan la regin del rechazo

DECISIN ESTADSTICA

Contraste bilateral: cuando los valores se alejan de lo esperado bajo H0,


por ser muy grandes y por ser muy pequeos.

Contraste unilateral: cuando los valores se alejan de lo esperado bajo

H0, solo por ser muy grandes o slo por ser muy pequeos.

Nivel de significacin: probabilidad de que una muestra genere un valor del estadstico de contraste que est dentro de la regin de rechazo.

Nivel de confianza: probabilidad de que una muestra genere un valor del


estadstico de contraste que est fuera de la regin de rechazo, es decir que est dentro de la regin de aceptacin (1- ).

DECISIN ESTADSTICA

Cuatro situaciones posibles al realizar un test de hiptesis:

Realidad
H0 verdadero H0 Falso

H1 Falso
Acepto H0
Acierto

H1 verdadero
Error O De Tipo II

Decisin que toma el investigador

Rechazo H1
Rechazo H0 Acepto H1
Error O De Tipo I

Acierto (Potencia )

DECISIN ESTADSTICA
Error : Probabilidad de aceptar H1 siendo falsa. Error : Probabilidad de aceptar la H0 siendo falsa. Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patologa determinada. H0: No padecer la enfermedad. H1: Padecer la enfermedad.

Error probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.
Al valor 1- se le denomina NIVEL DE CONFIANZA.

Error , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO.
Al valor 1- se le denomina POTENCIA DEL CONTRASTE.

PROCESO DE DECISIN ESTADSTICA


1. 2. 3. 4. 5.

Formular hiptesis nula (H0) y alternativa (H1) Fijar el nivel de significacin (0,05 o 0,01) Elegir el estadstico adecuado de contraste (t-student ...) Determinar el valor del estadstico de contraste Comprobar si el valor observado este dentro de la regin de aceptacin (es decir que es < o > que o lo que es lo mismo que este por encima o por debajo del nivel de significacin 1).

6.

Decidir si se rechaza o se mantiene la H0 (si me sale 0,02 acepto la H1 y rechazo la H0). Interpretar el resultado de acuerdo con el problema

7.

NIVEL DE SIGNIFICACIN

NIVEL DE SIGNIFICACIN p

El nivel de significacin fija el lmite mximo que puede


tomar esta p, mientras que el grado de significacin es la probabilidad (el %) exacta de que habiendo aparecido estos

valores sea cierta la H0

PRUEBA PARAMTRICA O NO PARAMTRICA? SUPUESTOS PARAMTRICOS

Pruebas paramtricas: referidas poblacionales. SIGUEN LA NORMAL.

parmetros

Pruebas no paramtricas: no hacen ningn supuesto acerca de la forma en la que fue extrada la muestra de la poblacin. NO SIGUEN LA NORMAL.

SUPUESTOS PARAMTRICOS:
1.

Las variables han de ser CUANTITATIVAS continuas o discretas, medidas, al menos, en una escala de intervalo. La muestra procede de una poblacin en la que las variables SIGUEN una distribucin NORMAL. Se cumple la homocedasticidad de varianzas (es decir IGUALDAD DE VARIANZAS). La MUESTRA tiene un tamao GRANDE

2.

3.

4.

( 30)

PRUEBA PARAMTRICA O NO PARAMTRICA? SUPUESTOS PARAMTRICOS


SUPUESTOS PARAMTRICOS: 5. Las observaciones son independientes entre s. La seleccin de un caso cualquiera de la poblacin con miras a incluirlo en la muestra no debe afectar a las posibilidades de incluir a cualquier otro caso, y la puntuacin que se asigne a un caso cualquiera no debe influir en la puntuacin que se asigne a cualquier otro caso.

PRUEBA PARAMTRICA O NO PARAMTRICA?


Las pruebas estadsticas de carcter PARAMTRICO son MS PODEROSAS para rechazar la cuando H0 debe ser rechazada. Las PRUEBAS NO PARAMTRICAS son menos poderosas para rechazar la cuando H0 debe ser rechazada, pero ofrecen la ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS SUPUESTOS PARAMTRICOS. Las variables cuantitativas pueden ser paramtricas o no paramtricas. Las variables cualitativas difcilmente pueden ser paramtricas.

PRUEBAS PARAMTRICAS

Prueba T de Student

Para una muestra


Para muestras independientes

Para muestras relacionadas

ANOVA de un factor
Analizar/ Comparar medias/

Prueba T de Student para una muestra

El procedimiento Prueba T para una muestra contrasta si la media de una sola variable difiere de una constante especificada.

Ejemplos. Un investigador desea comprobar si la puntuacin media del coeficiente intelectual de un grupo de alumnos difiere de 100.

O bien, un fabricante de copos de cereales puede tomar una muestra de envases de la lnea de produccin y comprobar si el peso medio de las muestras difiere de 1 Kg con un nivel de confianza al 95%.

Analizar/ Comparar medias/ Prueba T para una muestra

Prueba T de Student para una muestra


Ejemplo: comparo si el nmero de sesiones que reciben los sujetos difiere de 9.

Analizar/ Comparar medias/ Prueba T para una muestra

Prueba T de Student para muestras independientes


La Prueba T para muestras independientes compara las medias de dos grupos de casos de una variable. Los sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores. Este caso no ocurre si se comparan los ingresos medios para hombres y mujeres. El sexo de una persona no se asigna aleatoriamente. Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar sometidas a la influencia de factores como los estudios (y no solamente el sexo). La prueba emplea una variable de agrupacin con dos valores para separar los casos en dos grupos. La variable de agrupacin puede ser numrica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta (como s y no). Tambin puede usar una variable cuantitativa, como la edad, para dividir los casos en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de menos de 21 aos y otro de ms de 21)

Analizar/ Comparar medias/ Prueba T para muestras independientes

Prueba T de Student para muestras independientes


Ejemplo: analizo el nmero de sesiones que son necesarias para que desaparezca el dolor al aplicar TENS continuo frente a TENS pulstil.

Analizar/ Comparar medias/ Prueba T para muestras independientes

Prueba T de Student para muestras relacionadas


El procedimiento Prueba T para muestras relacionadas compara las medias de dos variables de un solo grupo. El procedimiento calcula las diferencias entre los valores de las dos variables de cada caso y contrasta si la media difiere de 0. Ejemplo. En un estudio sobre la efectividad analgsica de una corriente TENS, se evala el dolor (escala E.V.A.) a todos los pacientes al comienzo del estudio (PRETEST), se les aplica un tratamiento y se evala el dolor otra vez (POSTEST). LAS DOS VARIABLES deben ser CUANTITATIVAS.

Analizar/ Comparar medias/ Prueba T para muestras relacionadas

Prueba T de Student para muestras relacionadas

Analizar/ Comparar medias/ Prueba T para muestras relacionadas

Prueba Anova de un factor

El procedimiento ANOVA de un factor genera un anlisis de varianza de un factor para una variable dependiente cuantitativa respecto a una nica variable de factor (la variable independiente). El anlisis de varianza se utiliza para contrastar la hiptesis de que varias medias son iguales. Esta tcnica es una extensin de la prueba t para dos muestras.

Adems de determinar que existen diferencias entre las medias me dice qu medias difieren y cuanto difieren.
Dos contrastes: a priori y post hoc. ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MS MODALIDADES (UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.

Analizar/ Comparar medias/ Anova de un Factor

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/ 1) Prueba Chi-cuadrado:
podra utilizarse para determinar si una bolsa de caramelos contiene igual proporcin caramelos de color azul, marrn, verde, naranja, rojo y amarillo o tambin podra utilizarse para ver si una bolsa de caramelos contiene un 5% de color azul, un 30% de color marrn, un 10% de color verde, un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo.

2) Prueba Binomial: compara las frecuencias observadas de las dos categoras de


una variable dicotmica con las frecuencias esperadas en una distribucin binomial con un parmetro de probabilidad especificado. Ejemplo: lanzo una moneda al aire 40 veces y anoto los resultados (cara o cruz). Debera haberme salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la prueba binomial me sale que no hay significacin, es decir que la moneda est trucada.

3) Prueba de Rachas: contrasta si es aleatorio el orden de aparicin de dos valores de una variable. Una racha es una secuencia de observaciones similares.
Una muestra con un nmero excesivamente grande o excesivamente pequeo de rachas sugiere que la muestra no es aleatoria. Ejemplo encuesta en la que todo los sujetos son mujeres.

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la
distribucin de una variable se ajusta a una distribucin terica determinada, que puede ser la NORMAL, la uniforme, la de Poisson o la exponencial.

5) Prueba para dos muestras independientes (U de Mann-Whitney): es la


versin no paramtrica de la prueba T Student para muestras independientes (equivale a esta prueba). Compara dos grupos de casos existentes en una variable. Por ejemplo: analizo la disminucin del dolor al aplicar TENS continuo frente a TENS pulstil.

6) Prueba para Varias muestras independientes. H de Kruskal-Wallis: es


el anlogo no paramtrico del anlisis de varianza (ANOVA) de un factor. Nos permite comparar la efectividad de un tratamiento con dos o ms modalidades (una en cada uno de los grupos 2 o +).

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Signos de Wilcoxon, Prueba de McNemar ... etc.: es la anloga no paramtrica a la prueba T Student para muestras relacionadas. Podemos usar la
prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIN AL POSTEST) AL APLICAR UN TRATAMIENTO. Tambin podemos emplear la PRUEBA DE MCNEMAR: prueba no paramtrica para DOS VARIABLES DICOTMICAS RELACIONADAS. Contrasta los cambios en las respuestas utilizando la distribucin de chi-cuadrado. Es til para detectar cambios en las respuestas debidas a la intervencin experimental en los diseos del tipo "antes-despus". Para las tablas cuadradas de mayor orden se informa de la prueba de simetra de McNemar-Bowker.

LA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramtrica para DOS VARIABLES ORDINALES RELACIONADAS. Se trata de una extensin de la prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribucin de chi-cuadrado, y es til para detectar cambios de respuesta causados por intervencin experimental en diseos antes-despus.

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/

8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran.


Prueba de Friedman es el equivalente no paramtrico de un diseo de medidas repetidas para una muestra o un anlisis de varianza de dos factores con una observacin por casilla. Las variables en este caso se medirn en una escala ordinal. Diferencias entre dos series de puntuaciones. Prueba Q de Cochran Contraste no paramtrico de la hiptesis de que varias variables dicotmicas relacionadas tienen la misma media. Las variables medirn al mismo individuo o a individuos emparejados. Las variables en este caso se medirn en una escala nominal u ordinal. Analizamos la existencia de diferencias entre dos series de puntuaciones.

PRUEBAS NO PARAMTRICAS
MUESTRAS
Una muestra

ESCALA DE MEDIDA
intervalo

TIPO DE CONTRASTE
La forma de distribucin una variable (bondad de ajuste)

PRUEBA NO PARAMTRICA
Kolmogorov-Smirnov

Dos muestras

Ordinal

Diferencias entre muestras

Wilcoxon (muestras relacionadas) Mann-Whitney (muestras independientes)


Chi-cuadrado

K muestras independientes

Nominal Diferencias entre muestras Ordinal Nominal u ordinal Diferencias entre dos series de puntuaciones Diferencias entre muestras

Kruskal-Wallis Cochran Friedman

K muestras relacionadas

Ordinal

Analizar/ Pruebas no paramtricas/

PRUEBAS PARA DOS MUESTRAS INDEPENDIENTES


VD Supuestos Pruebas 2 Chi-cuadrado Objetivos
La distribucin de casos en las categoras de la VD cambia en funcin de los valores de la VI?

Cualitativa

VI cualitativa 2 muestras independientes

Ordinal

U de MannWhitney t-Student F del Anova t2 = F t o F de Welch

Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?


Las medias de la VD son similares en los distintos valores de la VI? Las medias de la VD son similares en los distintos valores de la VI? Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?

VD Normal Homocedstica VD Normal no Homocedstica

Cuantitativa

VD NO Normal

U de MannWhitney

CALCULANDO EL TAMAO DEL EFECTO

Prueba

Medida

Frmula

Peq Medio Grande

Chi-cuadrado

Coeficiente de Contingencia

r2 = 2 = 2/N

0,10

0,30

0,50

t de Student

Diferencia de medias estandarizada

d = 2t/gl

0,20

0,50

0,80

F del Anova (F de Snedecor)

Eta o R cuadrado

R2 = F/(F+gl)

0,01

0,06

0,14

DATOS QUE DEBEMOS APORTAR EN UN INFORME

Prueba
Chi-cuadrado

Datos de la prueba
2 (gl,N = ...) = ... , p = ... , 2 = ...

Datos descriptivos
Frecuencias o porcentajes de las categoras de una variable en funcin de las categoras de la otra

t de Student

t (gl) = ... , p = ... , d = ...

Medias y desviaciones tpicas de los distintos grupos

F del Anova (F de Snedecor)

F (gl1,gl2) = ... , p = ... , R2= ...

Medias y desviaciones tpicas de los distintos grupos

Nota: si el contraste es a una cola hay que sealarlo indicando p (a una cola) = ... / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01)

DATOS QUE DEBEMOS APORTAR EN UN INFORME

El contraste general entre los dos tratamientos continuo y pulstil, es decir, el anlisis de los ndices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedsticas ambas distribuciones de datos), as como la prueba U de Mann-Whitney muestra que existe una diferencia estadsticamente significativa entre ambos tratamientos, siendo mejor la pulstil (p < 0.05). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseo, FLevene (1, 899) = 15,567 (p = 0.000). El grupo tratado con corriente pulstil (media 1,99 DT 0,60) obtuvo una disminucin del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una cola) = 0.000. Empleado para determinar el tamao del efecto el programa effect size calculator (disponible en: http://www.uccs.edu/~faculty/lbecker/) obteniendo d = 1,8588. Se trata de un valor de tamao del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulstil. Este valor tambin lo hemos obtenido al emplear la frmula: d = 2t/gl

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Comprobacin del supuesto de homocedasticidad ( = 0,05): Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseo, FLevene (1, 94) = 0,009 (p = 0,923). Contrastes bidireccionales ( = 0,05) con F y t: Se encontraron diferencias estadsticamente significativas en el nmero de sesiones efectuadas entre el grupo tratado con tens pulstil (M = 8,35 DT = 3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p = 0,010, R2 = 0,069 [calculado R2 =F/(F+gl)=7,005/(7,005+94)].

Se encontraron diferencias estadsticamente significativas entre el grupo que recibi tens pulstil (M = 8,35 DT = 3,605) y el que recibi tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55.

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Contrastes unidireccionales ( = 0,05) con F y t: El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p (a una cola) = 0,005, R2 = 0,069. El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55. Contrastes bidireccionales ( = 0,01) con F y t: Aunque el tamao del efecto encontrado result moderado R2 = 0,069 las diferencias entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F(1,94) = 7,005, p = 0,010 Aunque el tamao del efecto encontrado result moderado d = 0,55 las diferencias entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) = 2,647, p = 0,010.

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Tras un procedimiento de muestreo no probabilstico a conveniencia, nuestra muestra est conformada por un total de 44 individuos, con una edad media de 39,6818 aos con una desviacin tpica (DT en adelante) de 5,97581 y los valores mnimos y mximos son 23 y 49 aos. Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadstico de Shapiro-Wilk = 0,955 (p = 0,081). Si consideramos cada grupo por separado la variable edad tambin se distribuye normalmente. Estadstico de Shapiro-Wilk para el grupo control = 0,934 (p = 0,147). Estadstico de Shapiro-Wilk para el grupo experimental = 0,967 (p = 0,633). Como el nmero de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carcter paramtrico como no paramtrico para determinar la presencia/ausencia de sesgos en la distribucin de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogneos en relacin a la edad de los sujetos (grupo control media 39.8636 aos DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseo, FLevene (1, 42) = 0,138 (p = 0,712). El grupo control presenta una media de edad no significativamente superior a la del grupo experimental, con una t de Student (42) = 0,2 p (a una cola) = 0,843. En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 (p = 0,689).

DATOS QUE DEBEMOS APORTAR EN UN INFORME

De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma grfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribucin por sexos de nuestros pacientes en los dos grupos analizados. La proporcin de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X2 (1,44) = 0,000, p = 1,000.

Clasificacin de las investigaciones en Salud


INVESTIGACION BIOMEDICA

INVESTIGACIONES EN SALUD
Frenk,J. (Modificado por Toledo, G.) INVESTIGACION EN SALUD PUBLICA

(Nivel subindividual)
INVESTIGACION CLINICA

(Nivel individual) (Nivel poblacional)

EN SISTEMAS DE SALUD
ORGANIZACION DE S. S. POLITICAS DE SALUD

EPIDEMIOLOGICA
OBSERVACIONALES EXPERIMENTALES O DE INTERVENCION

(Nivel micro intraorganizacional)


EN SERVICOS DE SALUD

(Nivel macro o interorganizacional)


DESCRIPTIVAS

EN POLITICAS DE SALUD

ANALITICAS

ENSAYOS CLINICOS

Estudios de incidencia Estudios de prevalencia

Estudios de mortalidad proporcional Estudios ecolgicos

Encuestas Transversales
Estudios de Casos y controles Estudios de Cohorte

ENSAYOS DE CAMPO

ENSAYOS COMUNITARIOS

el investigador manipul la exposicin?

Si
Estudio experimental
asignacin aleatoria?

No
Estudio observacional
grupo de comparacin?

Si
Ensayo clnico controlado aleatorizado

No

Si
Estudio analtico

No

Ensayo controlado no aleatorizado

Estudio descriptivo

direccin? Estudio de cohorte Estudio de casos y controles efecto exposicin efecto Estudio de corte tranversal exposicion = efecto

exposicin

Temporalidad de los estudios epidemiologicos

Estudio de cohorte
Exposicin

Efecto

Estudio de caso-control
Exposicin Efecto

Estudio de caso-control
Exposicin
Efecto

Tiempo

You might also like