Professional Documents
Culture Documents
1.1. INTRODUCCIÓN
¿Qué es la estadística actual?
La estadística actual no sólo es un conjunto de técnicas para resumir y transmitir información
cuantitativa, sino que sirve también, y fundamentalmente, para hacer inferencias, generalizaciones y
extrapolaciones de un conjunto relativamente pequeño de datos a un conjunto mayor. Una de las
aplicaciones más importantes de éstas técnicas es en la actualidad el propio trabajo de adquisición
de conocimiento mediante la investigación científica, a la que ha proporcionado unos poderosos
instrumentos para el análisis de datos y la toma de decisiones.
Mientras que la estadística descriptiva puede abordarse sin conocimientos previos, aparte del
álgebra elemental, para el estudio de la estadística inferencial es imprescindible adquirir unas
nociones básicas de probabilidad.
Las técnicas más sofisticadas y desconocidas de la estadística son las que se utilizan para extraer
conclusiones de poblaciones a partir de la observación de unos pocos casos son las que integran la
estadística inferencial.
Por ejemplo: si nos interesa conocer la opinión de los vecinos de nuestro bloque acerca de una serie
de cuestiones que afectan a la convivencia, podemos pasarles una encuesta. Con los datos recogidos
podremos calcular promedios, porcentajes, etc., y con estos resúmenes numéricos podremos
transmitir la información contenida en esos datos brutos utilizando los formatos compactos y de gran
calidad informativa que nos proporciona la estadística descriptiva. Sin embargo, el estudio se agota
en esos mismos datos; es por tanto, un estudio descriptivo. Si, por el contrario, queremos hacernos
una idea de las opiniones de los habitantes de nuestra ciudad sobre esas mismas cuestiones, no
podremos preguntarles a todos. Probablemente utilizaríamos la estrategia de seleccionar un grupo
de vecinos, pasarles la encuesta, y a partir de sus resultados hacernos una idea de cuál es el estado de
opinión del conjunto de los habitantes de la ciudad. En este caso se trata de hacer inferencias acerca
de toda la ciudad a partir de los datos observados en unos pocos de sus habitantes; se trata por tanto,
de un estudio inferencial.
A los elementos que componen una población se los denomina entidades estadísticas o individuos.
Pueden ser personas, animales, objetos o, simplemente, números.
Dependiendo del número de elementos que la compongan, la población puede ser finita o infinita.
● Poblaciones finitas: los elementos se pueden contar, obteniendo un número finito. Ejemplo: los
niños que estudian EGB en la ciudad de Madrid, los niños invidentes españoles, las empresas de tal
lugar, etc.
● Poblaciones infinitas: teóricamente no tienen un límite, y por muchas observaciones que
realicemos siempre podríamos recolectar algunas más. Ejemplos: el número de lanzamientos
posibles de un dado, el conjunto de los números pares, etc.
En la estadística hay procedimientos de cálculo que varían dependiendo de que la población sea
finita o infinita. En esta estadística se trabaja generalmente con poblaciones infinitas.
Cuando un investigador aborda un trabajo empírico debe definir claramente la población sobre la
cual se interesa. La población ha de ser el marco o conjunto de referencia sobre el cuál van a recaer
las conclusiones e interpretaciones, y éstas no pueden exceder ese marco.
Que las poblaciones sean, por lo general, muy numerosas, suele hacer inaccesible la descripción de
sus propiedades. De ahí que se trabaje fundamentalmente con muestras.
La muestra nos va a ofrecer una serie de datos que podemos ordenar, simplificar y describir. Pero el
objetivo fundamental es el de poder describir la población de partida mediante lo que podamos
encontrar en la muestra. Para poder extraer esas conclusiones lo más importante es que las muestras
de observaciones sean representativas.
Con respecto a la muestra, lo que nos interesa es extraer conclusiones generales acerca de “la
eficacia de la técnica, la forma general de responder en la tarea”.
El objetivo más importante de toda investigación suele ser la extracción de conclusiones acerca de la
población a partir de la información contenida en la muestra observada, es claro que ese objetivo sólo
se alcanzará plenamente en la medida en que esa información se aproveche correctamente y en
todas sus posibilidades.
Por ello un primer objetivo de la estadística descriptiva consiste en conseguir resúmenes de los datos
e índices compactos y de gran calidad informativa.
Glosario:
● Población de individuos: el conjunto de todos los elementos sobre los cuales se observa una o
más características de interés. Frecuentemente se alude a ella como población objetivo, en razón de
que sobre ella recae el objetivo o interés del estudio. Ejemplos: -El conjunto de aspirantes al empleo
del restaurante X, -El conjunto de las escuelas primarias públicas de Lomas de Zamora y -El conjunto
de semanas a lo largo del último año.
● Muestra de individuos: es un subconjunto o parte de una población de individuos. Ejemplos: -
Los cinco primeros entrevistados, -Las escuelas nro. 12, 16, 17, 23, 34, 55, 62, 70, 84, y 97 de Lomas de
Zamora y -Las semanas 1, 6, 12, 19, 27, 36, y 46 del último año.
Notas:
*Es importante destacar que, tanto cuando hablamos de las unidades como de la población objetivo
o de individuos o de la muestra de individuos, éstas entidades deben ser situadas en el espacio
(situación geográfica) y en el tiempo (año o fecha).
*Para favorecer la representatividad de las muestras, la llamada teoría del muestreo ha desarrollado
diversidad de métodos. Uno de ellos es la selección al azar de las unidades muestrales, como las
escuelas del ejemplo, pueden haber sido seleccionadas por sorteo.
● Población de observaciones: es el conjunto de todos los valores que puede tomar una variable
estadística sobre la población de individuos. Nótese que sobre una misma población de individuos se
pueden definir muchas poblaciones de observaciones, tantas como variables de interés.
● Muestra de observaciones: es el conjunto de valores que toma una variable estadística sobre
una muestra de individuos, es decir, es un subconjunto de la población de observaciones.
Las poblaciones pueden caracterizarse a partir de unas constantes denominadas parámetros. Como
los parámetros son desconocidos (normalmente), una de las tareas de la estadística es la de hacer
conjeturas lo más acertadas posibles acerca de esas cantidades análogas obtenidas en las muestras,
que se denominan estadísticos.
El estrés medio de los seres humanos o el tiempo medio que invertiría un sujeto en todas las
hipotéticas realizaciones de una tarea, son ejemplos de parámetros. Como éstas cantidades son
desconocidas, normalmente hacemos conjeturas sobre ellas a partir de cantidades similares
obtenidas en las muestras.
Si la muestra utilizada es realmente representativa, probablemente la media poblacional, o
parámetro, no difiera mucho de la media muestral, o estadístico.
Los parámetros y estadísticos no sólo son medias, sino que pueden ser otros tipos de cantidades,
como porcentajes. Los parámetros se suelen representar por letras griegas, mientras que los
estadísticos se suelen simbolizar por letras latinas (X, S, P,Etc.). En la primera fase de una investigación
se obtienen los estadísticos y en la segunda se utilizan los valores obtenidos para hacer inferencias
acerca de los parámetros.
En la práctica basta con obtener una única muestra y, por tanto, a partir de ella tratar de estimar el
parámetro. Para ello es fundamental que la muestra sea representativa de la población y que el
estadístico calculado reúna la información necesaria y suficiente para que a partir de él podamos
decir algo acerca de “la verdadera eficacia del tratamiento, el verdadero porcentaje de los que se
rehabilitaron con ese nuevo método”, es decir, el parámetro.
Glosario:
Cuando estudiamos las entidades que conforman una población nos interesamos por alguna de las
propiedades de sus elementos, y esas propiedades adoptan distintas variedades. Estas son
característica y modalidad.
1.3. MEDICIÓN
La estadística realiza sus funciones sobre números que representan las modalidades.
Atribuyendo números a las características podemos ver que unos individuos exhiben en iguales o
diferentes medidas a estas. Ejemplo: las modalidades que adopta la variable estatura son tales que se
podría decir que una determinada modalidad es una estatura superior a otra determinada
modalidad.
El objetivo de la medición de una característica es conectar un sistema relacional empírico (porque
se refiere a entidades y relaciones reales) y un sistema relacional numérico, de tal forma que las
relaciones entre las entidades se reflejen en las relaciones entre los números que los simbolizan.
La medición estudia las condiciones de construcción de representaciones numéricas, y los modelos
desarrollados para la medición se llaman escalas.
ESCALA ORDINAL: números que nos permiten inferir relaciones del tipo “mayor que” o “menor que”.
Se hace una medición a nivel ordinal. Además de poder decir que son diferentes en una
característica, también puede decirse cual es mayor y cual es menor, es decir, que los objetos pueden
ser ordenados.
En la psicología son muchas las características cuya medición se considera que está a nivel ordinal,
pues son muchos los casos en los que lo único que puede decirse es que un individuo es más
extravertido que otro, que un niño es más hiperactivo que otro, o que el aprendizaje es más rápido
con el método A que con el método B.
Transformación admisible: todas aquellas que preserven las características de la escala ordinal, o sea
todas aquellas transformaciones que cumplan con la condición de ser transformaciones crecientes.
ESCALAS CUANTITATIVAS:
ESCALA DE INTERVALO: Sea una función lineal de la magnitud real que ese objeto presenta en la
característica en cuestión. Se cuenta con una unidad de medida, sin importar que tanto esta unidad
de medida como el origen de la escala sean arbitrarios. Podemos extraer consecuencias acerca de la
igualdad o desigualdad de diferencias. Es decir, que si la diferencia entre los números asignados a
otros dos, entonces también son iguales las diferencias en magnitudes entre estos dos pares. Y, por el
contrario, una mayor diferencia entre los números asignados implica una mayor diferencia entre las
magnitudes representadas.
La principal limitación de este tipo de escalas es que, aunque cuenta con una unidad de medida, no
tiene un cero absoluto. Es decir, el número cero no representa realmente la ausencia de esa
característica. En el caso de la temperatura es claro que el valor cero no significa temperatura nula,
puesto que pueden observarse temperaturas inferiores. La siguiente escala supera esta limitación.
ESCALA DE RAZÓN: posee una condición que cumple la función de preservar el significado del valor
cero, de forma que siempre represente la ausencia de esa característica. Ejemplo: medición de
distancia, cuando se dice que algo mide cero significa lo mismo. La consecuencia fundamental de la
presencia de un origen absoluto, y no arbitrario, es que además de poder extraer conclusiones acerca
de la igualdad o desigualdad de diferencias, también puede hablarse de la igualdad o desigualdad de
razones.
TIPO INFORMACIÓN DEDUCTIBLE TRANSFORMACIÓN ADMISIBLE EJEMPLOS
NOMINAL Relaciones “igual que” “distinto que” Aplicaciones inyectivas Sexo, estado civil, diagnóstico clínico.
ORDINAL Relaciones “mayor que” “igual que” Funciones crecientes Dureza, nivel socioeconómico, grado
de asertividad
Las variables estadísticas se clasifican de acuerdo con el tipo de valores que pueden tomar en:
● VARIABLE CUALITATIVA: Es aquella que cuyos valores expresan atributos. Ejemplo: Tipo
de trastorno que presentan los pacientes de un servicio de salud mental (de ansiedad,
de sueño, de atención, etc.).
● VARIABLE CUASI-CUANTITATIVA: Es aquella cupos valores indican un orden o jerarquía.
Ejemplo: Nivel de deserción escolar (bajo,medio,alto).
● VARIABLE CUANTITATIVA: Es aquella cuyos valores expresan cantidades numéricas.
Dentro de las variables cuantitativas se diferencian las llamadas discretas de las
continuas. Se consideran discretas aquellas cuyos valores son puntos aislados; esto es,
cuando todo valor tiene un consecutivo (dos valores son consecutivos cuando no puede
existir un valor de la variable entre ellos). Ejemplo: Cantidad de palabras recordadas. Se
consideran continuas a las variables que, al menos teóricamente, pueden tomar
cualquier valor dentro de un intervalo numérico. Ejemplo: Tiempo de reacción ante un
estímulo. Hay variables que no son discretas ni continuas.
Las variables estadísticas se simbolizan por letras mayúsculas latinas: U, V, X, Y,..., generalmente con
un subíndice i , que sirve para indicar, además, la posición que ocupa un determinado valor en el
conjunto de valores de una variable. El símbolo Xn lo utilizamos para identificar el último valor de la
serie. el Xi se dice que es el término general y representa a cualquier valor de la serie.
Las variaciones de las conductas son previsibles cuando se conoce la situación, el momento o la
persona.
Las variaciones de las conductas son imprevisibles a partir de las informaciones de las que dispone el
observador.
*El psicólogo utiliza a menudo el método estadístico precisamente porque este método permite
tratar con más eficacia las observaciones que presentan a la vez variaciones imprevisibles y
variaciones previsibles.
Las variaciones son imprevisibles porque no están asociadas a ninguna fuente de variación
sistemática. No se ha introducido ninguna diferencia sistemática entre dos presencias de la misma
bombilla roja ó entre el exámen de un niño de 9 años y el exámen de otro niño de 9 años. Las
variaciones imprevisibles se atribuyen así a un conjunto de fuentes fortuitas de variación para el
experimentador o el encuestador.
Las variaciones son previsibles porque están asociadas a fuentes sistemáticas de variación. Si el
experimentador compara 20 tiempos de reacción frente a un estímulo que debe escogerse entre tres
estímulos posibles (bombillas roja, verde, amarilla), es porque prevé que el proceso mental, más
complejo en la segunda experiencia agrandará de manera significativa los tiempos de reacción. Si el
encuestador compara 100 niños de 9 años con otros 100 niños de 10 años es porque prevé que este
cambio sistemático sustituirá la fuente de una variación significativa de los resultados en el test.
2.1. INTRODUCCIÓN
Cuando la cantidad de números recolectados es demasiado grande, y éste es el caso más frecuente,
se hace difícil hacer una inspección directa que sea realmente comprensiva. Por eso el primer paso
suele consistir en reorganizar los datos utilizando un formato más inteligible que la simple
yuxtaposición de números. Un instrumento para conseguir esa ordenación es la denominada
distribución de frecuencias, y a partir de ella es frecuente también construir representaciones
gráficas.
>los valores que toma la variable se ponen en la primera columna, estos valores van creciendo de
abajo hacia arriba.
>Para la columna de frecuencias absolutas contamos el número de veces que se repite cada valor (la
suma de ni es igual a n (total).
>Para la columna de frecuencias relativas dividimos cada frecuencia absoluta por n. La suma de las pi
es igual a 1.
>Para las frecuencias absolutas acumuladas sumamos para cada valor su frecuencia absoluta más la
absoluta acumulada del valor anterior. Frecuencia absoluta acumulada del valor mayor es igual a n.
>Para las frecuencias relativas acumuladas dividimos cada frecuencia absoluta acumulada por n. La
frecuencia relativa acumulada tiene que ser igual a 1.
Xi ni na na pa
4 1 0,05 20 1,00
3 3 0,15 19 0,95
2 7 0,35 16 0,80
1 6 0,30 9 0,45
0 3 0,15 3 0,15
n 20 1,00
*En las frecuencias absolutas comprobamos que el tamaño de familia más frecuente en la muestra es
el de dos hijos, seguido de sólo un hijo. las familias sin hijos no son muy frecuentes. De la columna de
frecuencias relativas acumuladas deducimos que sólo una proporción de 0,20 de las familias (una de
cada 5) supera la barrera de la autorreproducción, es decir, tiene más de dos hijos. Lo que significaría
que por cada pareja de adultos nacería un par de hijos.
Glosario:
FRECUENCIA ABSOLUTA: Es la cantidad de veces que cada uno de los valores de la variable aparece
en un conjunto de datos. La suma de todas las frecuencias absolutas coincide con la totalidad de los
datos.
INTERVALOS
>AGRUPACIÓN EN INTERVALOS: Consiste en formar grupos de valores consecutivos, llamados
intervalos, y poner uno de estos grupos en cada fila, en lugar de poner cada valor individual por
separado. Cada uno de estos grupos suele indicarse en la distribución de frecuencias poniendo los
valores mayor y menor incluidos en él.
En las distribuciones de frecuencias con valores agrupados en intervalos aparecen algunos
elementos nuevos:
>Se llama intervalo a cada uno de los grupos de valores que ocupan una fila en una distribución de
frecuencias.
>Se llaman límites aparentes o informados de un intervalo a los valores mayor y menor que puede
adoptar la variable dentro de ese intervalo, según el instrumento de medida utilizado.
>Se llaman límites exactos de un intervalo a los valores máximos y mínimos incluidos en el intervalo y
que podrían medirse si se contara con un instrumento de precisión perfecta.
>Se llama punto medio de un intervalo a la suma de sus límites exactos partido por dos.
>Se llama amplitud de un intervalo a la diferencia en su límite exacto superior y su límite exacto
inferior. suele representarse con la letra I.
Para hacer una distribución de frecuencias no hay unas normas muy rigurosas. Nosotros vamos a
plantear tres reglas y algunas directrices. Las tres normas son las siguientes:
>El intervalo superior debe incluir al mayor valor observado.
>El intervalo inferior debe incluir al menor valor observado.
>Cada intervalo debe incluir el mismo número de valores.
Intervalos abiertos: no se pone límite inferior del intervalo que incluye los valores menores, el límite
superior del intervalo que incluye los valores mayores, o no se pone ninguno de los dos.
Problema de los bordes: suele añadirse al listado de valores distintos observados algunos otros
valores no observados en la muestra. Estos valores, por supuesto, tendrán frecuencias absolutas
iguales a cero, pero nos permitirán conseguir un número de valores distintos que sea múltiplo del
número de intervalos que queremos hacer.
Supuestos de distribución intra intervalo: Concentración en el punto medio: se tratan a los dos datos
como si fueran dos valores iguales (64 y 69 pm: 66,5) en el punto medio de su intervalo. Esta forma de
actuar supone una cierta cantidad de error. A medida que los intervalos tienen frecuencias mayores
estos errores se van reduciendo, dado que mientras que la sustitución de algunos de ellos por el
punto medio supone un incremento artificial, en otros lo que se produce es una reducción artificial y,
en general, tenderán a compensarse los dos tipos de error. Distribución homogénea: los incluidos en
un intervalo se reparten con absoluta uniformidad en su interior… Es decir, que si en un intervalo hay
cinco observaciones, aceptaremos que sus valores son los que tendríamos si partieramos al intervalo
en cinco subintervalos de igual amplitud y asignáramos a cada individuo el punto medio de un
intervalo.
a) Diagrama de rectángulos:
Se colocan en el eje de abscisas las modalidades (o los números que las representan), y en el eje de
ordenadas las frecuencias (pueden ser absolutas o relativas, simples o acumuladas) sobre cada
modalidad se levanta un rectángulo cuya altura es la frecuencia correspondiente. La base de los
rectángulos será arbitraria, pero igual para todos. Se usa para variables nominales (ej. Estado civil) y
variables ordinales (ej. Nivel cultural).
c) Pictograma: Son representaciones en forma de círculos en las que estos son divididos en secciones
cuya superficie es proporcional a la frecuencia de la modalidad correspondiente. A veces, cuando el
interés del trabajo lo aconseja, se separa una de las secciones para captar la atención del lector.
f) Polígono de frecuencias: Para variables discretas, el polígono de frecuencias es la figura que resulta
de unir los extremos superiores de las que hubieran sido las barras si se hubiera hecho una gráfica
como la del diagrama de barras. Si se trata de una variable continua, podemos decir lo mismo pero
referido a los puntos medios de las bases superiores de los rectángulos correspondientes a un
hipotético histograma construido con esos mismos datos.
3.1. INTRODUCCIÓN
Para hacer valoraciones relativas a, por ejemplo, puntajes se pueden utilizar las llamadas medidas de
posición, que son índices diseñados especialmente para revelar la situación de una puntuación con
respecto a un grupo, utilizando a éste como un marco de referencia.
Son 99 valores de la variable que dividen a la distribución en 100 secciones, cada una conteniendo a
la centésima parte de las observaciones. Representación: Ck (k: 1,2,3,...,99)
Con C28 se simboliza a aquella puntuación que deja por debajo de sí al 28 por 100 de las obs. y que es
superada por el 72 por 100. Si disponemos de esos 99 valores podremos hacer valoraciones relativas a
las puntuaciones individuales. Por ejemplo, si un individuo obtiene una puntuación 35 y sabemos que
C90: 35, quiere decir que la puntuación de ese sujeto coincide con la del centil 90 y por tanto, supera a
las 90 por 100 de las obs. del grupo de referencia, mientras que es superada por el 10 por 100. <<El
valor al que no llega el n por 100 de un grupo grande de mediciones, y es superado por el otro 100-n,
se dice que es su n percentil>> (Galton, 1885)
Dado que los valores correspondientes a los centiles se determinan en función de los porcentajes de
observaciones, normalmente las distancias entre ellos, en términos de puntuación, no serán
constantes. Generalmente las distancias entre los centiles intermedios serán menores que las
distancias entre centiles extremos. Normalmente los centiles se obtienen sobre datos agrupados en
intervalos, y en su cálculo se asume el supuesto de distribución homogénea intraintervalo.
Fórmula: Ck: Li + I/n1 . (k . n/100 - na)
Ck es la puntuación correspondiente al centil k. - Li es el límite exacto inferior al intervalo crítico.
I es la amplitud de los intervalos. - ni es la frecuencia absoluta del intervalo crítico.
k es el porcentaje de observaciones inferiores a Ck. - n es el número de observaciones hechas.
na es la frecuencia absoluta acumulada hasta Li.
3.3.1. DECILES
Son nueve puntuaciones que dividen a la distribución en 10 partes. Cada una conteniendo al 10 por
100 de las observaciones. Representación: Dk (k: 1, 2,..., 9) Ejemplo: D 4 es la puntuación que deja por
debajo de sí al 40 por 100 de las observaciones y por encima de sí al 60 por 100. Equivalencia: C 10: D1
C20: D2... Misma fórmula se calcula en centiles.
3.3.2. CUARTILES
Son tres puntuaciones que dividen a la distribución en cuatro partes, cada una conteniendo al 25 por
100 de las observaciones. Representación: Qk (k: 1,...3) Ejemplo: Q1 es la puntuación que deja por
debajo de sí al 25 por 100 de las observaciones y por encima de sí al 75 por 100.
4.1. INTRODUCCIÓN
Para informar de un conjunto de valores suelen obtenerse algunos índices, que actúan como
resúmenes numéricos de las observaciones hechas. REPRESENTAN LA MAGNITUD GENERAL
OBSERVADA. También sirven para comparar conjuntos de valores.
Dado que no se pueden comparar distribuciones completas, lo que se comparan son ciertas
características resumen de éstas.
Índices más utilizados para describir esa característica de las distribuciones de frecuencias. Son
valores únicos que capten y comuniquen mejor la distribución como un todo.
Es el índice de tendencia central más utilizado. Se define como la suma de los valores observados,
dividida por el número de ellas. Se representa con la misma letra que representa la variable, en
mayúsculas, con una barra horizontal encima. Por tanto si recogemos n observaciones de la variable
X, entonces la media de los valores observados es: (c/raya) ✖: 𝚺X1/n donde se deduce que 𝚺 X1: n.✖
Con 10 observaciones, la suma de los 10 valores observados es igual a 63, su media sería:
✖: 63/10: 6,3
Una interpretación geométrica de esto dice que la media se comporta como si fuera el centro de
gravedad de la distribución.
4.2.1. CÁLCULO EN UNA DISTRIBUCIÓN DE FRECUENCIAS
Para hacer los cálculos se asume el supuesto de concentración en el punto medio del intervalo.
✖: (𝚺n1.X1)/n Se diferencia de la otra fórmula en que: el sumatorio no tiene n sumandos, sino tantos
como intervalos tenga la distribución. Y las X1 no son datos directos, sino los puntos medios de los
intervalos. Si se trata de una distribución de frecuencias pero los datos no están agrupados en
intervalos, la segunda diferencia no se aplicaría.
4.3. LA MEDIANA
Toma aquella puntuación que es superada por la mitad de las observaciones, pero no por la otra
mitad. Representación: Mdn. Su cálculo tiene sentido desde el nivel ordinal. Es el valor que supera y es
superado como máximo, por la mitad de las observaciones. Para su cálculo podemos encontrarnos
en dos casos generales, aquel en que nos encontramos con un número impar de observaciones y
aquel en que nos encontramos con un número par de ellas. En el primero se toma como mediana el
valor central; en el segundo se da la circunstancia de que cualquier valor comprendido entre los dos
centrales cumple con la definición de la mediana. Cálculo de centiles: la mediana corresponde al C 50 ,
al D5 y al Q2 por lo tanto, la mediana como el C50 si es continua. Si es discreta se acumulan las
frecuencias porcentuales en ambos sentidos.
4.4. LA MODA
Puede usarse en todos los niveles de medición. Es el valor más frecuentemente observado. El valor de
la variable con mayor frecuencia absoluta. Representación: Mo.
>Como norma, para obtener la moda ordenamos los valores de menor a mayor para así facilitar la
identificación del de mayor frecuencia. El caso más directo y sencillo, elegir el valor que más veces se
repite. Cuando todos los valores tienen la misma frecuencia, es un caso donde la moda no se puede
calcular; se dice que es una distribución amodal. Cuando hay dos valores con la misma y máxima
frecuencia, se dice que la distribución tiene dos modas, o que es una distribución bimodal. Cuando
hay dos valores que comparten la misma máxima frecuencia, pero los valores son adyacentes, se
toma como moda la media aritmética de eso dos valores. Cuando los valores están agrupados en una
distribución de frecuencias, se toma como moda el punto medio del intervalo con mayor frecuencia.
Si no hay ningún argumento de peso en contra, se preferirá siempre la media. La media es el mejor
estimador de su parámetro que la mediana y la moda. En términos generales, las medias halladas
sobre muestras representativas se parecen más a la media poblacional que lo que se parecen las
medianas y modas muestrales a la mediana y la moda poblacional.
Tres situaciones en las que se prefiere la mediana a la media: a) cuando la variable esté medida en
una escala ordinal, b) cuando haya valores extremos que distorsionen la interpretación de la media.
Ej: punt: 33, 4, 8, 5, 6, 124, la media de esos valores es 25, pero no está claro que este valor sea una
buena representación de su tendencia central, puesto que se ve muy influida por un valor extremo: el
124. c) cuando haya intervalos abiertos. Este tercer y último caso se refiere a situaciones en las que el
intervalo superior carece de límite superior <<300.001 o más>>, el intervalo inferior carece de límite
inferior, o ambas cosas a la vez /tiene muchos intervalos/. En casos así no se puede hayar la media,
porque el intervalo abierto carece de punto medio. La mediana será la segunda candidata para
representar la tendencia central y, por tanto, si no hay argumentos de peso en contra, se preferirá la
mediana a la moda. (cuando no esté incluida en un intervalo abierto).
Moda sobre mediana: a) cuando se trate de una variable medida en una escala nominal (se usa sólo
moda), b) cuando haya intervalos abiertos y la mediana pertenezca a uno de ellos. La fórmula de los
centiles supone una distribución homogénea intraintervalo. Esto puede hacerse sólo si el intervalo
está cerrado. Cuando no se da esta circunstancia, no queda otro remedio que utilizar la moda).
En algunos casos los tres índices de ‘tendencia central dan valores parecidos, o incluso pueden
coincidir exactamente, pero no necesariamente ha de ser así. Por ejemplo, en distribuciones
unimodales simétricas coinciden exactamente, cuando más asimétricas las distribuciones, más
diferencias suelen haber entre ellos. Por eso, cuando hay valores extremos es preferible la mediana a
la media, dado que lo valores extremos tienen efectos de asimetrización.
5.1. INTRODUCCIÓN
Los conjuntos de datos no deben describirse sólo mediante medidas de tendencia central, puesto
dos conjuntos de puntuaciones pueden tener la misma media y ser, sin embargo, muy distintos. Para
conseguir una visión completa y comprensiva de los datos hay que complementar las medidas de
tendencia central con las otras propiedades de los mismos. Una de las propiedades más importantes
de los conjuntos de datos es el grado en que éstos se parecen o se diferencian entre sí. Esta
propiedad se denomina variabilidad, dispersión u homogeneidad, y es diferente a la tendencia
central.
La tendencia central y la variabilidad son propiedades diferentes, puede haber grupos de datos con
la misma tendencia central, diferente variabilidad, y viceversa.
Hay una dimensión de los datos diferente a la simple media, que merece la pena tener en cuenta a la
hora de informar de un conjunto de datos.
La comparación de la variabilidad no debe hacerse mediante apreciaciones subjetivas del grado de
dispersión, sino que, como en el caso de la tendencia central, hay procedimientos para cuantificar
esta propiedad. Se trata de medir el grado de variación que hay en un conjunto de datos.
5.2. MEDIDAS DE VARIACIÓN
Los dos procedimientos más importantes para cuantificar la variabilidad son la varianza y la
desviación típica.
PUNTUACIÓN DIFERENCIAL: La distancia, o diferencia, entre esa puntuación y la media del grupo de
puntuaciones.
Las puntuaciones típicas permiten, por tanto, hacer comparaciones entre unidades de distintos
grupos, entre variables medidas de distintas formas, o incluso entre variables diferentes. En cualquier
caso, las puntuaciones típicas siempre nos indicarán el número de desviaciones típicas (las de ese
grupo y variable) que se separan de la media (de ese grupo y variable), y si esa desviación es por
encima o por debajo de la media (según el signo de la puntuación típica). Esta simplificación es de
suma utilidad, y se traduce en que las puntuaciones típicas tienen una característica de tendencia
central y variabilidad constantes tal como vamos a ver a continuación al deducir su media y varianza.
Aplicando las propiedades de la media y la varianza referidas a la suma y producto de constantes,
vemos que:
Las puntuaciones típicas reflejan, en cierto sentido, las relaciones esenciales entre las puntuaciones,
con independencia de la unidad de medida que se haya utilizado en la medición. Cuando en dos
conjuntos de puntuaciones, emparejadas con algún criterio, a los elementos de cada par les
corresponde la misma puntuación típica dentro de su conjunto, puede decirse que mantienen la
misma estructura interna, y se dice entonces que son puntuaciones equivalentes.
Las puntuaciones típicas tienen algunos inconvenientes. En concreto, dado que su media es cero y
su desviación típica un, buena parte de las puntuaciones suelen ser negativas, y casi todas decimales.
Esto hace que resulte incómodo su tratamiento y que muchas veces se busquen procedimientos que
permitan superar esta dificultad. Un procedimiento consiste en transformar las puntuaciones típicas
en otras que retengan todas las relaciones que manifiestan las puntuaciones originales, por tanto que
sean puntuaciones equivalentes, pero evitando la dificultad operativa, y que constituyen lo que se
denomina una escala derivada.
Si transformamos linealmente las puntuaciones típicas, multiplicándolas por una constante “a”, y
sumando una constante “b”, entonces las puntuaciones transformadas tendrán como media la
constante sumada “b”, como desviación típica el valor absoluto de la constante multiplicada, |a|, y
como varianza el cuadrado de esta constante “a” al cuadrado.
La construcción de una escala derivada parte de unas puntuaciones directas, éstas se tipifican, y
después se transforman linealmente en otras puntuaciones.
*Las puntuaciones T tienen media 50 y desviación típica 10, y constituyen la transformación general
más conocida. Otras también bastante conocidas son las puntuaciones S, o de estaninos, que tienen
media 5 y desviación típica 2, y las que desarrolló el ejército norteamericano para sus pruebas de
clasificación, que tienen media 100 y desviación típica 20. Sin embargo, la transformación más
conocida es la del cociente intelectual o CI, que se refiere a la medición de la inteligencia, y que tiene
media 100 y desviación típica 15. El término cociente intelectual no tiene que ver con lo que se mide,
pero se ha mantenido por tradición histórica. Concretamente, Stern (1912) propuso obtener la razón
entre la edad mental y la edad cronológica, multiplicando luego por 100.
7.1. INTRODUCCIÓN
Además de la tendencia central y la variabilidad hay otras dos características con las que se pueden
describir y comparar las distribuciones de frecuencias.
7.2. ÍNDICES DE ASIMETRÍA
El grado de asimetría de una distribución hace referencia al grado en que los datos se reparten
equilibradamente por encima y por debajo de la tendencia central. Ejemplo: (En psicología) Los tests
de inteligencia suelen presentar distribuciones bastantes simétricas cuando se administran a
muestras relativamente grandes; una variable que se utiliza mucho en el estudio de los procesos
superiores es el tiempo de reacción, cuya distribución suele tener asimetría positiva, en tareas
perceptivas de dificultad baja en las que se cuentan el número de <<blancos>> detectados suele
darse como <<efecto techo>>, puesto que hay muchos sujetos que detectan todos los <<blancos>> y,
por tanto, la distribución suele mostrar asimetría negativa.
TRES ÍNDICES:
El primero de ellos se basa en la relación entre la media y la moda, y se define como la distancia entre
la media y la moda, medida en desviaciones típicas.
ASIMETRÍA NEGATIVA: La media es inferior a la moda, y por tanto el índice dará un valor negativo. El
índice da valores menores que cero.
ASIMETRÍA POSITIVA: La media es superior a la moda, y por tanto el índice dará un valor positivo. El
índice da valores mayores que cero.
SIMETRÍA: Coinciden los dos índices de tendencia central, y por tanto el índice de asimetría dará cero.
Se dice que son distribuciones simétricas, puesto que no están inclinadas hacia ningún lado; este
índice da en ellas valores en torno a cero, y si la simetría es perfecta entonces da exactamente cero.
Este índice tiene la dificultad de que sólo se puede calcular en distribuciones unimodales.
Un segundo índice es llamado índice de asimetría de Pearson; es igual al promedio de las
puntuaciones típicas elevadas al cubo. (igual a asimetría negativa, positiva y simetría). Es el índice
más utilizado.
El tercer, índice de asimetría intercuartílico se basa, como su nombre lo indica, en los cuartiles. Posee
igual valoración, asimetría negativa, positiva, y simétrica. Tiene una ventaja sobre los otros índices, y
es que tiene un valor mínimo y un valor máximo (+1 y -1), con lo que facilita su interpretación en
términos relativos.
------------
7.3. ÍNDICE DE CURTOSIS
Se estudia el que se basa en el promedio de las típicas elevadas a la cuarta potencia.
Al restar un tres al índice lo que se consigue es utilizar ese modelo como patrón de comparación. Una
distribución en la que el índice sea igual a cero tiene un grado de curtosis similar al de una
distribución normal y siguiendo la terminología propuesta por Pearson, se dice que es mesocúrtica,
mientras que si es positivo su grado de apuntalamiento es mayor que el de la distribución normal y
se dice que es una distribución leptocúrtica, negativo su apuntalamiento es menor que el de la
distribución normal y se dice platicúrtica.
---------------
Botella capítulo 8. Correlación lineal.
<procedimientos objetivos capaces de distinguir entre los tres tipos de relación lineal)
De la forma de generar una variable aleatoria binomial se deducen algunas de sus características:
a) Los valores de una variable binomial oscilan entre 0 y n, donde n es el número de ensayos
dicotómicos realizados. Es decir, el número más pequeño posible de casos en los que se verifica la
condición es ninguno y el máximo es todos.
b) Si representamos el resultado de cada ensayo dicotómico con ceros y unos, el valor que adopta la
variable X no es más que la suma de esa secuencia de unos y ceros.
c) El valor esperado de una variable binomial se obtiene a partir de las propiedades de la suma de
variables aleatorias y de la definición de valor esperado. Dado que una binomial es la suma de una
secuencia de n valores, y cada uno de ellos puede considerarse una variable aleatoria dicotómica, su
valor esperado será igual a la suma de los valores esperados de cada una de ellas.
Para abreviar los cálculos en la obtención de la función de probabilidad se han construido tablas en
las que se han recogido las probabilidades asociadas a los valores de variables binomiales.
Se trata de un fenómeno natural, puesto que es frecuente encontrar variables con distribuciones muy
semejantes a la de la normal.
El primero en llegar a su fórmula fue De Moivre, en un intento por dar solución práctica al cálculo de
las probabilidades acumuladas asociadas a la binomial cuando n es un número grande. También
recibe los nombres de distribución de Gauss o de Laplace-Gauss. Otros nombres hacen referencia a la
forma de su figura, com el de <campana> de Gauss.
Muchas variables de interés para los psicólogos, así como otras variables proceden de la biología o la
física, tienen distribuciones que se asemejan a la normal lo suficiente como para trabajar <como si>
fueran normales sin cometer grandes errores. La estatura, el peso, la agudeza visual, la fuerza, etc.,
son variables que se ajustan a este modelo. Ya dentro de la psicología, variables como el cociente
intelectual, la extraversión o el razonamiento espacial, son variables con distribuciones también
normales.
En la mayor parte de las variables existe un valor central (la media) en torno al cual se concentran la
mayor parte de los individuos, y a medida que nos vamos fijando en valores más alejados de la media
observamos que éstos son menos frecuentes. Esta reducción gradual en la frecuencia no es lineal,
sino que es mayor al principio y menor después (la curva pasa de convexa a cóncava al alejarse de la
media). Cuanto más se alejan los valores de la media, más difícil es encontrar individuos que adopten
estos valores.
La variable de los errores tuvo especial importancia en el estudio y desarrollo de la curva normal. El
estudio de los valores registrados en errores perceptivos cometidos por seres humanos para una
misma magnitud mostró que éstos adoptan una forma parecida a la de la curva normal.
Una variable aleatoria se distribuye según el modelo normal, con parámetros μ y σ.
La fórmula la descubrió De Moivre, pero el uso del nombre curva normal para designarla es posterior.
La desviación típica es 1 y el valor esperado es 0.
PROPIEDADES:
a) Es simétrica con respecto a un valor central (μ), y en ese valor central coinciden la media (o valor
esperado), la mediana (divide la curva en dos zonas de igual área a su izquierda y a se derecha) y la
moda (es el punto de la curva con máxima ordenada).
b) Es asintótica con respecto al eje de abscisas.
c) Hay toda una familia de curvas normales, dependiendo de los valores μ y σ. De entre ellas la más
importante es la que tiene media 0 y desviación típica 1, la distribución normal unitaria.
d) Los puntos de inflexión se encuentran en los puntos correspondientes a la media más/menos una
desviación típica.
e) Cualquier combinación lineal de variables aleatorias normales se ajusta también al modelo normal.
La mayor parte del trabajo práctico con variables aleatorias normales consiste en hallar
probabilidades asociadas a valores. Se han construido tablas apropiadas con áreas ya halladas y su
uso se basa en la aplicación de un teorema de gran interés aplicado, y que nosotros llamaremos
teorema de tipificación. Según este teorema, la función de distribución asociada a un valor de una
variable aleatoria, X, con distribución normal, es la misma función de distribución de la tipificada de
ese valor en la normal unitaria. Para obtener las áreas asociadas a un valor de cualquier otra
distribución normal basta con tipificar ese valor (las típicas son una transformación lineal con media 0
y desviación típica 1, y por tanto su distribución es la normal unitaria) y acudir con la z obtenida a la
tabla correspondiente.
La distribución normal se utiliza también para obtener por aproximación las probabilidades
asociadas a otros modelos, como el binomial.
WELKOWITZ
• RANGO PERCENTILAR
Una forma de suministrar la información adicional consiste en transformar la puntuación original
(puntuación directa) en una nueva puntuación que mostrar de forma inmediata la situación de un
individuo en comparación con los demás estudiantes de la clase: los percentiles.
El rango percentil de un valor dado es un número que expresa el tanto por ciento de casos en el
grupo específico de referencia, cuyo valor es igual o inferior al dado. Por ejemplo: a una puntuación
de 41 le corresponde un rango 85, significa que el 85% de la clase obtuvo una puntuación igual o
inferior a 41 puntos, mientras que sólo un 15% de la clase recibió puntuaciones más elevadas. Un
percentil es un valor no superado por un tanto por ciento dado de los casos registrados. Una
puntuación que nos colocase en el percentil 5° debería inquietarnos, pues significaría que el 95% de la
clase lo hizo mejor que nosotros y solo un 5% se comportó peor o igual. Así, el percentil muestra
directamente como un valor concreto se compara con los demás en un grupo específico.
No puede interpretarse correctamente un percentil si no se conoce perfectamente un grupo de
referencia en cuestión.
Un percentil compara un valor con un grupo específico de valores.
- PROCEDIMIENTO DE CÁLCULO: para encontrar el rango del percentil correspondiente a la
calificación de 41, solo hay que hacer lo siguiente:
1. Localizar el intervalo de clase al que pertenece dicha calificación (intervalo crítico)
2. Clasificar las frecuencias (f) en tres categorías: las correspondientes a todas las calificaciones
superiores al intervalo crítico, las correspondientes a todas las calificaciones del intervalo crítico y las
correspondientes a todas las calificaciones inferiores a dicho intervalo.
En orden a determinar exactamente nuestra situación en el intervalo crítico debemos cerciorarnos de
cuál es el límite inferior real del mismo. Una regla conveniente consiste en situar el límite inferior real
de un intervalo exactamente en el punto medio entre la calificación más baja de este intervalo y la
más alta inmediatamente inferior.
DISTRIBUCIÓN DE LA MEDIA MUESTRAL
La media y la varianza muestrales son estadísticos pues se calculan en función de las observaciones
muestrales. Por tal motivo tienen un carácter variable ya que cada muestra de valores de una variable
X arrojará un valor medio y varianza.
Hablar de valor “poco probable” para la media muestral, a varianza muestral o cualquier estadístico
implica que tiene sentido pensar en una cierta distribución de probabilidades para tales estadísticos.
Serán más probables medias muestrales próximas a la media poblacional y menos probables las más
distantes.
X es más variable que X ya que el promediar los valores muestrales tiene el efecto de “emparejarlos”.
Si X es una variable, μ la media de todos sus valores y s su varianza σ (sigma al cuadrado), la media X
de muestras de n observaciones tiene distribución aproximadamente normal con la misma media μ y
la n-ésima parte de la varianza.
La distribución de X será tanto más normal cuanto mayor sea el tamaño de la muestra.
uando el tamaño muestral es suficientemente grande la distribución de X es aproximadamente
normal (tanto más normal cuanto mayor el tamaño de la muestra) con media µ y varianza o2 /n.
Estandarizando X obtenemos el estadístico: X - µ/ o √n que sigue aproximadamente la distribución
normal estándar y se usa en inferencia estadística para probar hipótesis acerca de la media
poblacional. Si X es una variable, u la media de todos sus valores y s su varianza o2 , la media X de
muestras de n observaciones tiene distribución aproximadamente normal con la misma media u y la
n-ésima? Parte de la varianza. La distribución de X será tanto más normal cuanto mayor sea el
tamaño de la muestra.
------------------------------------------------
INFERENCIA ESTADÍSTICA
El objetivo último del análisis de datos es el de extraer conclusiones de tipo general a partir de unos
pocos datos particulares. Es decir, el de extraer conclusiones sobre las propiedades de una población
a partir de la información contenida en una muestra precedente de esa población. Ese salto de lo
concreto (la muestra) a lo general (la población) se conoce con el nombre de inferencia estadística.
Dos formas básicas de inferencia estadística son la estimación de parámetros y el contraste de
hipótesis. Estimación de parámetros: el proceso consistente en asignar a las propiedades
desconocidas de una población las propiedades conocidas de una muestra extraída de esa población.
Contraste de hipótesis: proceso mediante el cual se trata de comprobar si una afirmación sobre
alguna propiedad poblacional puede ser sostenida a la luz de la información muestral disponible. Un
método de toma de decisiones: un contraste de hipótesis, también llamado prueba de significación o
prueba estadística, es un procedimiento que nos permite decidir si una proposición (hipótesis
científica) acerca de una población puede ser mantenida o debe ser rechazada.
CONTRASTE DE HIPÓTESIS
El proceso de verificación de hipótesis habitualmente utilizado en las ciencias empíricas sigue los
pasos del contraste de hipótesis.
Una hipótesis estadística surge a partir de una hipótesis científica. Pero entre una hipótesis científica
y una hipótesis estadística no existe una correspondencia exacta. La primera proporciona la base para
la formulación de la segunda, pero no son la misma cosa. Mientras una hipótesis científica se refiere al
algún aspecto de la realidad, una hipótesis estadística se refiere a algún aspecto de una distribución
de probabilidad. Existen varias formas diferentes de expresar estadísticamente una hipótesis
científica concreta.
/El primer paso en el proceso de verificación de una hipótesis consiste en formular en términos
estadísticos la afirmación contenida en la hipótesis científica que se desea verificar./
3.1.2. SUPUESTOS
Los supuestos de un contraste de hipótesis hacen referencia al conjunto de condiciones que deben
cumplirse para poder tomar una decisión sobre la hipótesis nula Ho basada en una distribución de
probabilidades conocida. Esto significa que, para apoyar nuestra decisión en una distribución de
probabilidad conocida, necesitamos, por un lado, especificar por completo la distribución poblacional
a partir de la cual se establecen las predicciones formuladas en Ho (normalidad, simetría, etc) y, por
otro, definir las características de los datos con los que se contrastarán esas predicciones(datos
muestrales) (muestra aleatoria, nivel de medida, etc).
LOS SUPUESTOS DE UN CONTRASTE DE HIPÓTESIS SON UN CONJUNTO DE AFIRMACIONES QUE
NECESITAMOS ESTABLECER (SOBRE LA POBLACIÓN DE PARTIDA Y SOBRE LA MUESTRA
UTILIZADA) PARA CONSEGUIR DETERMINAR LA DISTRIBUCIÓN DE PROBABILIDAD EN LA QUE SE
BASARÁ NUESTRA DECISIÓN SOBRE Ho.
Una vez planteadas las hipótesis, es necesario seleccionar el estadístico de contraste capaz de
proporcionarnos información relevante sobre ellas y establecer los supuestos necesarios para
conseguir determinar la distribución muestral de ese estadístico. En el ejemplo sobre el psicólogo
supuestamente capaz de diagnosticar trastornos de tipo neurótico a través de la escritura se había
planteado las siguientes hipótesis: Ho: aciertos ≤ 0,5; H1: aciertos > 0,5. Existen dos estadísticos (en
realidad los dos son el mismo, pues uno es transformación lineal del otro) capaces de
proporcionarnos información relevante sobre las hipótesis planteadas.
T1: X (número de aciertos o diagnósticos correctos)
T2: P (proporción de aciertos o de diagnósticos correctos)
3.1.5. LA DECISIÓN
Planteada la hipótesis, formulados los supuestos, definido el estadístico de contraste y su distribución
muestral, y establecida la regla de decisión, el paso siguiente consiste en obtener una muestra
aleatoria de tamaño n, calcular el estadístico de contraste y tomar una decisión. Tal decisión, ya lo
sabemos, se toma, siempre, respecto a Ho, y consiste en rechazarla o mantenerla de acuerdo con el
valor tomado por el estadístico de contraste y las condiciones establecidas en la regla de decisión: si
el estadístico de contraste cae en la zona crítica, se rechaza Ho; si el estadístico de contraste cae en la
zona de aceptación, se mantiene Ho.
CUANDO DECIDIMOS MANTENER UNA HIPÓTESIS NULA, QUEREMOS SIGNIFICAR CON ELLO QUE
CONSIDERAMOS QUE ESA HIPÓTESIS ES COMPATIBLE CON LOS DATOS.
CUANDO DECIDIMOS RECHAZAR UNA HIPÓTESIS NULA, QUEREMOS SIGNIFICAR CON ELLO QUE
CONSIDERAMOS PROBADO QUE ESA HIPÓTESIS ES FALSA.
La probabilidad de cometer un error de tipo I con nuestra decisión es una probabilidad conocida,
pues el valor de α lo fija el propio investigador. Sin embargo, la probabilidad de cometer un error de
tipo II, es decir, β, es un valor desconocido que, en un contraste concreto, depende de tres factores: 1)
la verdadera H1, 2) el valor de α 3) el tamaño del error típico de la distribución muestral utilizada para
efectuar el contraste.
Por tanto I –α será la probabilidad de tomar una decisión correcta cuando Ho es verdadera. Y 1-beta
será la probabilidad de tomar una decisión correcta cuando Ho es falsa.
POTENCIA
La potencia (1-B) de un contraste es la probabilidad de rechazar una hipótesis nula que en realidad es
falsa.
Cuando hablamos de la potencia de un contraste, por tanto, nos estamos refiriendo a la capacidad de
ese contraste para detectar que una hipótesis concreta es falsa. Para poder calcular la potencia de un
contraste necesitamos referirnos a una afirmación de las muchas definidas en Hi.
ENTROPÍA
La entropía es un medida de variación para variables cualitativas. La entropía es nula cuando la
variable es determinística; es decir, cuando todas las probabilidades son nulas salvo una que vale uno.
La entropía mide “el grado de desorden de un sistema”, a mayor entropía mayor desorden. Si
tuviéramos que buscar un zapato que sabemos que está en alguno de los cuatro dormitorios de una
casa, el mayor desorden es cuando la probabilidad es ¼, pues si así no lo fuera empezaríamos por
buscarlo por el dormitorio de mayor probabilidad (la moda) y así sucesivamente. Por tanto la entropía
se puede pensar como la cantidad media de información, pues es la esperanza de la cantidad de
información