You are on page 1of 35

Indice di posizione

Gli indici di posizione (o anche indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale), in statistica, danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione:

media, comprese la media aritmetica, media geometrica e media armonica mediana, quartile, quantile (o percentile) moda
Un modo per rappresentare graficamente alcuni indici di posizione il box-plot.

Indice di dispersione
Un indice di dispersione (o indicatore di dispersione o indice di variabilit o indice di variazione) serve per descrivere sinteticamente una distribuzione statistica quantitativa, e in modo particolare la misura con la quale i suoi valori sono distanti da un valore centrale (identificato con un indice di posizione, solitamente media o mediana). Sono indicatori di dispersione:

campo o intervallo di variazione scarto medio assoluto varianza, deviazione standard, coefficiente di variazione e Median absolute deviation scarto interquartile indice di dispersione di Poisson

Per variabili nominali si usano indici di diversit.

Moda (statistica)
Una funzione di distribuzione con evidenziate la moda, la mediana e la media In statistica, la moda o norma della distribuzione di frequenza X la modalit (o la classe di modalit) caratterizzata dalla massima frequenza e viene spesso rappresentata con la simbologia 0. In altre parole, il valore che compare pi frequentemente. Una distribuzione unimodale se ammette un solo valore modale, bimodale se ne ammette due (ossia: se esistono due valori che compaiono entrambi con la frequenza massima nella data distribuzione), trimodale se ne ha tre, ecc. Per la determinazione della classe modale opportuno ricorrere all'istogramma, individuando l'intervallo di altezza massima, ovvero il punto di massimo della curva). La classe con la maggiore densit media (che corrisponde all'altezza dell'istogramma) quella modale.

Nella gaussiana i tre valori coincidono Nel caso particolare della distribuzione normale, detta anche Gaussiana, la moda coincide con la media e la mediana. Indicando con n(xi,xi + 1) il numero di elementi che cadono nella classe (xi,xi + 1), l'altezza h(i,i + 1) sar data da:

L'utilit della moda risiede nell'essere l'unico degli indici di tendenza centrale a poter descrivere caratteri qualitativi.

VARIANZA(statistica)
La varianza una misura di variabilit di una distribuzione. Cerchiamo allora, con calma, di capire innanzitutto cosa significa "variabilit". Immaginiamo che tu e un tuo amico confrontiate la vostra media dei voti all'universit e scopriate di avere entrambi la stessa media: 25. Confrontando per i voti sul libretto, vi rendete conto di una cosa: che i tuoi voti sono: 18, 22, 23, 25, 25, 26, 26, 27, 28, 30 (media = 25) mentre quelli del tuo amico sono: 25, 25, 25, 25, 25, 25, 25, 25, 25, 25 (media = 25) Noti qualche differenza? Sebbene la vostra media sia identica, le vostre situazioni sono molto diverse! La distribuzione dei suoi voti ha variabilit NULLA, mentre la distribuzione dei tuoi voti ha una variabilit pi alta! In sostanza, la variabilit di un fenomeno possiamo definirla come l'attitudine di quel fenomeno ad assumere modalit DIVERSE. Ora, la variabilit di un fenomeno, pu essere misurata in modi diversi, e in Statistica esistono diversi indici per misurare la variabilit. Uno dei pi famosi la VARIANZA, che basato su questa logica. L' obiettivo quello di misurare la variabilit, cio vedere quanta "diversit" c' tra le modalit (= manifestazioni concrete) del fenomeno che stiamo studiando. Un modo di procedere, allora, potrebbe essere questo: confrontare ogni modalit con la media (in termini di differenza, ovviamente), ELEVANDO AL QUADRATO TALI DIFFERENZE, e sommando tutte queste differenze al quadrato, in modo tale da avere una misura di sintesi che mi dica quanto le modalit sono diverse tra loro. POI, DIVIDO PER N, CIOE' PER IL NUMERO DI MODALITA'. Ad esempio, nel caso del tuo amico, se io calcolo: ( (25-25)^2 + (25-25)^2+ ... + (25-25)^2 )/10 = 0 ottengo una varianza pari a zero, e infatti la variabilit nulla! Invece, per la distribuzione dei tuoi voti: ( (18-25)^2 + (22-25)^2 + ... + (28-25)^2 + (30-25)^2 )/10= 11,33 la varianza pari a 11,33. N.B: perch eleviamo al quadrato tutte le differenze, che in Statistica vengono chiamate "scarti"? Beh, prova a fare la

somma delle differenze (= scarti ) senza elevarle al quadrato, e vedrai ke il risultato sar sempre zero... :) Il motivo? Risiede nelle propriet della media aritmetica: la somma degli scarti dalla media sempre zero. N.B.2 = proprio perch somma di quantit al quadrato (non negative), la varianza sempre maggiore o uguale a zero, E NON PUO' MAI ESSERE NEGATIVA!

In teoria della probabilit e in statistica la varianza di una variabile aleatoria X (e della distribuzione di probabilit che questa segue) un numero, indicato con Var(X), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dalla media E[X].

Definizione La varianza di X definita come il valore atteso del quadrato della variabile aleatoria centrata Y=X-E[X]

In statistica viene spesso preferita la radice quadrata della varianza di X, lo scarto tipo (o scarto quadratico medio) indicato con la lettera . Per questo motivo talvolta la varianza viene indicata con 2. Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media dato dal teorema di ebyv che controlla questo scostamento in termini dello scarto tipo:

Varianza -Propriet
La varianza di una variabile aleatoria non mai negativa, ed zero solamente quando la variabile assume quasi certamente un solo valore, P(X=x)=1. Una formula alternativa per la varianza

Questa formula a volte pi pratica per calcolare la varianza. Dimostrazione La varianza di X per definizione pari al valore atteso di : per la linearit del valore atteso si ottiene

Varianza -Linearit
La varianza invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento:

Dimostrazione

Sfruttando la linearit del valore atteso si trova , quindi . La varianza della somma di due variabili indipendenti pari alla somma delle loro varianze

Dimostrazione Se , allora e

, e siccome le variabili sono indipendenti risulta . ); la

Nel caso generale basta traslare le variabili di modo che abbiano valore atteso nullo (come loro varianza non cambia. Se X e Y non sono indipendenti, la formula viene corretta dalla loro covarianza, , dove

In particolare, la media varianza

di n variabili aleatorie indipendenti aventi la medesima legge, ha

Varianza -Variabili discrete e continue


La varianza di una variabile aleatoria discreta X a valori in un insieme S si calcola attraverso la sua funzione di probabilit:

La varianza di una variabile aleatoria continua X a valori in un insieme S si calcola attraverso la sua densit di probabilit:

Varianza -Statistica
In statistica viene utilizzata pi spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi anche indicata come 2. Stimatori In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalit n:

e (anche chiamati varianza campionaria) dove

, lo stimatore per la media. . .

Lo stimatore Sn-1 privo di bias, ovvero il suo valore atteso proprio la varianza Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza,

Una giustificazione del termine n-1 data dalla necessit di stimare anche la media. Se la media nota, lo stimatore Sn diventa corretto. Se le Xi seguono la legge normale N(,), lo stimatore S2n-1 segue una legge del 2 Varianza osservata Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione osservata , di media

In particolare, sn la media quadratica delle distanze dei valori dalla loro media.

Varianza -Esempi
Una variabile aleatoria X di legge di Bernoulli B(p), ovvero che ha probabilit p di fornire "1" e probabilit q=1-p di fornire "0", ha valore medio E[X] = 0P(X = 0) + 1P(X = 1) = P(X = 1) = p; la sua varianza pu essere calcolata come

oppure come

Il campione {-4, -1, 1, 2, 7} ha media

e le varianze osservate sono

e .

Covarianza
In teoria della probabilit la covarianza di due variabili aleatorie un numero Cov(X,Y) che fornisce una misura di quanto le due varino assieme, ovvero della loro dipendenza.

Definizione
La covarianza di due variabili aleatorie X e Y il valore atteso dei prodotti delle loro distanze dalla media: . La covarianza di X e Y pu anche essere espressa come la differenza tra il valore atteso del loro prodotto e il prodotto dei loro valori attesi: . Infatti per la linearit del valore atteso risulta

Covarianza -Propriet
La covarianza rispetta le seguenti propriet, per variabili aleatorie X, Y e Z, e costanti a e b: Due variabili aleatorie indipendenti hanno covarianza nulla, poich dalla loro indipendenza segue

Due variabili aleatorie che hanno covarianza nulla sono non correlate. Due variabili aleatorie dipendenti possono essere non correlate. Ad esempio, se X una variabile aleatoria di legge uniforme sull'intervallo [0,1] e Y=X2, allora

Covarianza -Varianza
La covarianza pu essere considerata una generalizzazione della varianza

e compare come termine di correzione nella relazione

Pi in generale, per variabili aleatorie X1,...,Xn e Y1,...,Ym vale

come caso particolare di .

Covarianza -Statistica
In statistica la covarianza anche indicata come . Su un campione di n osservazioni congiunte (xi,yi), di rispettive medie osservate e , la covarianza osservata . Uno stimatore della covarianza per N osservazioni congiunte (Xi,Yi)

La varianza e la covarianza intervengono per definire l'indice di correlazione di Pearson

Distribuzione binomiale
Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto Funzione di densit Funzione di ripartizione (funzione Beta incompleta regolarizzata) Valore atteso Mediana tra e (non precisa) Moda Varianza Skewness se

Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria della probabilit la distribuzione binomiale una distribuzione di probabilit discreta che descrive il numero
di successi in un processo di Bernoulli, ovvero la variabile aleatoria somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p). che

Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di estrazioni da un'urna (con reintroduzione), ognuna delle quali pu fornire due soli risultati: il successo con probabilit p e il fallimento con probabilit q=1-p.

Definizione
La distribuzione binomiale caratterizzata da due parametri:

: la probabilit di successo della singola prova di Bernoulli Xi (0 < p < 1). : il numero di prove effettuate. , che esprime la probabilit di

Per semplicit di notazione viene solitamente utilizzato anche il parametro fallimento per una singola prova. La distribuzione di probabilit

cio ogni successione con k successi e n-k insuccessi ha probabilit pkqn k, mentre il numero di queste successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, dato dal coefficiente binomiale .

La formula del binomio di Newton mostra come la somma di tutte le probabilit nella distribuzione sia uguale ad 1:

Esempio
Per calcolare la probabilit di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta considerare i lanci come un processo di Bernoulli. Ogni singola prova ha probabilit p=1/6 di ottenere "4" (successo) e probabilit q=5/6 di non ottenerlo (insuccesso). Il numero di successi con 5 prove allora descritto da una variabile aleatoria S5 di legge B(5,1/6). La probabilit di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4")

Distribuzione binomiale -Caratteristiche


Siccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabili aleatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate da quelle di X:

il valore atteso

la varianza

la funzione generatrice dei momenti

la funzione caratteristica

il coefficiente di skewness

il coefficiente di curtosi

La moda di Sn si ottiene confrontando le probabilit successive P(k + 1) / P(k). Se p(n + 1) un numero intero allora P(p(n + 1)) = P(p(n + 1) 1) e la moda non unica; se invece p(n + 1) non un intero allora la moda pari alla sua parte intera [p(n + 1)]. Non esistono formule precise per la mediana di Sn, che tuttavia dev'essere compresa tra le parti intere inferiore e superiore di np, e . Se np un intero allora la mediana np. Se la funzione di ripartizione assume il valore 1 / 2 (ad esempio F(k) = 1 / 2 per p = 1 / 2 ed n = 2k + 1 dispari) allora tutti i valori dell'intervallo possono essere presi come mediana.

Distribuzione binomiale e altre distribuzioni di probabilit


La distribuzione di Bernoulli B(p) pu essere considerata come un caso particolare di distribuzione binomiale B(p,1), che descrive un processo di Bernoulli con una sola prova: S1=X1. I successi in una sequenza di estrazioni da un'urna, effettuate senza reintroduzione degli estratti, sono descritti da una variabile aleatoria che segue la legge ipergeometrica.

Distribuzione binomiale -Convergenze


Per valori di n sufficientemente grandi la legge binomiale approssimata da altre leggi. Quando n tende a infinito, lasciando fisso =np, la distribuzione binomiale tende alla distribuzione di Poisson P()=P(np). In statistica quest'approssimazione viene solitamente accettata quando n 20 e p 1/20, oppure quando n 100 e np 10. Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alla distribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione viene solitamente accettata quando np>5 e nq>5. Pi precisamente, il teorema del limite centrale afferma che

Distribuzione binomiale -Generalizzazioni Una generalizzazione della distribuzione binomiale la legge distribuzione Beta-binomiale (a,b,n), che descrive la somma Sn = X1 + X2 + ... + Xn di n variabili aleatorie indipendenti, ognuna con distribuzione di Bernoulli , dove P segue la legge Beta (a,b). (Al contrario della distribuzione binomiale, le Xi non hanno lo stesso parametro.) La distribuzione binomiale una delle quattro distribuzioni di probabilit definite dalla ricorsione di Panjer: . Distribuzione binomiale -Statistica Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di probabilit. Se P una variabile aleatoria che segue la distribuzione Beta (a,b) e Sn una variabile aleatoria con distribuzione binomiale , allora la probabilit condizionata da Sn=x per P segue la distribuzione Beta (a + x,b + n x). In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x. In paricolare la distribuzione continua uniforme sull'intervallo [0,1] un caso particolare di distribuzione Beta (1,1), quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta (x + 1,n x + 1), che per inciso ha un massimo in x/n.

Distribuzione di Poisson
Funzione di distribuzione discreta

Funzione di ripartizione

Parametri Supporto Funzione di densit Funzione di ripartizione

(dove

la funzione Gamma incompleta)

Valore atteso Mediana circa Moda sia Varianza che se

Skewness

Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica


In teoria delle probabilit la distribuzione di Poisson (o poissoniana) una distribuzione di probabilit discreta che esprime le probabilit per il numero di eventi che si verificano successivamente ed indipendentemente in un dato intervallo di tempo, sapendo che mediamente se ne verifica un numero . Questa distribuzione anche nota come legge degli eventi rari. Prende il nome dal matematico francese Simon-Denis Poisson.

Distribuzione di Poisson -Definizione


La distribuzione di Poisson

per ogni

dove il numero medio di eventi per intervallo di tempo.

Dallo sviluppo in serie dell'esponenziale

si trova

Poisson -Convergenza
La distribuzione di Poisson pu essere ottenuta come limite delle distribuzioni binomiali si ha una convergenza in legge di a nota come legge (di probabilit) degli eventi rari. , con pn = , ovvero . Per questa convergenza la distribuzione di Poisson anche

In statistica si adotta l'approssimazione della distribuzione binomiale tramite la distribuzione di Poisson quando n>20 e p<1/20, o preferibilmente quando n>100 e np<10.

Distribuzione di Poisson -Caratteristiche


Una variabile aleatoria Y di distribuzione di Poisson ha

valore atteso

varianza

funzione generatrice dei momenti

Distribuzione di Poisson - Propriet Se Y1 e Y2 sono due variabili aleatorie indipendenti con distribuzioni di Poisson di parametri 1 e 2 rispettivamente, allora la loro somma Y = Y1 + Y2 segue ancora una distribuzione di Poisson, di parametro = 1 + 2;

la distribuzione di Y1 condizionata da Y=n la distribuzione binomiale di parametri 1 / e n.


Pi in generale, la somma Y = Y1 + ... + Yn di n variabili aleatorie indipendenti con distribuzioni di Poisson di parametri 1,...,n segue una distribuzione di Poisson di parametro = 1 + ... + n, mentre la distribuzione di Y1 condizionata da Y=n la distribuzione binomiale di parametri 1 / e n. Distribuzione di Poisson -Distribuzioni collegate Se la distribuzione di Poisson di parametro descrive il numero di eventi in un intervallo di tempo, il tempo di attesa tra due eventi successivi descritto dalla distribuzione esponenziale di parametro . La distribuzione di Skellam definita come la distribuzione della differenza tra due variabili aleatorie indipendenti aventi entrambe distribuzioni di Poisson. La mistura di distribuzioni tra la distribuzione di Poisson e la distribuzione Gamma (che governa il parametro ) la distribuzione di Pascal, che talvolta anche detta Gamma-Poisson.

La distribuzione di Panjer, definita per ricorsione, generalizza la distribuzione di Poisson: . Distribuzione di Poisson -Statistica Distribuzione di Poisson- Approssimazioni Per > 1000 una variabile aleatoria con distribuzione di Poisson viene solitamente approssimata con la

distribuzione normale ; per parametri pi piccoli ( > 10) sono invece necessarie delle correzioni di continuit, legate ai diversi domini delle due distribuzioni (una discreta, una continua). La radice quadrata di una variabile aleatoria con distribuzione di Poisson approssimata da una distribuzione normale meglio di quanto lo sia la variabile stessa. Il parametro pu essere stimato come la media delle osservazioni effettuate. Questo stimatore privo di bias, ovvero ha come valore atteso stesso. Distribuzione di Poisson -Inferenza bayesiana Se il parametro di una distribuzione di Poisson distribuito a priori secondo la distribuzione Gamma, allora lo anche a posteriori dell'osservazione Y = y. Distribuzione geometrica Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto Funzione di densit Funzione di ripartizione Valore atteso

Mediana Moda Varianza

se

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria della probabilit la distribuzione geometrica una distribuzione di probabilit discreta sui numeri naturali (con o senza l'elemento "0") che segue una progressione geometrica:

Un esempio di distribuzione geometrica l'"attesa" nel gioco del lotto, ovvero il numero di estrazioni che trascorrono prima che esca un numero fissato.

Distribuzione geometrica -Definizione


La distribuzione geometrica , con Il parametro p = 1 q si ricava da l'unica distribuzione di probabilit sui numeri naturali della forma .

. A volte lo zero viene escluso dal supporto; l'unica differenza sta nello scalare di 1 i valori, ovvero nel descrivere la variabile aleatoria T+1 al posto di T. In questo caso la distribuzione sar P(k) = pqk 1 e le altre funzioni saranno modificate di conseguenza.

Distribuzione geometrica -Processo di Bernoulli


La distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successo in un processo di Bernoulli {Xi}idi parametro p=1-q:

Distribuzione geometrica- Caratteristiche


Una variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturali ha

funzione di probabilit
P(T = k) = pqk

funzione di ripartizione

valore atteso

varianza

funzione generatrice dei momenti


tabella c' altro) ->

(nella

funzione caratteristica
I quantili si ricavano dalla funzione di ripartizione:

se
;

un numero intero (

) allora F(n 1) = e

se invece
In particolare la mediana se

non intero, allora

(parte intera).

con n intero,

altrimenti.

Distribuzione geometrica- Assenza di memoria


La distribuzione geometrica priva di memoria, ovvero

ed l'unica distribuzione di probabilit discreta con questa propriet. L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica. D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta

pertanto ha una distribuzione di probabilit geometrica di parametro P(T > 1).

Distribuzione geometrica - Generalizzazioni


Una generalizzazione della distribuzione geometrica la distribuzione di Pascal (o distribuzione binomiale negativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli. Un'ulteriore generalizzazione della distribuzione di Pascal la distribuzione di Panjer che, come la distribuzione geometrica, definisce le probabilit per ricorsione.

Distribuzione geometrica - Esempi


La probabilit che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4" data dalla distribuzione geometrica. Il lancio del dado pu essere considerato un processo di Bernoulli, in cui ogni prova Xi ha probabilit p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilit cercata quindi

La probabilit che dopo 10 lanci sia uscito almeno un "4" invece

La probabilit che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non mai stato ottenuto facilmente calcolabile grazie alla mancanza di memoria

Funzione di densit di probabilit


In matematica, una funzione di densit di probabilit (o pdf dall'inglese probability density function) la funzione di probabilit di una variabile casuale nel caso in cui la variabile casuale X sia continua, cio l'insieme dei possibili valori ha la potenza del continuo. Essa descrive la "densit" di probabilit in ogni punto nello spazio campionario.

Funzione di densit di probabilit - Definizione


La funzione densit di probabilit di una variabile casuale X l'applicazione pX(x) non negativa integrabile secondo Lebesgue e reale di variabile reale tale che la probabilit dell'insieme A sia data da

per tutti i sottinsiemi A dello spazio campionario. Questo implica che l'integrale su tutto lo spazio di pX(x) deve essere 1. Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spazio uguale a 1, la funzione densit di probabilit di una ben definita distribuzione di probabilit. Una variabile casuale che possiede densit si dice "variabile casuale continua". Intuitivamente, se una distribuzione di probabilit ha densit pX(x), allora l'intervallo . Per le variabili casuali multivariate (o vettoriali) la trattazione formale assolutamente identica: si dice assolutamente continua se esiste una funzione a valori reali definita in , detta densit congiunta, tale che per ogni sottoinsieme A dello spazio campionario ha probabilit

Essa conserva tutte le propriet di una densit scalare: una funzione non negativa a integrale unitario su tutto lo spazio. Una propriet importante che se assolutamente continua allora lo ogni sua componente; il viceversa invece non vale. La densit di una componente, detta densit marginale, si ottiene con un ragionamento analogo al teorema della probabilit assoluta, cio fissando l'insieme di suoi valori di cui si vuole determinare la probabilit e lasciando libere di variare tutte le altre componenti. Infatti (nel caso bivariato per semplicit) l'evento l'evento , dunque

utilizzando il teorema di Fubini. La densit marginale di X data dunque da Funzione di densit di probabilit -Esempio

Esempio di gaussiana La funzione di densit della variabile casuale normale di media 0 e varianza 1 (detta normale standard), di cui sotto riportato il grafico e l'espressione analitica della corrispondente densit nel caso generico (media e varianza 2).

Variabile casuale
In teoria della probabilit, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable) pu essere pensata come il risultato numerico di un esperimento quando questo non prevedibile con certezza (ossia non deterministico). Ad esempio, il risultato del lancio di un dado a sei facce pu essere matematicamente modellato come una variabile casuale che pu assumere uno dei sei possibili valori 1,2,3,4,5,6. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza di informazioni.

Variabile casuale -Definizione


Pi formalmente, dato uno spazio campionario su cui definita una misura di probabilit , una variabile casuale una funzione misurabile dallo spazio campionario a uno spazio misurabile; in questa definizione la nozione di misurabilit quella definita da Lindgren (1976): una funzione X definita sullo spazio campionario si dice misurabile rispetto al campo di Borel se e solo se l'evento appartiene a per ogni .

Le variabili casuali a una dimensione (cio a valori in ) si dicono semplici o univariate. Le variabili casuali a pi dimensioni si dicono multiple o multivariate (doppie, triple, k-uple).

Variabili casuali che dipendono da un parametro t (t come tempo) vengono considerate processi stocastici.

Variabile casuale -Distribuzione di probabilit


Ad una variabile casuale X si associa la sua distribuzione, o legge di probabilit PX, che assegna ad ogni sottoinsieme dell'insieme dei possibili valori di X la probabilit che la variabile casuale X assuma valore in esso. In formule, se X una variabile casuale che ha valori in H e A un sottoinsieme di H, la distribuzione di probabilit di X in A vale

dove la misura di probabilit definita sullo spazio campionario. Per variabili aleatorie a valori reali, la legge di probabilit della variabile casuale X individuata univocamente dalla sua funzione di ripartizione, definita come . Inoltre:

se la variabile casuale X discreta, cio l'insieme dei possibili valori (il rango o supporto di X) finito o
numerabile, definita anche la funzione di massa (o funzione massa di probabilit o densit discreta), ossia la funzione di probabilit discreta p(x) = P(X = x)

se la variabile casuale X continua, cio l'insieme dei possibili valori ha la potenza del continuo, definita
anche la funzione di densit di probabilit, cio la funzione f non negativa tale per cui

In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densit di distribuzione di probabilit e dei suoi parametri di media o valore atteso e varianza.

Funzione di ripartizione
In statistica e teoria della probabilit, la funzione di ripartizione (o funzione di distribuzione cumulativa)

una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.

Funzione di ripartizione- Nel calcolo delle probabilit


Nel calcolo delle probabilit la funzione di ripartizione di una variabile casuale X a valori reali la funzione che associa a ciascun valore x la probabilit dell'evento "la variabile casuale X assume valori minori o uguali ad x". In altre parole, la funzione con dominio la retta reale e immagine l'intervallo [0,1] definita da

Una funzione F una valida funzione di ripartizione se non decrescente, continua a destra e

Una funzione di ripartizione non necessariamente continua a sinistra (e dunque continua globalmente): se X una variabile casuale discreta e z un punto del suo supporto, allora F una funzione a gradino e dunque

(ponendo senza restrizioni di generalit x1 < x2 < ... < xn < x < z) poich una costante indipendente da x, mentre

dunque essendo p(z)0 F non continua. Pi in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilit, cio una funzione che ad ogni sottoinsieme misurabile A associa la probabilit che X cada in A.

Funzione di ripartizione-Propriet
Si pu dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicit di notazione : P(a < X < b) = F(b ) F(a) P(X < x) = F(x )

Se X una variabile casuale assolutamente continua la funzione di ripartizione di X pu essere espressa come funzione integrale:

ove f detta funzione di densit di X. Se X una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori

dove p(x) = P(X = x) detta funzione di probabilit di X.

Funzione di ripartizione - Esempi

Grafico della funzione di ripartizione relativa alla distribuzione uniforme Se X la variabile aleatoria risultato del lancio di un dado a sei facce si ha

dove con

si indica la parte intera di x.

Se X la variabile casuale uniforme continua in [0,1] si ha

Funzione di ripartizione - Funzione di sopravvivenza


In alcuni modelli pi utile analizzare la probabilit che un certo dato numerico valga pi del valore x (come nella vita di un organismo, biologico o meccanico): questi casi sono trattati dalla branca chiamata analisi di sopravvivenza. Si definisce allora la funzione di sopravvivenza S (dal termine inglese survival) come il complemento della funzione di ripartizione: S(x) = P(X > x) = 1 F(x) Nei casi rispettivamente continuo e discreto, valgono naturalmente delle identit speculari a quelle della ripartizione:

Ogni funzione di sopravvivenza S(x) una funzione monotona decrescente, Vale a dire R(a) < R(b) per a > b Il tempo x = 0 rappresenta l'origine,

in genere l'inizio di uno studio o l'inizio del funzionamento di alcuni

sistemi.

Funzione di ripartizione - Variabili aleatorie multivariate


Pi in generale la funzione di ripartizione di una variabile aleatoria X a valori in e codominio l'intervallo [0,1] definita da la funzione F(x) con dominio

dove Xi sono le componenti di X. Questa funzione possiede la propriet di essere continua a destra separatamente per ogni variabile. Valgono inoltre le seguenti formule, derivanti dalla definizione: Per qualsiasi i, F monotona crescente separatamente in ogni variabile, cio se c > 0, se k = 2 per semplicit,

ripartizione della variabile k-1-variata Da quest'ultima propriet viene anche l'uguaglianza

dove G la funzione di .

e l'affermazione vale ovviamente anche per ogni permutazione degli indici i.

Funzione di ripartizione - In statistica descrittiva


In statistica la funzione di ripartizione empirica o funzione di distribuzione cumulativa viene usata per descrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinali, intervallari o proporzionali, ma non se misurati con una scala nominale. La funzione di ripartizione o viene indicata solitamente con

e rappresenta il numero di osservazioni del fenomeno che cadono prima del valore x. Se x1,...,xn sono le osservazioni (ordinate in senso crescente), con frequenze relative f1,...,fn la funzione di ripartizione ha espressione analitica

Le Fi sono dette frequenze cumulate.

Momento (statistica)
In statistica, il momento semplice di ordine k di una variabile casuale definito come la media della k-esima potenza dei valori

, dove pi denota la funzione di massa di probabilit della variabile casuale. ovvero, nel caso di una v.c. continua

dove pX(x) denota la funzione di densit della variabile casuale. Il momento centrale di ordine k definito come la media della k-esima potenza dello scarto dalla media = 1

ovvero, nel caso di una v.c. continua

dove denota il valore atteso della variabile casuale. Caratteristiche di tali momenti semplici e centrali sono: 0 e m0 sono sempre uguali all'unit m1 sempre nullo

1 la media aritmetica, indicata tradizionalmente con m2 = 2 - 1 la varianza, indicata tradizionalmente con


In generale, la relazione tra il momento centrale (mk) e i momenti semplici (l) data da:

per cui, oltre a quanto indicato sopra:

m3 = 3 - 32 + 23 la asimmetria, o skewness m4 = 4 - 43 + 622 - 34 la curtosi

Convergenza di variabili casuali


In teoria della probabilit e statistica molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati. A ci vengono in soccorso i vari teoremi di convergenza di variabili casuali, che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni. I pi importanti risultati raggiungibili sotto forma di convergenza di variabili casuali sono il

teorema del limite

centrale, che afferma che, col crescere della numerosit di un campione, la sua distribuzione di probabilit pi o meno come quella di una gaussiana e la legge dei grandi numeri, che giustifica al posto di un valore di probabilit incognito l'uso di una sua stima fatta su di un campione finito. Si distinguono pi tipi di convergenza. Ognuna di queste condizioni si esporr qua per variabili casuali reali univariate, ma si generalizza senza troppe difficolt per variabili casuali multivariate.

Convergenza in distribuzione
Una successione di variabili casuali con funzioni di ripartizione Fn si dice convergere in distribuzione o , se il seguente limite esiste

convergere in legge alla variabile casuale X con funzione di ripartizione F, cio

in ogni punto

in cui F risulta continua. Questo il tipo di convergenza usato nel teorema del limite centrale.

Poich , ci che la convergenza in distribuzione implica che all'aumentare di n la probabilit che la successione assuma valori minori o uguali ad x (ovvero assuma valori in un certo intervallo) sar sempre pi simile alla probabilit che X assuma valori nello stesso intervallo. Si noti che questo non richiede che X e Xn assumano i medesimi valori. Da questa osservazione segue che X e Xn possono essere definiti a partire da spazi di probabilit modellanti esperimenti casuali differenti.

CONVERGENZA -Esempi
converge a X = 0. Vale infatti

e quindi

Una successione di variabili casuali uniformi discrete in

converge alla variabile casuale uniforme continua in [0,1]. Ci notevole considerando il passaggio tra classi profondamente distinte, ovvero quella delle v.c. discrete e quella delle v.c. continue. Vale anche il viceversa: ogni variabile casuale continua si pu discretizzare in una successione di variabili casuali discrete, cos come una funzione misurabile si interpreta come limite di una successione di funzioni semplici.

Teoremi

Se
Se

se e solo se per ogni funzione continua e limitata g(x) vale e l'unione dei supporti delle Xn limitato allora e h una funzione continua, allora allora per ogni i = 1,...,k

Se Xn una variabile k-variata, Xn = (Xn,1,...,Xn,k) e

Convergenza in probabilit
Come notato prima la convergenza in distribuzione d informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza pi forte. Diremo allora che una successione di variabili casuali simboli , se per ogni > 0 converge in probabilit alla variabile casuale X, in

o equivalentemente

Formalmente, scelti > 0, > 0 esiste N tale che per ogni . Questo tipo di convergenza usato nella legge debole dei grandi numeri. Quello che la definizione di convergenza in probabilit sostiene che, all'aumentare di n, la probabilit che i valori assunti dalla successione differiscano dai valori assunti da X meno di una quantit positiva piccola a piacere, si avvicina sempre pi ad 1. Teoremi Se se e solo se . per ogni i = 1,...,k.

(variabili k-variate) se e solo se , allora .

Se
Se

e X degenere (ovvero una v.c. costante), allora e g una funzione continua, allora .

Convergenza quasi certa


Una successione di variabili casuali casuale X, in simboli o . Poich la funzione di probabilit P definita su eventi, ovvero insiemi di esiti, la formula precedente pu essere riscritta come . Ovvero, dato lo spazio di probabilit (,,P), il limite si dice convergere quasi certamente (o quasi ovunque) alla variabile , se

esiste per ogni

t.c. P(U) = 1.

Quello che la definizione sostiene che le v.c. Xn e X differiranno, in limite, solo su eventi di probabilit nulla. Questa la nozione di convergenza pi forte, perch esprime il fatto che, all'aumentare della numerosit del campione, un

evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale X. Questo il tipo di convergenza usato nella legge forte dei grandi numeri. Teoremi Se se e solo se . per ogni i = 1,...,k. . . , poich

(variabili k-variate) se e solo se se e solo se per ogni , allora

Dalla precedente si ricava

Convergenza in media r-esima


Una successione di variabili casuali variabile casuale X, con r > 0, se: si dice convergere in media r-esima, o in norma r-esima, alla

Se r = 1, Xn si dice convergere in media a X. Se r = 2, la convergenza si dice in media quadratica. Secondo l'approccio assiomatico di Kolmogorov, questa convergenza equivale alla convergenza in norma Lp. Convergenza -Teoremi

Se Se Se

in media r-esima con r > 0, allora in media r-esima con r > 0, allora in media r-esima e , allora

in probabilit quasi certamente a meno di sottosuccessioni in media s-esima

Distribuzione
Funzione di densit di probabilit

Funzione di ripartizione

Parametri oppure

e e (k = , = 1)

Supporto Funzione di densit


(con la funzione Gamma)

Funzione di ripartizione
(la funzione Gamma incompleta inferiore regolarizzata)

Valore atteso Mediana Moda se

Varianza Skewness

Curtosi Entropia
(con la funzione digamma)

Funz. Gen. dei Momenti Funz. Caratteristica

per t < 1

In teoria delle probabilit la distribuzione (Gamma) una distribuzione di probabilit continua, che descrive anche le distribuzioni esponenziale e chi quadrato. Viene utilizzata come modello per i tempi di attesa nella teoria delle code. Nella statistica bayesiana comune come distribuzione a priori e a posteriori.

Distribuzione - Definizione
La distribuzione Gamma una distribuzione di probabilit definita sui numeri reali non negativi, . Viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi (k,), sia tramite la coppia di numeri positivi . La sua funzione di densit di probabilit

dove

la funzione Gamma.

La sua funzione di ripartizione la funzione Gamma incompleta inferiore regolarizzata

dove Distribuzione -Caratteristiche

la funzione Gamma incompleta inferiore.

I momenti semplici della distribuzione Gamma di parametri (k,) sono

, dove X una variabile aleatoria che segue questa distribuzione e la funzione Gamma ha la propriet In particolare la distribuzione ha

valore atteso E[X] = k, varianza Var(X) = k2,

indice di asimmetria indice di curtosi

Distribuzione - Propriet
Se X segue la distribuzione (k,) allora aX segue la distribuzione (k,a). Se X1,...Xn sono variabili aleatorie indipendenti, ognuna con distribuzione (ki,), allora la loro somma X1 + ... + Xn segue la distribuzione (k1 + ... + kn,).

Distribuzione -Altre distribuzioni


La distribuzione Gamma generalizza diverse distribuzioni:

se k un numero naturale si ottiene la distribuzione di Erlang;


la distribuzione esponenziale; la distribuzione chi quadrato; la distribuzione di Maxwell-Boltzmann di parametro a.

Nell'inferenza bayesiana la distribuzione Gamma pu descrivere sia a priori che a posteriori di un'osservazione il parametro X di diverse distribuzioni di probabilit, ad esempio della distribuzione esponenziale e della distribuzione di Poisson. La distribuzione Gamma inversa la distribuzione dell'inversa X 1 di una variabile aleatoria X che segue la distribuzione Gamma. Se X e Y sono variabili aleatorie indipendenti con distribuzioni (k1,) e (k2,), allora distribuzione Beta (k1,k2), mentre segue una distribuzione Beta del secondo tipo. segue la

Pi in generale il vettore , descritto da n variabili aleatorie indipendenti Xi di distribuzioni (ki,), segue una distribuzione di Dirichlet di parametri (k1,...,kn). Una generalizzazione della distribuzione Gamma la distribuzione di Wishart, che generalizza anche la distribuzione

Teoremi centrali del limite


I teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilit. A tutti i teoremi comune l'affermazione che la somma (normalizzata) di un grande numero di variabili casuali distribuita approssimativamente come una variabile casuale normale standard. Ci spiega l'importanza che quest'ultima variabile casuale assume nell'ambito della statistica e della teoria della probabilit in particolare. Jarl Waldemar Lindeberg dimostr nel 1922 il teorema del limite centrale nell'articolo "Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung", dimostrato successivamente e autonomamente da Alan Turing. Infatti il teorema, in parole povere, afferma che se si ha una somma di variabili aleatorie Xi indipendenti e identicamente distribuite (con densit uguali) con media e varianza 2, allora indipendentemente dalla forma distributiva di partenza, al tendere della dimensione campionaria a infinito la somma tende a distribuirsi come una variabile casuale normale. In formule:

e standardizzando:

dove

la v.c. media campionaria.

Teorema centrale del limite di Lindeberg-Lvy


La pi nota formulazione di un teorema centrale del limite quella dovuta a Lindeberg e Lvy; si consideri una successione di variabili casuali indipendenti e identicamente distribuite, e in particolare tali che esistano, e

finiti, i loro momenti di ordine primo e secondo, e sia in particolare per ogni . Definita allora la nuova variabile casuale:

dove

la media aritmetica degli

, si ha che

converge in distribuzione a una variabile , al limite per che tende a infinito,

casuale normale avente valore atteso 0 e varianza 1, ossia la distribuzione di coincide con quella di una tale variabile casuale normale.

La dimostrazione del teorema fa uso della nozione di funzione caratteristica della

, che altro non che la trasformata :

di Fourier della funzione di densit (o di massa di probabilit per variabili casuali discrete) della

Legge dei grandi numeri


La legge dei grandi numeri, detta anche legge empirica del caso oppure teorema di Bernoulli (in quanto la sua prima formulazione dovuta a Jakob Bernoulli), descrive il comportamento della media di una sequenza di n variabili casuali indipendenti e caratterizzate dalla stessa distribuzione di probabilit (n misure della stessa grandezza, n lanci della stessa moneta ecc.) al tendere ad infinito della numerosit della sequenza stessa (n). In altre parole, grazie alla legge dei grandi numeri, possiamo fidarci che la media che calcoliamo a partire da un numero sufficiente di campioni sia sufficientemente vicina alla media vera. In termini generici, per la legge dei grandi numeri si pu dire: che la media della sequenza una approssimazione, che migliora al crescere di n, della media della distribuzione; e che, viceversa, si pu prevedere che sequenze siffatte mostreranno una media tanto pi spesso e tanto pi precisamente prossima alla media della distribuzione quanto pi grande sar n.

Un caso particolare di applicazione della legge dei grandi numeri la previsione probabilistica della proporzione di successi in una sequenza di n realizzazioni indipendenti di un evento E: per n che tende a infinito, la proporzione di

successi converge alla probabilit di E (vedi esempio).

Legge forte dei grandi numeri


Se, data una successione di variabili casuali X1,X2,...,Xn,... indipendenti e identicamente distribuite con media , si considera la media calcolata

la legge (forte) dei grandi numeri afferma che

ossia la media campionaria converge quasi certamente alla media comune delle Xi.

Legge debole dei grandi numeri


Se, data una successione di variabili casuali X1,X2,...,Xn,... aventi la stessa media , la stessa varianza finita e indipendenti, si considera la media campionaria

la legge (debole) dei grandi numeri afferma che per ogni

ossia la media campionaria converge in probabilit alla media comune delle Xi.

Esempio
Supponiamo di avere un evento (come il fatto che lanciando un dado esca il sei) con probabilit sconosciuta p (sconosciuta perch il dado potrebbe essere truccato, o semplicemente difettoso: non possiamo saperlo in anticipo). Eseguendo n lanci consecutivi otteniamo una stima della probabilit di fare sei con quel dado, data da

dove le X della somma rappresentano l'esito dei lanci e valgono uno se in quel lancio uscito il sei, o zero se uscito un altro numero. La legge dei grandi numeri afferma semplicemente che, tante pi prove usiamo per calcolare la stima, tanto pi questa sar vicina, probabilmente, alla probabilit reale dell'evento p. Se la stima X(n) che calcoleremo sar molto vicina a un sesto, che la probabilit teorica che esca il sei per un dado perfetto, potremo essere ragionevolmente certi che il dado in questione non polarizzato per il sei (per essere sicuri che il dado non sia truccato in nessun modo dovremmo ripetere il test anche per gli altri cinque numeri). Che cosa significhi ragionevolmente sicuri dipende da quanto vogliamo essere precisi nel nostro test: con dieci prove avremmo una stima grossolana, con cento ne otterremmo una molto pi precisa, con mille ancora di pi e cos via: il valore di n che siamo disposti ad accettare come sufficiente dipende dal grado di casualit che riteniamo necessario per il dado in questione.

Con maggior rigore


Sia una successione di spazi di probabilit. Si consideri lo spazio prodotto esso una successione bernoulliana di eventi (stocasticamente indipendenti e con probabilit costante p) e in

. Assegnato un elemento , dove prove.

si definisce la frequenza di successo in n prove indica il numero di successi ottenuti in n

Legge debole dei grandi numeri


Nelle condizioni sopra enunciate, si ha: Dimostrazione fissato , si consideri la disuguaglianza di Bienaym-Tchebicheff .

poich Nn ha distribuzione binomiale, si ha e

, da cui

. Sostituendo, si ottiene:

pertanto, poich

Ma

, da cui la legge debole per confronto.

La legge debole dei grandi numeri non assicura che, comunque scelto , quasi certamente a partire da un certo il valore | n p | si mantenga minore o uguale a , ovvero che l'insieme sia limite, si trova: non diverga per . -trascurabile. Infatti, esplicitando la definizione di ma niente sembra assicurare che

Legge forte dei grandi numeri


Ci invece assicurato, nelle medesime condizioni, dalla proposizione: che, in effetti,

implica sia sia la legge debole dei grandi numeri. Dimostrazione delle due implicazioni la legge forte pu essere formulata, esplicitando la Definizione di limite e passando al complementare, come: che a sua volta equivalente, trasformando il quantificatore esistenziale in un'unione, a:

e per monotonia di

da cui, per confronto, la prima implicazione. Trasformando anche gli altri due quantificatori in operazioni insiemistiche, si ha:

ma, si in presenza dell'intersezione di una successione non crescente di insiemi, dunque per monotonia di ha:

, si

e ancora: da cui anche la seconda implicazione, ricordando che questo valido per ogni .

Dimostrazione della legge forte si gi visto che l'asserto equivalente a:

Discretizzando, come consueto nel caso dei limiti, si ha:

Per subadditivit

Dunque, se quest'ultima espressione sar nulla, si sar dimostrata la legge forte. Essendo dovr avere:

non negativa, si

si vuole mostrare che questo vero considerando la sottosuccessione Cantelli, pertanto si verifica che converga l'espressione

. Si vuole applicare il lemma di Borel-

Per la disuguaglianza di Bienaym-Tchebicheff si trova:

da cui:

Ma questa serie notoriamente convergente. Pertanto,

Si noti ora che ogni numero naturale n compreso tra due quadrati consecutivi: da cui

si noti ora che n q2 la massima differenza possibile tra

e Nn, da cui:

pertanto:

ora per si ha

, dunque:

passando al limite ( ottiene che, quasi certamente:

)e applicando il risultato ottenuto per

, si

il che conclude la dimostrazione.

You might also like