You are on page 1of 26

UNIVERSIDADE FEDERAL DA BAHIA

INSTITUTO DE MATEMÁTICA - DEPARTAMENTO DE ESTATÍSTICA

MAT 027 - ESTATISTICA IV


450

400

350

300

250
No of obs

200

150

100

50

Expected
0
0 5 10 15 20 25 30 35 40 Normal

Upper Boundaries (x <= boundary)

A P O S T I L A 2: P R O B A I L I D A D E

1
1 INTRODUÇÃO
Os estudos apresentados até o momento incidiram sobre a finalidade descritiva, isto é, visaram descrever as
características de amostras efetivamente observadas. A partir de agora, passa-se ao estudo da inferência ou
indução estatística, isto é, a generalização para o universo ou população correspondente às conclusões obtidas a
partir da amostra. Nesse sentido, o cálculo das probabilidades é fundamental, razão pela qual iremos conhecer
noções básicas sobre a teoria das probabilidades.
O estudo da probabilidade teve sua origem ligada aos jogos de azar, que implicam em ações como girar
uma roleta, lançar um dado ou uma moeda, retirar uma carta do baralho, etc. A estes jogos podemos associar
duas características: a primeira é a da incerteza dos resultados em determinada tentativa; a segunda refere-se
a regularidade que é observada a longo prazo.
Na ciência experimental existe um tipo semelhante de incerteza e de regularidade a longo prazo. Por
isso, nós nos utilizaremos destas experiências mais simples para gradativamente generalizar para o experi-
mento desejado. Inicialmente precisaremos também introduzir alguns conceitos gerais, indispensáveis para o
entendimento do leitor.

1.1 Tipos de Modelos Matemáticos:


1.1.1 Determinísticos:
ocorrem quando, dadas as condições de experimentação, pode-se determinar ou predizer com certeza o resul-
tado final do experimento.
Ex: Formulações matemáticas e físicas para comprovação de teorias, como a lei da queda e movimentos
dos corpos.

1.1.2 Não-determinísticos (ou probabilísticos):


ocorrem quando não é possível predizer, com certeza, o resultado antes da realização do experimento.
Ex: Investigação sobre o efeito de um novo tratamento em pacientes. Ou o efeito de um fertilizante
químico no solo.

1.2 Objetivo Geral da Teoria das Probabilidades


Definição de um modelo matemático não-determinístico, que seja conveniente à descrição e interpretação dos
fenômenos aleatórios.

Algumas definições importantes:

1.2.1 Fenômenos ou Experimentos Aleatórios (E)


São aqueles em que o processo de experimentação está sujeito a incertezas. Logo não é possível controlar as
circunstâncias relevantes, não sendo possível prever com exatidão o resultado das manifestações individuais.
Características de um experimento aleatório:

1. Cada experimento poderá ser repetido um grande número de vezes sob as mesmas condições;

2. Não podemos afirmar que resultado particular ocorrerá, porém podemos descrever o conjunto de todos
os resultados possíveis do experimento - as possibilidades de resultado.

3. Quando o experimento é repetido um grande número de vezes, surgirá uma regularidade nos resulta-
dos. Esta regularidade, chamada de regularidade estatística, é que torna possível construir um modelo
matemático preciso com o qual se analisará o experimento.

2
1.2.2 Espaço Amostral (Ω)
Refere-se ao conjunto de todos os resultados possíveis de um experimento aleatório.
Exemplo:

1. E: Lançamento de um dado e observação dos resultados


Ω = {1, 2, 3, 4, 5, 6}

2. E: Utilização de um novo medicamento para uma dada doença em três pacientes e observação de cura
ou não.
Ω = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)},
onde C = representa o paciente curado e
C = representa o paciente não curado.

1.2.3 Evento
Refere-se a um resultado particular de um experimento.
Utilizaremos letras maiúsculas para representar os eventos.
Exemplos: em relação aos dois experimentos citados anteriormente teríamos:

1. Um evento possível seria: a ocorrência de números pares no lançamento de um dado.


A = {2, 4, 6}

2. Um outro evento podederia ser: a observação de dois pacientes curados no segundo exemplo:
D = {(C, C, C); (C, C, C); (C, C, C)}

1.2.4 Ponto Amostral


Refere-se a um elemento qualquer de um evento, por exemplo o elemento (C, C, C) do último exemplo.

Costuma-se definir um evento como qualquer subconjunto de um espaço amostral. Neste sentido, veremos
agora uma pequena revisão da teoria de conjuntos, direcionada aos espaços amostrais e eventos.
Operações entre eventos
Entre eventos em um mesmo espaço amostral são permitidas todas as operações relativas aos conjuntos
contidos num mesmo conjunto universo, como: união (∪), interseção (∩), diferença (−) ou diferença simétrica
(4). Maiores detalhes com seu professor em sala de aula.

Tipos de Eventos

1. Evento simples ou elementar


É o evento formado por um único ponto amostral.
Exemplo: D = {(C, C, C)}

2. Evento certo
É o evento formado por todos os pontos amostrais.
Exemplo: no exemplo do dado, temos F = {1, 2, 3, 4, 5, 6} = Ω é um evento certo.

3. Evento impossível
É o evento que não possui elementos em Ω.
Exemplo: ainda no exemplo do dado, seja G =“sair face 7”, G = ∅.

3
Relação entre Eventos

1. Eventos mutuamente exclusivos:


Dizemos que dois eventos são mutuamente exclusivos quando a ocorrência de um impossibilita a ocor-
rência do outro, ou seja, se A e B são eventos mutuamente exclusivos então A ∩ B = ∅
Ex.: E : Lançamento de um dado =⇒ Ω = {1, 2, 3, 4, 5, 6}
Evento A = {2, 4, 6}- ocorrência de números pares
Evento B = {1, 3, 5} - ocorrência de números ímpares
A e B são eventos mutuamente exclusivos.
2. Eventos complementares
Dizemos que dois eventos são complementares, se a união entre eles resulta no espaço amostral e se a
interseção resultado num evento impossível, ou seja, se A e B são eventos complementares então A ∩ B
=∅eA∪B=Ω
Ex.: O evento C = {1, 2, 4} é o complementar do evento D = {3, 5, 6}, ou C = D. Ou ainda os eventos
A e B do exemplo anterior são eventos cmplementares.

2 PROBABILIDADE
Se conhecemos todos os resultados possíveis (Ω) de um experimento E então podemos determinar qual a
chance de ocorrência de cada evento, ou seja, a probabilidade de ocorrência do evento.
A probabilidade de ocorrência de um evento A será definida por P (A), que será:
número de casos favoráveis ao evento A
P (A) =
número de casos possíveis em Ω
Exemplos:

1. E: Lançamento de uma moeda


Ω = {Cara, Coroa}
A = “Aparecimento da face cara” =⇒ A = {Cara}
número de casos favoráveis ao evento A n(A) 1
P (A) = = =
número de casos possíveis em Ω n(Ω) 2
Então, concluímos que a probabilidade de se obter o resultado cara ao lançarmos uma moeda honesta é
1
de ou 50%.
2
2. E: Uma droga é lançada no mercado para tratamento de verminose em bois, e para testar sua ação
foram utilizadas em três animais.
Ω = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)}, onde C repre-
senta a cura e seu complementar C representa a não cura.

(a) Seja A o evento que expressa três curas, então A = {(C, C, C)}
número de casos favoráveis ao evento A n(A) 1
P (A) = = =
número de casos possíveis em Ω n(Ω) 8
(b) Seja B o evento que expressa, pelo menos uma cura, então
B = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)}
n(B) 7
P (B) = =
n(Ω) 8

4
2.1 Axiomas de Probabilidade
Sejam A e B eventos em um mesmo espaço amostral Ω. Dizemos que um número real p, que pode ser P (A)
ou P (B), representa uma probabilidade, se e somente se, p satisfizer às seguintes condições:

1. 0 < p < 1

2. P (Ω) = 1

3. Se A e B são mutuamente exclusivos, P (A ∪ B) = P (A) + P (B), pois queP (A ∩ B) = 0

2.1.1 Teoremas:
1. Se φ é um evento impossível, então P (φ) = 0

2. Se A é o complementar de A, então P (A) = 1 − P (A)

3. Se A e B são eventos quaisquer em Ω, então:


P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Exemplo: Numa sala de aula há 5 alunos que pesam entre 54 e 60 Kg; e 26 alunos com peso entre 61 e 70
Kg. Ao selecionarmos um aluno ao acaso, qual a probabilidade de um aluno pesar entre 61 e 70 Kg?
Considere a categorização

1. peso entre 54 e 60 quilos

2. peso entre 61 e 70 quilos

Então Ω será formado por 5 pessoas da categoria 1 e 26 pessoas da categoria 2.


Seja A o evento que engloba as pessoas com peso entre 61 e 70 quilos, portanto na categoria 2. Logo:
26
P (A) = = 0, 838 7
31
Podemos dizer portanto, que a probabilidade de selecionarmos um aluno com peso entre 61 e 70 quilos
nesta sala de aula é de aproximadamente 83, 87%.

3 PROBABILIDADE CONDICIONAL
Muitas vezes, dois eventos relacionam-se entre si de tal modo que a probabilidade de um ocorrer depende da
ocorrência ou não do outro.
Suponha que temos o resumo das informações de um levantamento de 100 idosos residentes em dez asilos
da Grande Belo Horizonte. Na tabela a seguir, encontra-se a distribuição dos idosos segundo o peso e a pressão
arterial.

Tabela 1: distribuição dos idosos segundo o peso e a pressão arterial.


Pressão Arterial PESO TOTAL
Excessivo Normal Deficiente
Elevada 10 8 2 20
Normal 15 45 20 80
TOTAL 25 53 22 100

5
Queremos a probalidade de selecionarmos ao acaso um idoso com pressão arterial elevada, sabendo-se que
o indivíduo tem peso normal.
Resolução:
E: Selecionar um idoso
Sejam os seguintes eventos:
P: o indivíduo tem peso normal =>np = 53
C: o indivíduo apresenta pressão arterial elevada => nc = 20
Q: o indivíduo simultaneamente tem peso normal e pressão arterial elevada.
Assim: nQ = 8 Q = P ∩ C => nP ∩ C = 8
Usando a definição de probabilidade, queremos calcular:
no .de casos favoráveis ao evento 8
P (“ter pressão elevada, sabendo que tem peso normal”) = o ∗
= =
n . de casos possíveis em Ω 53
o
0, 1509, pois que o n . total de idosos com peso normal é 53, dentre os quais 8 são tem pressão elevada.
Note que há aqui uma redução do espaço amostral Ω, à qual chamamos de Ω∗ . Note ainda que Ω∗ representa
apenas a porção de Ω referente à informação a priori que nos foi fornecia: “sabendo-se que o indivíduo tem
peso normal ”
Sabemos ainda que se dividirmos o numerador e o denominador de uma fração pelo mesmo número, ele
não se altera. Assim, vamos dividí-los pelo tamanho do espaço amostral Ω (n = 100). Temos portanto:
nP ∩C
8
nP ∩ C 8 n 100 P (P ∩ C)
= = np = 53 = = 0, 1509
np 53 100
P (P )
n
Então podemos verificar que a probabilidade de selecionarmos um idoso com pressão elevada, ao acaso,
sabendo a priori que este indivíduo tem peso normal é o mesmo que calcularmos a probabilidade de ocorrência
simultânea dos eventos ter pressão elevada e peso normal dividido pela probabilidade de ter peso normal.

DEFINIÇÃO: Dados dois eventos A e B associados a um mesmo espaço amostral Ω, sendo P (A) > 0 e
P (B) > 0, a probabilidade de ocorrência do evento B, condicionada à ocorrência do evento A (ou probabilidade
de B dado A), é definida por:
P (A ∩ B)
P (B|A) = ;
P (A)
P (A ∩ B)
e a probabilidade de A dado B é:
P (B)
Observe que no cálculo da probabilidade condicional ocorre uma redução do espaço amostral. A restrição
é deefinida pelo “dado B” ou “dado A”, de acordo com a situação.

Exemlo:
Com os dados do exemplo anterior, calcule a probabilidade do idoso selecionado ter peso normal, dado
que tem pressão arterial elevada?
8
P (P ∩ C)
P (P |C) = = 100 8 2
20 = 20 = 5 = 0, 40
P (C) 100

3.1 Teorema do Produto (ou da Multiplicação)


Muitas vezes queremos determinar a probabilidade de ocorrem dois eventos ao mesmo tempo ou um em
seguida do outro.
Consideremos para exemplificar que uma urna contém 3 bolas brancas e 2 bolas azuis. Uma bola será
retirada da urna ao acaso e, em seguida, uma segunda bola será retirada também ao acaso, sem que a primeira
tenha sido recolocada. Qual é a probabilidade de serem retiradas, primeiro uma bola azul e em seguida uma
bola branca?

6
Como a urna contém 5 bolas: 3B e 2A, então a probabilidade da primeira bola ser azul é:
2 no . casos favoráveis
= o
5 n . casos possíveis
Devemos considerar agora que, se foi retirada uma bola azul, ficariam na urna 4 bolas: 3B e 1A. Então,
a probabilidade de ser retirada uma bola branca da urna, dado que é retirada uma bola azul é:
3 no . casos favoráveis
=
4 no . casos possíveis
Para obtermos a probabilidade de ser retirada uma bola azul e, em seguida, uma bola branca, multiplicamos
a probabilidade de ser retirada uma bola azul pela probabilidade de ser retirada uma bola branca, dado que
a primeira bola retirada era azul. Então, faremos:
2 3 6 3
5 × 4 = 20 = 10
Poderíamos então enunciar o teorema do produto.

3.1.1 Teorema:
Se A e B são dois eventos quaisquer associados ao mesmo espaço amostral, com probabilidades positivas,
então a probabilidade de ocorrência simultânea de A e B, P (A ∩ B) é dada por:
P (A ∩ B) = P (A).P (B|A) = P (B).P (A|B)
P (A ∩ B)
P (B|A) = => P (A ∩ B) = P (A).P (B|A)
P (A)
Exemplo:
Em lote de 12 peças, 4 são defeituosas. Retira-se 2 peças do lote, uma após a outra, sem reposição. Qual
a probabilidade de que ambas sejam boas?
Resp: A = {primeira peça é boa} B = {segunda peça é boa}
8 7 56
P (A ∩ B) = P (A).P (B/A) = 12 × 11 = 132 = 28 14
66 = 33 = 0, 4242

3.2 INDEPENDÊNCIA ESTATÍSTICA


Dizemos que dois eventos são estatisticamente independentes quando a ocorrência de um não interfere na
ocorrência do outro.
Se o evento A é estatisticamente independente do evento B,então P (A|B) = P (A). Assim como P (B|A) =
P (B)
Vimos, pelo teorema do Produto que:
P (A ∩ B) = P (A).P (B|A) = P (B).P (A|B).
Agora podemos reescrever esta expressão da seguinte forma para eventos independentes:

P (A ∩ B) = P (A).P (B) = P (B).P (A)

P (A ∩ B) P (A).P (B)
Prova:P (A|B) = = = P (A). Ou seja, a ocorrência de A não depende de B. Se B
P (B) P (B)
ocorre (dado B), isto não afetará a ocorrência de A.
Assim, dados “n” eventos A1 , A2 , ..., An , diremos que eles são independentes se eles forem independentes
2 a 2, 3 a 3,..., n a n.
Isto é, se as igualdades abaixo forem verificadas:
P (A1 ∩ A2 ) = P (A1 )P (A2 ); ........; P (An−1 ∩ An) = P (An−1 ).P (An )
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 ).P (A3 ); ...; P (An−2 ∩ An−1 ∩ An ) = P (An−2 )P (An−1 )P (An )...
P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ).P (A2 ).P (A3 ).....P (An )

Exemplo:

7
Em uma caixa temos 10 peças, das quais 4 são defeituosas. São retiradas 2 peças da caixa, uma após a
outra, com reposição. Calcular a probabilidade de que:

1. ambas sejam boas;

2. a primeira seja defeituosa e a segunda seja boa.

Resp: O fato de tirar a primeira peça boa ou não, não irá influenciar na qualidade da segunda devido à
reposição. Ou seja, as retiradas são independentes. Sejam então os eventos:
6
A1 = {“a primeira bola é boa” } => P (A1 ) = 10 = 0, 6
6
A2 = {“a segunda bola é boa”} => P (A2 ) = 10 = 0, 6
4
B1 = {“a primeira bola é defeituosa”} => P (B1 ) = 10 = 0, 4
Assim, dedvido à independência, teremos:
6 6 36 9
1. P (A1 ∩ A2 ) = 10 × 10 = 100 = 25 = 0, 36
4 6 24
2. P (B1 ∩ A2 ) = 10 × 10 = 100 = 0, 24

Obs.: Como já foi visto anteriormente nos teoremas de probabilidade:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B).

Portanto, se A e B são independentes, então P (A ∪ B) = P (A) + P (B) − P (A).P (B). Este resultado
costuma ser chamado de Teorema da Soma.

Exemplo:
Queremos obter a probabilidade de sair pelo menos uma cara, quando se joga uma moeda duas vezes.
Resp: seja E= lançar uma moeda duas vezes.
Ω = {(C, C), (C, C), (C, C), (C, C}
A= {“sair cara no primeiro lance”} =⇒ A = {(C, C), (C, C)}
B= {“sair cara no segundo lance”} =⇒ B = {(C, C), (C, C)}
Queremos P (A ∪ B). Como são eventos independentes, temos:
P (A ∪ B) = P (A) + P (B) − P (A).P (B) = 24 + 24 − 14 = 34 = 0, 75.
Por outro lado, utilizando o fato de que A ∩ B = {(C, C)}, obteríamos a mesma probabilidade:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 24 + 24 − 14 = 0, 75

3.3 LEMA DA PROBABILIDADE TOTAL


Considere que o espaço amostral Ω possa ser dividido em eventos mutuamente exclusivos, por exemplo, A e
A, sendo que A representa o complementar de A, com AUA = Ω e A ∩ A = ∅.
Obs.: dizemos que os eventos A e A acima formam uma partição do espaço amostral Ω.
Sejam B, C e D eventos quaisquer contidos em Ω, como na figura a seguir.

A A

C
D

8
Dessa forma podemos encontrar as probabilidades associadas aos eventos B, C e D, da seguinte forma:
P (B) = P (B/A).P (A) + P (B/A).P (A)
P (C) = P (C/A).P (A) + P (C/A).P (A)
P (D) = P (D/A).P (A) + P (D/A).P (A)

Exemplo: Considere que estejamos interessados em verificar a reação de um teste laboratorial para certa
enfermidade. Sejam então os eventos a seguir:
A = “ter uma certa enfermidade” =⇒ A = “não ter essa enfermidade”
B = “apresentar reação positiva no teste laboratorial para a referida enfermidade”.
Suponhamos que:
P (A) = 0, 20; P (A) = 0, 80; P (B/A) = 0, 60; P (B/A) = 0, 30
De acordo com a expressão anterior, teremos: P (B) = P (B/A).P (A)+P (B/A).P (A) ⇐⇒ (0, 60).(0, 20)+
(0, 30).(0, 80) = 0, 36

A princípio teríamos P (A) = 0, 20, que permite ao investigador dizer que há 20% de probabilidade de um
indivíduo tomado ao acaso desta população ter a enfermidade.
Agora calculando P (B), obteremos o resultado que mostra que o conhecimento de que a reação foi positiva
permite dizer com maior probabilidade de que o indivíduo selecionado ao acaso de uma população tenha a
enfermidade em questão. Ou seja, o grau de incerteza diminuiu.

De modo geral, se supusermos a seguinte partição de Ω: A1 , A2 , ..., An , tal que P (Ai ) 6= 0, para i =
1, 2, ..., n; e sendo F um evento qualquer de Ω, então:
F ∩ A1 , F ∩ A2 , F ∩ A3 , ..., F ∩ An é uma partição de F tal que:

n
X n
X
P (F ) = P (F ∩ Ai ) = P (Ai ).P (F/Ai ),
i=1 i=1

que constitui a expressão geral da probabilidade total.

Exemplo:
Suponha que temos dois dados, um azul e um vermelho. O dado vermelho tem duas faces “um” e quatro
faces “dois”. O dado azul tem quatro faces “um” e duas faces “dois”. Escolha um dado ao acaso, jogue-o e
observe a face superior. Qual é a probabilidade de sair a face “dois”?
Resp: Seja A o evento “escolher dado vermelho” =⇒ A = “escolher o dado azul”
Só teremos estas duas possibilidades, ou escolheremos o dado azul ou dado vermelho. As duas escolhas
juntas formam o Ω e têm interseção vazia, ou seja, formam uma partição de Ω.
Seja B o evento “sair face ‘dois”’.
Assim P (B) irá depender de qual dado foi escolhido, logo:
P (B) = P (B/A).P (A) + P (B/A).P (A) = 46 × 12 + 26 × 12 = 12
4 2
+ 12 6
= 12 = 12 será a probabilidade de
sair a face “dois”.

3.4 REGRA DE BAYES


Considere novamente o espaço amostrtal Ω, com a partição representada na figura abaixo:

A2 A4
A1 An

A3 A6 B
A5
A1 , A2 , A3 , ..., An , são n eventos mutuamente exclusivos, tais que A1 ∪ A2 ∪ A3 ∪ ... ∪ An = Ω.

9
Sejam P (Ai ) as probabilidades conhecidas dos eventos da partição, e seja B um evento qualquer de Ω tal
que conhecemos todas as probabilidades condicionais P (B/Ai ).
Então, para cada “i” teremos:

P (Ai ).P (B/Ai )


P (Ai /B) = ,
P (A1 ).P (B/A1 ) + P (A2 )..P (B/A2 ) + ..... + P (An ).P (B/An )

que constitui a Regra de Bayes.


Podemos pensar que os Ai ’s são possíveis causas para B acontecer, e B seria a consequência. Digamos
então que queiramos saber qual a probabilidade de Ak ser a causa que provoca B, ou seja: P (Ak /B), para
algum k.
Exemplo:
Consideremos a seguinte configuração:

Tabela 2: Distribuição das cores das bolas segundo as urnas.


Cores Urnas
u1 u2 u3
P retas 3 4 2
Brancas 1 3 3
V ermelhas 5 2 3

Escolheu-se uma urna ao acaso e dela extraiu-se uma bola ao acaso, verificando-se que a bola é branca.
Qual a probabilidade da bola ter vindo da urna 2? E da urna 3?
Solução:
Sejam os eventos: u1 =“a urna 1 é a escolhida”
u2 =“a urna 2 é a escolhida”
u3 =“a urna 3 é a escolhida”
br = “a bola estraída é branca”.
1
Assim: P (u1 ) = 3 ; P (u2 ) = 13 ; P (u3 ) = 13 . A probabilidade de ser escolhida qualquer uma das
três urnas é a mesma.
Além disso:
P (br/u1 ) = 19 ; P (br/u2 ) = 39 = 13 ; P (br/u3 ) = 38
Queremos calcular: P (u2 /br) e P (u3 /br).
Aplicando o Teorema de Bayes, teremos:
11
P (u2 )P (br/u2 )
P (u2 /br) = = 1 1 31 13 1 1 = 2459
P (u1 )P (br/u1 ) + P (u2 )P (br/u2 ) + P (u3 )P (br/u3 ) 39 + 33 + 38

13
P (u3 ).P (br/u3 ) 38 27
P (u3 /br) = = 11 11 11 = 59
P (u1 ).P (br/u1 ) + P (u2 ).P (br/u2 ) + P (u3 ).P (br/u3 ) 39 + 33 + 38

3.4.1 APLICAÇÕES DA REGRA DE BAYES EM SAÚDE


A principal aplicação da regra de Bayes em saúde está associada a testes diagnósticos. Vejamos as seguintes
definições:

1. Valor preditivo positivo (VP+) de um teste diagnóstico é a probabilidade de que a pessoa tenha a
doença, dado que o teste foi positivo, ou seja: VP+ = P(ter doença/teste +).

10
2. Valor preditivo negativo (VP−) de um teste diagnóstico é a probabilidade que a pessoa não tenha a
doença, dado que o teste foi negativo, ou seja: VP− = P(não ter a doença/ teste −).
Exemplo: Encontre os valores preditivos positivo e negativo para o teste cutâneo de diagnóstico da
tuberculose. Suponha que 1, em cada 10.000 das pessoas que apresentaram teste cutâneo negativo
para a tuberculose, tem a doença; e 1 pessoa, em 100 das que apresentaram resultado positivo do teste
cutâneo para tuberculose, de fato apresentam a doença.
Solução: Considere os eventos:
B = ter a doença
A = teste dar positivo =⇒ A = teste dar negativo.
Definidos estes eventos e, de acordo com as suposições acima, temos P (B/A) = 0, 0001 e P (B/A) = 0, 01
ou seja, V P + = P (B/A) = 0, 01; V P − = P (B/A) = 1 − P (B/A) = 0, 9999
Assim, se o teste cutâneo é negativo, a pessoa muito provavelmente não terá a doença (V P − ≈ 1),
enquanto que se o teste cutâneo for positivo a pessoa tem apenas uma pequena chance de ter a doença
(V P + = 0, 01).
Quanto maior o valor preditivo de um teste diagnóstico, mais válido será este teste. Idealmente
gostaríamos de encontrar tanto o VP+ quanto o VP− iguais a 1. Desta forma teríamos um diagnóstico
preciso da doença.
Médicos frequentemente não podem medir diretamente o valor preditivo de um conjunto de sintomas.
Contudo, eles podem mensurar a frequência com a qual alguns sintomas específicos ocorrem em pessoas
doentes e normais. Estas medidas são definidas da seguinte forma:

3. Sensibilidade de um sintoma (ou conjunto de sintomas ou de um teste diagnóstico) é a probabilidade de


que um sintoma esteja presente dado que a pessoa tenha a doença.

4. Especificidade de um sintoma (ou conjunto de sintomas ou de um teste diagnóstico) é a probabilidade


que o sintoma não esteja presente dado que a pessoa não tem a doença.

5. Um falso negativo ocorre quando a pessoa, cujo resultado do teste aponta negativo, é de fato portadora
da doença.

6. Um falso positivo ocorre quando a pessoa, cujo resultado do teste aponta positivo, efetivamente NÃO
é portadora da doença.

É importante que tanto a sensibilidade quanto a especificidade sejam altas para que um sintoma seja
efetivamente preditivo para a doença.
Exemplo: Suponha que a doença é o câncer de pulmão e o sintoma é o hábito de fumar. Se assumirmos
que 90% das pessoas com câncer de pulmão e 50% das pessoas sem câncer de pulmão são fumantes, então
a sensibilidade e a especificidade são 0, 9 e 0, 5, respectivamente. Obviamente o hábito de fumar não pode
ser usado como ferramenta diagnóstica para prever casos de câncer de pulmão porque haverá muitos falsos
positivos (pessoas normais que fumam).

3.4.2 Relação entre valor preditivo e sensibilidade/especificidade:


Através da Regra de Bayes, pode-se encontrar facilmente uma relação entre a sensibilidade, a especificidade,
e os valores preditivos positivo e negativo.
Seja o evento A indicativo da ocorrência de dado sintoma e o evento B indicativo da ocorrência da doença.
Assim temos:

V P + = P (B/A),

11
pela Regra de Bayes:

P (A).P (B/A)
V P + = P (B/A) = ,
P (A/B).P (B) + P (A/B).P (B)
onde P (A/B) é a sensibilidade, e P (A/B) é a especificidade.
De maneira análoga, pode-se encontrar a relação entre o valor preditivo negativo e sensibilidade e especi-
ficidade.

4 VARIÁVEIS ALEATÓRIAS
4.1 CONCEITO DE VARIÁVEL ALEATÓRIA
Sejam Ω o espaço amostral; A, B, C, D, etc. eventos de Ω e os respectivos pontos amostrais que formam Ω.
No caso do tratamento de três pacientes com uma nova droga, temos todos os resultados possíveis, em
relação à eficácia da droga, que serão:
Ω = {(C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C)}
onde C = droga curou paciente
C = droga não curou paciente
O ponto amostral (C, C, C) representa 3 curas. O ponto amostral (C, C, C), assim como (C, C, C) e
(C, C, C) representam duas curas; (C, C, C), (C, C, C), (C, C, C) representam uma cura e (C, C, C) representa
nenhuma (zero) cura.
Se estivéssemos interessados em determinar uma variável qualquer, digamos Y , que representasse o número
de curas, Y poderia ser:
y = 3 (três curas)− > P (ter três curas) = P (Y = 3)
y = 2 (duas curas)− > P (ter duas curas) = P (Y = 2)
y = 1 (uma cura)− > P (ter uma cura) = P (Y = 1)
y = 0 (nenhuma cura)− > P (nenhuma cura) = P (Y = 0)

4.1.1 DEFINIÇÃO:
Variável aleatória (v.a.) é uma função que associa a cada ponto amostral de Ω, um valor real.
Ω X R
ω1 x1
ω2 x2
ω3 x3
ω4 x4

...

Exemplo: Seja Y a variável aleatória que conta o número de curas no tratamento de três pacientes com
uma nova droga. Se RY representa o conjunto de todos os valores que Y pode assumir, então RY = {0, 1, 2, 3}.
ω y
(C, C, C) 3
(C, C, C) 2
(C, C, C) 2
(C, C, C) 2
(C, C, C) 1
(C, C, C) 1
(C, C, C) 1
(C, C, C) 0

12
4.2 Função de Probabilidade
É uma função matemática que associa probabilidades a valores assumidos pela variável aleatória X. Iremos
diferenciar esta função para o caso em que a variável aleatória em estudo for discreta ou contínua. Cada um
desses conceitos está a seguir.

5 Variável Aleatória Discreta


A variável aleatória X é uma variável aleatória discreta, se o conjunto de valores que X pode assumir é um
conjunto finito de valores ou um conjunto infinito enumerável.
Exemplo:
X = {0, 1, 2, 3, 4}
X = {1, 2, 3, ...}

5.1 Função de Probabilidade para Variáveis Aleatórias Discretas


A probabilidade de que a v.a. X assuma o valor x é uma função de X, que representamos por P (X = x) ou
simplesmente px . A função P (X = x) determina a distribuição de probabilidades da v.a. X.
Os valores assumidos por X, e suas probabilidades associadas, podem ser expressas por uma regra ou uma
relação, que é chamada de função de probabilidade, referida também como distribuição de probabilidade da
v.a. X.
Exemplos:
1. Seja E o experimento: Lançamento de duas moedas, e sejam:
X = no de caras obtidas
Ω = {(C, C), (C, C), (C, C), (C, C)}
Expressando em tabelas a distribuição de probabilidade P (X = x), temos:
x 0 1 2
1 2 1
P (X = x) 4 4 4

P(x)
Graficamente teremos:
1/ 2

1/ 4

0 1 2 X
( 1
, x = 0, 1, 2
Ou ainda por fórmula temos: P (X = x) = 4 .
0, caso contrário
2. Suponha que um médico concorda em usar uma nova droga anti-hipertensiva em um experimento com
4 pessoas, antes de adotar a droga para uso rotineiro. Seja X = no de pacientes entre os 4 que tiveram
sucesso com a droga. Então X = 0, 1, 2, 3, 4. Suponha ainda que neste estudo ele encontre que a
probabilidade de que nenhum paciente, dentre os 4, fique sob controle é de 0,08; de que apenas 1
paciente destes 4 é de 0,076; de que 2 deles é de 0,265; de que 3 deles 4 é 0,411, e de que todos os 4
pacientes é 0,240. Então, a distribuição de probabilidade desta variável será:
x 0 1 2 3 4
P (X = x) 0, 008 0, 076 0, 265 0, 411 0, 240

13
5.2 Função de Distribuição Acumulada (para variáveis aleatórias discretas)
A função de distribuição acumulada de uma v.a. X num ponto x, é definida como sendo a probabilidade de
que a v.a. X assuma um valor menor ou igual a x, isto é:
F (x) = P (X ≤ x)

5.2.1 Propriedades:
P
1. F (x) = P (xi )
2. F (−∞) = 0
3. F (+∞) = 1
4. P (a < X ≤ b) = F (b) − F (a)
Exemplo:
1 1 1
Suponhamos que a v.a X assuma os valores 0, 1, 2 com probabilidades ; ; , respectivamente. Então:
3 6 12
x 0 1 2
P (X = x) 1/3 1/6 1/2

F(x)
1



 0, se x < 0 1/ 2

1/3, se 0 ≤ x < 1
F (x) = P (X ≤ x) =

 1/2, se 1 ≤ x <≤ 2 1/ 3

1, se x ≤ 2
0 1 2 3 X
A distribuição de probabilidade é uma boa maneira de se verificar o comportamento dos dados, fazendo-
se uma analogia às distribuições de frequência. No entanto, se existem muitos números com probabilidade
positiva, então esta distribuição deixa de ser uma medida de verificação do comportamento sumário dos dados.
Assim, medidas de posição e de variação podem ser desenvolvidas para variáveis aleatórias de maneira análoga
à que foi anteriormente verificada.
• A média aritmética de X é referida como o valor esperado de uma v.a, ou média populacional e é
denotada por E(X) ou µ. O valor esperado representa o valor médio da v.a, que é obtido da seguinte
forma, para v.a. discretas:
X
µ = E(X) = xi P (X = xi )
i

Exemplo: Usando os dados do exemplo de hipertensão, tem-se que:


E(X) = 0 × (0, 008) + 1 × (0, 076) + 2 × (0, 265) + 3 × (0, 411) + 4 × (0, 240) =
= 0 + 0, 076 + 0, 53 + 1, 233 + 0, 96 = 2, 799 ≈ 3
• A variância, análoga à σ2 , para uma v.a. é denotada por V ar(X) e representa a dispersão dos valores
em relação ao valor esperado. A variância para uma v.a. discreta X é obtida da seguinte maneira:
X
V ar(X) = (xi − µ)2 P (X = xi )
i
p rP
Consequentemente, σ, o desvio padrão de X será: σ = V ar(X) = (xi − µ)2 P (X = xi )
i

14
5.3 PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE (caso discreto)
Algumas variáveis aleatórias merecem atenção especial no nosso estudo devido à sua importência e aplicabil-
idade. Algumas delas serão vistas agora.

5.3.1 DISTRIBUIÇÃO DE BERNOULLI


Na vida real é freqüente nos depararmos com situações em que, mesmo que inconscientemente, utilizamos a
Distribuição de Bernoulli. Esta distribuição é aplicada a variáveis que apresentam apenas duas possibilidades
de resultados, que são chamadas de variáveis dicotômicas.
Exemplos:

1. Observar se um domicílio possui ou não televisão

2. Observar se um estabelecimento agrícola possui ou não trator

3. Verificar se um paciente apresenta ou não determinado sintoma.

Seja E um experimento aleatório. Ao resultado que nos interessa estudar vamos chamar de SUCESSO
e qualquer outro resultado de FRACASSO ou INSUCESSO. Ao sucesso associamos o valor “um” e ao
fracasso o valor “zero”. Além disso, considere que uma v.a. Y seja construída da seguinte forma:
Se o resultado for sucesso então y = 1.
Se não tivermos suceeso (ou seja, se o resultado for fracasso) então y = 0.
Assim,
P (ocorrer sucesso) = P (y = 1) = p
P (ocorrer fracasso)
½ = P (y = 0) = 1 − p = q
p, se y = 1
P (Y = y) = . Note que p é a probabilidade de ocorrer o sucesso.
1 − p, se y = 0
Exemplo:
Seja E o lançamento de um dado. Considere como Sucesso ocorrer a face 5.
Podemos definir a variável aleatória X da seguinte forma:
½
1, se sair face 5
X=
0, se sair qualquer das faces 1,2,3,4 ou 6

no de eventos favoráveis 1
Desse modo, P (X = 1) = P (de sair face5) =
o
=
n de eventos possíveis 6
1 1 6−1 5
P (X = 0) = é o complementar de = 1 − = =
6 6 6 6

Média e Variância da Distribuição de Bernoulli

• Se X tem distribuição de Bernoulli, então sua média µX será: E(X) = p



• Se X tem distribuição de Bernoulli, então sua variância σ2X será: V ar(X) = pq =⇒ σX = pq

5.3.2 DISTRIBUIÇÃO BINOMIAL


É definida quando se tem n ensaios independentes e se deseja contar quantos sucessos foram obtidos nas n
tentativas.
O modelo binomial é definido por:
µ ¶
n
P (X = x) = px (1 − p)n−x , para x = 0, 1, 2, ..., n
x

15
onde n e p são chamados de parâmetros da distribuição.

Notação: X ∼ B(n, p). Lê-se: “X tem distribuição Binommial com parâmetros n e p”


Através do modelo binomial pretende-se calcular a probabilidade de ocorrência de x sucessos em n
repetições independentes de um experimento.
µ ¶
n n! n(n − 1)...1
Lembremos que = =
x x!(n − x)! (n − x)(n − x − 1)...1 × x(x − 1)...1
Exemplos: Se a probabilidade de um estabelecimento possuir trator é 0,4; e se pesquisarmos 5 estabelec-
imentos, qual a probabilidade de:

1. exatamente dois possuírem trator?


Solução: p = 0, 4 7−→ probabilidade de ter trator, ou seja, a probabilidade. de sucesso.

(a) Entre os 5 estabelecimentos, ou seja, n = 5, a probabilidade de 2 terem tratores é:


µ ¶
5 5!
P (X = 2) = (0, 4)2 (1 − 0, 4)5−2 = (0, 4)2 (0, 6)3 =
2 (5 − 2)!2!
5! 5.4.3.2.1
= 10.(0, 4)2 .(0, 6)3 = 10.(0, 16).0, 216 = 0, 3456, pois = = 10
(5 − 2)!2! 3.2.1.2.1
2. no máximo dois possuírem trator?
Solução: Isto é representado por:
P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
µ ¶
5 5
P (X = 0) = p0 q 5 = !.1.(0, 6)5 = 0, 0778
0 0!5!
µ ¶
5
P (X = 1) = p1 q 4 = 5.(0, 4).(0, 6)4 = 0, 2592
1
µ ¶
5
P (X = 2) = p2 q 3 = 0, 3456
2
P (X ≤ 2) = 0, 0778 + 0, 2592 + 0, 3456 = 0, 6826
Outra solução: P (X ≤ 2) = 1 − P (X > 2) = 1 − [P (X = 3) + P (X = 4) + P (X = 5)] (...)
3. no mínimo três possuírem trator

P (X ≥ 3) = P (X = 3) + P (X = 4) + P (X = 5)
ou P (X ≥ 3) = 1 − P (X < 3) –> Muito usado quando queremos achar o máximo
Como P (X < 3) = P (X ≤ 2) então: P (X ≥ 3) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)] = 1 − 0, 6826 =
0, 3174

Média e Variância da Distribuição Binomial


• Se X tem distribuição binomial de parâmetros n e p, então a média ou valor esperado de X é: E(X) = np
• Se X tem distribuição binomial de parâmetros n e p, então a varância de X, σ2X será: V ar(X) = npq.

Logo o desvio padrão será: σX = npq

Exemplo: Com os dados do exemplo anterior, calcule o número esperado de estabelecimentos agrícolas
com trator, a variância e o desvio-padrão.
E(X) = np = 5.(0, 4) = 2 estabelecimentos
V (X) = npq = 5.(0, 4).(0,
√ 6) = 1, 2 estabelecimentos

D.P. = σ = npq = 1, 2 = 1, 0954 estabelecimentos

16
5.3.3 DISTRIBUIÇÃO DE POISSON
A distribuição de Poisson é largamente empregada quando se deseja contar o número de eventos de um certo
tipo, que ocorrem em um intervalo de tempo, ou superfície ou volume, tais como:

1. número de chamadas telefônicas recebidas por um PABX durante um intervalo pequeno de tempo;

2. número de falhas de um computador em um dia de operação;


3. número de relatórios de acidentes enviados a uma companhia de seguros em uma semana;

4. número de pacientes atendidos por plantão.

Em muitos casos conhecemos o número de sucessos, porém se torna difícil e, às vezes, sem sentido, deter-
minarmos o número de fracassos ou o número total de provas.
De modo geral, dizemos que uma v.a. X tem uma distribuição de Poisson, com parâmetro λ > 0, se:

e−λ λx
P (X = x) = , x = 0, 1, 2, ...
x!
Notação: X ∼ P (λ). Lê-se: “X tem distribuição de Poisson com parâmetro λ”
Embora a distribuição de Poisson tenha outras aplicações, aqui ela nos proporciona uma boa aproximação
da distribuição binomial para n grande desde que p seja pequeno, caso em que λ = np.

Média e Variância da Distribuição de Poisson


Se X tem distribuição de Poisson com parâmetro λ, então a média e a variância de X serão iguais a λ :
E(X) = V ar(X) = λ
Exemplo: Uma central PABX recebe em média de 5 chamadas por minuto. Supondo que as chamadas
que chegam constituam uma distribuição de Poisson, obtenha a probabilidade de que o PABX não receba
chamadas durante o intervalo de um minuto.
Solução: λ = 5 (chamadas por minuto)
e−5 50
P (X = 0) = = e−5 = 0, 0067
0!

6 Variável Aleatória Contínua


A variável aleatória X é uma variável aleatória contínua, se o conjunto de valores que X pode assumir é um
conjunto é um intervalo da reta real, como por exemplo:
X ∈ (−∞, +∞); X ∈ [0, +∞), etc..

6.1 A Distribuição Normal


A distribuição Normal é uma das distribuições de probabilidade mais importantes na análise de fenômenos
reais e de grande utilidade na Inferência Estatística e em Amostragem.
Dizemos que uma variável aleatória X tem distribuição normal com média (esperança) µ e variância σ2
se sua função de probabilidade é dada por:
1 1
f (x) = √ exp{− 2 (x − µ)2 } ; −∞ < x < +∞.
σ 2π 2σ

com µ ∈ R e σ2 > 0.

Notação: X ∼ N(µ, σ2 ). Lê-se: “X tem distribuição Normal com média µ e variância σ2 ”

17
6.1.1 Representação Gráfica da Curva Normal:

f( x)

Note que a curva é simétrica em torno da média.


µ x

Para calcularmos uma probabilidade qualquer, a partir da distribuição normal, devemos trabalhar com
intervalos, pois a distribuição é contínua.
Se queremos, por exemplo, P (a < X < b) ou P (X ≥ a) ou P (X ≤ b), devemos procurar pelas seguintes
áreas, respectivamente:
P (x)

P (a < X < b)

a 0 b x
P(x)

P (X ≥ a) P (X ≤ b)

0 a

Para calcular tais áreas teríamos que usar o cálculo de Integrais. Como é complicado, esse cálculo foi
feito para todas as áreas possíveis e foi tabelado. Mas o cálculo só foi feito para a Distribuição Normal com
média = 0 e variância = 1. Essa Normal é chamada de Normal Padrão, e a variável aleatória é, em geral,
representada pela letra Z.

Pela notação anterior, temos: Z ∼ N(0, 1) que lemos: “Z tem distribuição Normal Padrão”.

6.1.2 Como transformar uma Normal qualquer em Normal Padrão


Se a v.a. X é tal que X ∼ N(µ, σ2 ), entao a variável Z é obtida como uma transformação linear da v.a X da
seguinte forma:
X −µ
Z= ,
σ

18
e dizemos que a v.a. Z tem distribuição normal com média 0 e variância 1: Z ∼ N(0, 1). A curva normal
padrão é também conhecida como normal reduzida ou normal “zero-um”.
A vantagem de transformarmos uma curva N(µ, σ2 ) em uma curva N(0, 1) está no fato de encontrarmos,
na forma de tabela, todas as probabilidades referentes à curva normal-padrão.
Na definição da v.a. Z, quando fazemos (X − µ) estamos mudando a origem da v.a X para a sua média;
e quando dividimos pelo desvio-padrão de X, σ, estamos mudando a escala, ou seja, a diferença entre a v.a.
X e a sua média passa a ser medida em unidades do desvio-padrão de X.

6.1.3 USO DA TABELA DA DISTRIBUIÇÃO NORMAL REDUZIDA


Normalmente as tabelas sobre a curva normal-padrão informam apenas a área sob a função (ou a probabili-
dade) definida por um intervalo de zero a um valor zo qualquer positivo. Iremos trabalhar com esse tipo de
tabela no nosso curso (ver tabela em anexo).
Há vários tipos de tabelas que nos fornecem as áreas (probabilidades) sob a curva normal. O tipo mais
frequente é a tabela da Faixa Central, sendo justamente dela que faremos uso. Os elementos dessa tabela
estão a seguir:

• A primeira coluna da tabela refere-se ao valor da abcissa de Z, considerando-se a parte inteira de zo , e


à sua primeira casa decimal;
• A primeira linha da tabela refere-se à segunda casa decimal do valor de zo ;
• As probabilidades são encontradas no cruzamento das linhas com as colunas.

Graficamente, a probabilidade fornecida pela tabela é a seguinte:

f( x)

0 z 0 x

Rz0
A área sombreada no gráfico corresponde à seguinte probabilidade: P (0 < z < zo ) = f(zo )dz
0
Como a curva normal é uma função simétrica em relação à sua média: f (zo ) = f(−zo ), as probabilidades
entre −zo e zero serão iguais às probabilidades entre 0 e zo . Isto é:

P (−zo < Z < 0) = P (0 < Z < zo )

A área total sob a curva vale “um”, pois esta área representa a soma das probabilidades. Como a curva é
simétrica, cada metade vale 0, 5, ou seja,

P (zo > 0) = P (zo < 0) = 0, 5.


0

19
6.1.4 Alguns Exemplos:
ÁREAS SIMPLES

• P (0 ≤ Z ≤ 0, 51) = 0, 1950

0 0 ,5 1

• P (−2, 35 ≤ Z ≤ 0) = P (0 ≤ Z ≤ 2, 35) = 0, 4906

- 2 ,3 5 0

ÁREAS DUPLAS

• P (−1 ≤ Z ≤ 1) A área que representa esta probabilidade é:

-1 0 1

Esta área pode ser separada em duas sub-áreas, que são:

-1 0 0 1

P (−1 ≤ Z ≤ 1) = P (−1 ≤ Z ≤ 0) + P (0 ≤ Z ≤ 1) = 0, 3412 + 0, 3412 = 0, 6824

20
ÁREAS COMPLEMENTARES

• P (Z ≥ 1, 62)

A área que representa esta probabilidade é:

0 1 ,6 2

Esta área pode ser pensada da seguinte forma:

0 0 1 ,6 2

P (Z ≥ 1, 62) = 0, 5 − P (0 ≤ Z ≤ 1, 62) = 0, 5 − 0, 4474 = 0, 05226


ÁREAS INTERMEDIÁRIAS

• P (1, 03 ≤ Z ≤ 2, 01)

A área que representa esta probabilidade é:

0 1, 03 2, 01

Esta área pode ser pensada da seguinte forma:

0 2,01 0 1,03

P (1, 03 ≤ Z ≤ 2, 01) = P (0 ≤ Z ≤ 2, 01) − P (0 ≤ Z ≤ 1, 03)

21
DETERMINAÇÃO DO PONTO

• P (0 ≤ Z ≤ zo ) = 0, 395

0 Z0

Para encontrar o ponto z0 , que corresponda à probabilidade P (0 ≤ Z ≤ z0 ) = 0, 395, vamos procurar no


meio da tabela da curva normal-padrão o valor da área exata ou o mais próximo possível da requerida. Neste
caso, o ponto que dá origem a esta área é 1, 25. Logo, z0 = 1, 25.

6.1.5 Cálculo de probabilidades sob uma curva NORMAL QUALQUER


Considere a seguinte situação: X ∼ N(µ, σ 2 ), com µ 6= 0 e σ2 6= 1.
Dada uma v.a. X com distribuição N(µ, σ2 ), para calcularmos uma probabilidade referente a esta dis-
tribuição, basta procedermos à redução da v.a. X para a v.a. Z. A área definida sob a curva normal-padrão
será idêntica à área definida sob a curva N(µ, σ2 ), isto é, as probabilidade serão as mesmas.

Exemplos:

1. Se X ∼ N(1; 0, 16)
0, 2 − µ X −µ 1, 8 − µ 0, 2 − 1 1, 8 − 1
P (0, 2 ≤ X ≤ 1, 8) = P ( ≤ ≤ ) = P( ≤ Z ≤ ) =
σ σ σ 0, 4 0, 4
= P (−2 ≤ Z ≤ 2) = 0, 4772 + 0, 4772 = 0, 9544

2. A altura de uma determinada classe é uma variável aleatória normal com média 175 cm e variância
225 cm2 . Qual a probabilidade de encontrarmos alunos com altura entre 165 e 187 cm?
P (165 < X < 187) =?
Para utilizarmos os valores das áreas (probabilidades) tabeladas, precisamos então padronizar a v. a.
X, ou seja, se X ∼ N(175, 225), então:
X − 175
Z= √
225
Efetuando a trrasformação acima, temos:
165 − 175 X −µ 187 − 175
P (165 < X < 187) = P ( < < ) = P (−0, 67 < Z < 0, 8) =
15 σ 15
= 0, 24860 + 0, 2881 = 0, 5367

Dizemos então que a probabilidade de um aluno desta classe medir entre 167 cm e 185 cm é de 53, 67%.

22
7 EXERCÍCIOS DE FIXAÇÃO
1. Quais as possíveis sequências dos sexos de recém-nascidos em três nascimentos ocorridos durante uma
hora em certo hospital, denotando-se por M masculino e por F feminino?

2. Sendo Ω = {10, 20, 30, 40, 50, 60, 70, 80, 90, 100}, listar cada um dos subconjuntos de Ω:

(a) A = { a | a é exatamente divisível por 3};


(b) B = { b | b é exatamente divisível por 4};
(c) AUB;
(d) A ∩ B;
(e) A ∩ B;
(f) B − A;
(g) A − B.

3. Um homem heterozigótico, do grupo sanguíneo A, casa-se com uma mulher homozigótica do grupo
sanguíneo B. Descreva o espaço amostral F dos fenótipos dos descendentes e o espaço amostral G dos
genótipos.

4. Um número inteiro é escolhido aleatoriamente dentre o números 1, 2, ....50. Qual a probabilidade de:

(a) o número ser divisível por 5;


(b) terminar em 3;
(c) ser primo;
(d) ser divisível por 6 ou por 8.

5. Numa urna são misturadas dez bolas numeradas de 1 a 10. Duas bolas são retiradas (a , b) sem reposição.
Qual a probabilidade de a + b = 10?

6. Levantou-se dados relativos ao sistema sanguíneo Rh em uma amostra de 820 indivíduos residentes em
São José do Rio Preto-SP. Obteve-se 737 indivíduos Rh+ e 83 com Rh−. Qual a probabilidade de um
indivíduo pertencer à categoria Rh+? E à categoria Rh−?

7. Para verificar a regularidade estatística que encontramos quando repetimos um experimento um grande
número de vezes, realize o seguinte experimento: Lance uma moeda k vezes e ao final do experimento
calcule a probabilidade de se obter o resultado cara. Faça k = 5, 10, 20, 50 e 100.

8. No lançamento de dado, qual a probabilidade de sair uma face menor ou igual a 3, dado que o número
é ímpar?

9. Um grupo de 100 pessoas apresenta, de acordo com o sexo e a filiação partidária, a seguinte posição:

SEXO PT P MDB T OT AL
Homens 39 21 60
Mulheres 26 14 40
T OT AL 65 35 100

Calcular:

(a) a probabilidade de ser escolhido um homem;


(b) a probabilidade de ser sorteado um homem filiado ao PT;

23
(c) se o sorteado for PT, qual a probabilidade de ser mulher;
(d) se o sorteado for homem, qual a probabilidade de ser do PMDB.

10. Uma urna contém fichas numeradas de 1 a 4. Retira-se uma ficha da urna ao acaso e anota-se o número.
Essa ficha então é recolocada na urna e retira-se novamente uma ficha, ao acaso, da urna. Qual a
probabilidade de ter saído a ficha com número 1, na primeira retirada, e de ser 5 a soma dos números
das duas fichas retiradas?

11. Considere uma urna contendo 3 bolas pretas e cinco bolas vermelhas. Retire duas bolas da urna, sem
reposição. Calcule as probabilidades de se obter:

(a) bola preta na primeira e segunda extrações;


(b) bola vermelha na primeira e bola preta na segunda extração;

12. Sendo Ω = {1, 2, 3, 4} um espaço-amostral equiprovável e A = {1, 2}, B = {1, 3} e C = {1, 4}, três
eventos de Ω. Verificar se os eventos A, B e C são independentes:

13. Queremos obter a probabilidade de uma carta, retirada de um baralho, ser um ás ou carta de espadas.

14. Uma caixa contém 10 bolas numeradas de 1 a 10. Tira-se uma bola da caixa, ao acaso. Anotamos o
número da bola e a recolocamos na caixa. Fazemos uma nova retirada. Qual a probabilidade que a
primeira ou a segunda bola tenham sido a de número 5?

15. Exemplo das urnas. Na figura abaixo, sejam: A = azul e B = branca. Vamos escolher uma bola da
urna I e colocarmos na urna II. A seguir, vamos selecionar uma bola da urna II.

B B B B

B
A A
A A A
A

URNA I URNA II

Queremos saber a probabilidade da segunda bola selecionada ser azul.

16. Um estudante sabe responder 50% das questões de um teste de escolha múltipla. As questões que não
sabe resolver recebem uma resposta “à sorte” dentre as 5 alternativas. Dado que respondeu corretamente
uma questão, qual a probabilidade de ter “adivinhado”?

17. Suponha que 84% dos hipertensos e 23% dos indivíduos normotensos são classificados como apresentando
pressão alta por uma máquina automátiva de pressão sanguínea. Quais os valores preditivos positivo e
negativo desta máquina, assumindo que 20% da população adulta é hipertensa?

18. Em otorrinolaringologia, estudos sobre a ocorrência de otite em crianças menores de 2 anos apontam
para a seguinte distribuição de probabilidade:

x 0 1 2 3
P (X = x) 0, 129 0, 264 0, 271 0, 185

onde X representa o no de episódios de otite nos dois primeiros anos de vida. Encontre o número
esperado de episódios de otite em crianças menores de 2 anos e sua dispersão.

19. Sabe-se que 90% das pessoas de uma amostra estudada são alérgicas a um novo medicamento. Escolhe-se
100 pessoas ao acaso entre o grupo estudado, qual a probabilidade de que pelo menos 80 sejam alérgicas?

24
20. Suponha que 300 erros de impressão sejam distribuídos aleatoriamente em um livro de 500 páginas.
Encontre a probabilidade de uma determinada página conter:

(a) exatamente 2 erros;


(b) 2 ou mais erros.

21. Determine:

(a) P (0 ≤ Z ≤ 0, 83);
(b) P (−2, 01 ≤ Z ≤ 0);
(c) P (−0, 43 ≤ Z ≤ 1, 24);
(d) P (Z ≤ 1, 69);
(e) P (Z > 2, 4);
(f) P (Z > −0, 03);
(g) P (Z < −1, 94);
(h) P (1, 09 ≤ Z < 2, 45);
(i) P (−2, 37 ≤ Z ≤ −0, 01);
(j) zo tal que P (0 ≤ Z < zo ) = 0, 49010;
(k) zo tal que P (Z < −zo) = 0, 2932.

22. Os depósitos efetuados em determinado Banco durante o mês de janeiro último são distribuídos normal-
mente, com média de 10.000 u.m. e desvio padrão de 1.500 u.m. Um depósito é selecionado, ao acaso,
dos depósitos referentes ao mês em questão. Encontrar a probabilidade de que o depósito seja:

(a) 10.000 ou menos;


(b) pelo menos 10.000;
(c) um valor entre 12.000 e 15.000;

23. O tempo gasto na produção de certa peça é normalmente distribuído. A Empresa A apresenta um
tempo médio de produção de 27 dias e desvio padrão de 5 dias; na Empresa B a média é de 30 dias e
desvio padrão de 2 dias. Qual a empresa que devo contratar para produzir a peça se a peça deve estar
pronta em 30 dias, no máximo?

24. Com os mesmos dados da questão anterior, pergunta-se: E no prazo máximo de 34 dias?

25
Áreas sob a curva da distribuição Normal Padrão - P(0 < Z < z)

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.000000 0.003989 0.007978 0.011967 0.015953 0.019939 0.023922 0.027903 0.031881 0.035856
0.1 0.039828 0.043795 0.047758 0.051717 0.055670 0.059618 0.063559 0.067495 0.071424 0.075345
0.2 0.079260 0.083166 0.087064 0.090954 0.094835 0.098706 0.102568 0.106420 0.110261 0.114092
0.3 0.117911 0.121719 0.125516 0.129300 0.133072 0.136831 0.140576 0.144309 0.148027 0.151732
0.4 0.155422 0.159097 0.162757 0.166402 0.170031 0.173645 0.177242 0.180822 0.184386 0.187933
0.5 0.191462 0.194974 0.198468 0.201944 0.205402 0.208840 0.212260 0.215661 0.219043 0.222405
0.6 0.225747 0.229069 0.232371 0.235653 0.238914 0.242154 0.245373 0.248571 0.251748 0.254903
0.7 0.258036 0.261148 0.264238 0.267305 0.270350 0.273373 0.276373 0.279350 0.282305 0.285236
0.8 0.288145 0.291030 0.293892 0.296731 0.299546 0.302338 0.305106 0.307850 0.310570 0.313267
0.9 0.315940 0.318589 0.321214 0.323814 0.326391 0.328944 0.331472 0.333977 0.336457 0.338913
1.0 0.341345 0.343752 0.346136 0.348495 0.350830 0.353141 0.355428 0.357690 0.359929 0.362143
1.1 0.364334 0.366500 0.368643 0.370762 0.372857 0.374928 0.376976 0.378999 0.381000 0.382977
1.2 0.384930 0.386860 0.388767 0.390651 0.392512 0.394350 0.396165 0.397958 0.399727 0.401475
1.3 0.403199 0.404902 0.406582 0.408241 0.409877 0.411492 0.413085 0.414656 0.416207 0.417736
1.4 0.419243 0.420730 0.422196 0.423641 0.425066 0.426471 0.427855 0.429219 0.430563 0.431888
1.5 0.433193 0.434478 0.435744 0.436992 0.438220 0.439429 0.440620 0.441792 0.442947 0.444083
1.6 0.445201 0.446301 0.447384 0.448449 0.449497 0.450529 0.451543 0.452540 0.453521 0.454486
1.7 0.455435 0.456367 0.457284 0.458185 0.459071 0.459941 0.460796 0.461636 0.462462 0.463273
1.8 0.464070 0.464852 0.465621 0.466375 0.467116 0.467843 0.468557 0.469258 0.469946 0.470621
1.9 0.471284 0.471933 0.472571 0.473197 0.473810 0.474412 0.475002 0.475581 0.476148 0.476705
2.0 0.477250 0.477784 0.478308 0.478822 0.479325 0.479818 0.480301 0.480774 0.481237 0.481691
2.1 0.482136 0.482571 0.482997 0.483414 0.483823 0.484222 0.484614 0.484997 0.485371 0.485738
2.2 0.486097 0.486447 0.486791 0.487126 0.487455 0.487776 0.488089 0.488396 0.488696 0.488989
2.3 0.489276 0.489556 0.489830 0.490097 0.490358 0.490613 0.490863 0.491106 0.491344 0.491576
2.4 0.491802 0.492024 0.492240 0.492451 0.492656 0.492857 0.493053 0.493244 0.493431 0.493613
2.5 0.493790 0.493963 0.494132 0.494297 0.494457 0.494614 0.494766 0.494915 0.495060 0.495201
2.6 0.495339 0.495473 0.495603 0.495731 0.495855 0.495975 0.496093 0.496207 0.496319 0.496427
2.7 0.496533 0.496636 0.496736 0.496833 0.496928 0.497020 0.497110 0.497197 0.497282 0.497365
2.8 0.497445 0.497523 0.497599 0.497673 0.497744 0.497814 0.497882 0.497948 0.498012 0.498074
2.9 0.498134 0.498193 0.498250 0.498305 0.498359 0.498411 0.498462 0.498511 0.498559 0.498605
3.0 0.498650 0.498694 0.498736 0.498777 0.498817 0.498856 0.498893 0.498930 0.498965 0.498999
3.1 0.499032 0.499064 0.499096 0.499126 0.499155 0.499184 0.499211 0.499238 0.499264 0.499289
3.2 0.499313 0.499336 0.499359 0.499381 0.499402 0.499423 0.499443 0.499462 0.499481 0.499499
3.3 0.499517 0.499533 0.499550 0.499566 0.499581 0.499596 0.499610 0.499624 0.499638 0.499650
3.4 0.499663 0.499675 0.499687 0.499698 0.499709 0.499720 0.499730 0.499740 0.499749 0.499758
3.5 0.499767 0.499776 0.499784 0.499792 0.499800 0.499807 0.499815 0.499821 0.499828 0.499835
3.6 0.499841 0.499847 0.499853 0.499858 0.499864 0.499869 0.499874 0.499879 0.499883 0.499888
3.7 0.499892 0.499896 0.499900 0.499904 0.499908 0.499912 0.499915 0.499918 0.499922 0.499925
3.8 0.499928 0.499930 0.499933 0.499936 0.499938 0.499941 0.499943 0.499946 0.499948 0.499950
3.9 0.499952 0.499954 0.499956 0.499958 0.499959 0.499961 0.499963 0.499964 0.499966 0.499967
4.0 0.499968 0.499970 0.499971 0.499972 0.499973 0.499974 0.499975 0.499976 0.499977 0.499978
4.1 0.499979 0.499980 0.499981 0.499982 0.499983 0.499983 0.499984 0.499985 0.499985 0.499986
4.2 0.499987 0.499987 0.499988 0.499988 0.499989 0.499989 0.499990 0.499990 0.499991 0.499991
4.3 0.499991 0.499992 0.499992 0.499993 0.499993 0.499993 0.499993 0.499994 0.499994 0.499994
4.4 0.499995 0.499995 0.499995 0.499995 0.499995 0.499996 0.499996 0.499996 0.499996 0.499996
4.5 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499998 0.499998 0.499998
4.6 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499999 0.499999
4.7 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999
4.8 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999
26

You might also like