You are on page 1of 122

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/283074169

Testes não-paramétricos para pesquisas agrícolas.

Book · July 2012

CITATIONS READS
3 620

4 authors:

Alberto Cargnelutti Filho Alessandro Dal'Col Lúcio


Universidade Federal de Santa Maria Federal University of Santa Maria, Santa Maria, Brazil
324 PUBLICATIONS   1,934 CITATIONS    235 PUBLICATIONS   1,141 CITATIONS   

SEE PROFILE SEE PROFILE

Sidinei Lopes Lindolfo Storck


Universidade Federal de Santa Maria Federal University of Technology - Paraná/Brazil (UTFPR)
160 PUBLICATIONS   1,003 CITATIONS    318 PUBLICATIONS   2,005 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Melhoramento Genético de Trigo para Obtenção de Cultivares Superiores View project

Diâmetro do trado e número de amostras para quantificação do banco de sementes de arroz-vermelho do solo View project

All content following this page was uploaded by Lindolfo Storck on 22 October 2015.

The user has requested enhancement of the downloaded file.


TESTES ESTATÍSTICOS NÃO-PARAMÉTRICOS NA
PESQUISA AGRÍCOLA

Alberto Cargnelutti Filho


Alessandro Dal’Col Lúcio
Sidinei José Lopes
Lindolfo Storck

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 0
APRESENTAÇÃO

Na área agrícola, os experimentos são, em sua grande maioria, planejados, instalados


e conduzidos de forma adequada, porém, no momento da realização da análise estatística, é
comum, o pesquisador analisar os dados de forma tradicional e clássica, ou seja, com a
realização imediata da análise de variância e testes de análises complementares, tais como:
comparação múltipla de médias, análise de regressão e de correlação. Agindo desta forma,
há riscos em obter resultados, interpretações e conclusões equivocadas, devido a não
verificação das pressuposições que o modelo matemático exige para proceder uma análise
paramétrica.
Com o não atendimento de alguma das pressuposições do modelo matemático, duas
alternativas são apresentadas ao pesquisador: realizar uma transformação dos dados
originais, a fim de atender à pressuposição ou, aplicar testes não-paramétricos específicos.
Na área da experimentação agrícola, o uso dos testes não-paramétricos nas análises
estatísticas de dados experimentais, não é frequente, tanto quanto em outras áreas, tais
como, das ciências humanas e da saúde. A falta de bibliografia específica, com exemplos
de aplicação em dados da área agrícola é uma limitação para os pesquisadores, usuários da
estatística, que necessitam discriminar os efeitos dos tratamentos.
Desta forma, é apresentado este livro, com o objetivo de descrever, com teoria e
aplicações, os principais testes estatísticos não-paramétricos, com possibilidades de
utilização na análise estatística dos dados provenientes de experimentos agrícolas, quando
não há condições de realizar uma análise paramétrica clássica.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 1
SUMÁRIO
1. INTRODUÇÃO 6
2. TESTES NÃO-PARAMÉTRICOS APLICÁVEIS A UMA AMOSTRA 8
2.1. Teste binomial 9
Exemplo 1 11
2.2. Teste 2 (Qui-quadrado) 12
Exemplo 2 13
Exemplo 3 14
Exemplo 4 15
Exemplo 5 16
2.3. Teste de Kolmogorov-Smirnov 17
Exemplo 6 18
Exemplo 7 20
2.4. Teste de Lilliefors 22
Exemplo 8 22
2.5. Teste de Shapiro-Wilk 24
Exemplo 9 25
2.6. Teste de Sequência (Runs test ou Iterações) 26
Exemplo 10 28
3. TESTES APROPRIADOS A DADOS PAREADOS 29
3.1. Teste do Sinal 30
Exemplo 1 31
Exemplo 2 32
Exemplo 3 33
Exemplo 4 34
3.2. Teste de Cox e Stuart para tendências 35
Exemplo 5 35
3.3. Teste de Mc Nemar 36
Exemplo 6 37
Exemplo 7 38
3.4. Teste das Ordens Assinaladas 39
Exemplo 8 40
Exemplo 9 40
4. TESTES PARA DUAS AMOSTRAS INDEPENDENTES 41
4.1. Teste da Soma das Ordens – Rank Sum Test - Wilcoxon 41
Exemplo 1 42
4.2. Teste de Mann-Whitney 44
Exemplo 2 44
4.3. Teste de Kolmogorov-Smirnov 45

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 2
Exemplo 3 46
4.4. Teste exato de Fischer 47
Exemplo 4 48
Exemplo 5 49
5. TESTES DE DISPERSÃO APLICÁVEIS A DUAS AMOSTRAS
INDEPENDENTES 50
5.1. Teste de Siegel-Tukey 50
Exemplo 1 51
5.2. Teste de Ansari-Bradley 51
Exemplo 2 52
5.3. Teste de Moses 54
Exemplo 3 54
6. TESTES DE CORRELAÇÃO 56
6.1. Teste de Kendall 56
Exemplo 1 57
6.2. Teste de Spearman 59
Exemplo 2 59
Exemplo 3 61
7. TESTES PARA K AMOSTRAS INDEPENDENTES 63
7.1. Teste de Kruskal-Wallis 63
Exemplo 1 64
Exemplo 2 65
7.2. Comparações Múltiplas de Kruskal-Wallis 66
Exemplo 3 66
Exemplo 4 66
8. ANÁLISE DE VARIÂNCIA – CLASSIFICAÇÃO DUPLA 68
8.1. Teste de Friedman 68
Exemplo 1 69
Exemplo 2 70
8.2. Comparações Múltiplas pelo teste de Friedman 71
Exemplo 3 71
Exemplo 4 72
9. CONSIDERAÇÕES SOBRE O USO DE APLICATIVOS COMPUTACIONAIS 73
10. REFERÊNCIAS BIBLIOGRÁFICAS 76
11. ANEXOS – Tabelas 1 a 20 78

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 3
DADOS DOS AUTORES

- Alberto Cargnelutti Filho, Engenheiro Agrônomo, Doutor em Agronomia pela


UFSM. Professor Adjunto no Setor de Experimentação Vegetal do Departamento de
Fitotecnia da Universidade Federal de Santa Maria. É orientador em curso de graduação e
pós-graduação com bolsa de produtividade em pesquisa (CNPq).
- Alessandro Dal’Col Lúcio, Engenheiro Agrônomo, Doutor em Produção Vegetal
pela FCAVJ/UNESP. Professor Associado no Setor de Experimentação Vegetal do
Departamento de Fitotecnia da Universidade Federal de Santa Maria. É orientador em
cursos de graduação e pós-graduação com bolsa de produtividade em pesquisa (CNPq).
- Sidinei José Lopes, Engenheiro Agrônomo, Doutor em Agronomia pela Escola
Superior de Agricultura “Luiz de Queiroz”, ESALQ/USP. Professor Associado no Setor de
Experimentação Vegetal do Departamento de Fitotecnia da Universidade Federal de Santa
Maria. É orientador em cursos de graduação e pós-graduação com bolsa de produtividade
em pesquisa (CNPq).
- Lindolfo Storck, Engenheiro Agrônomo, Doutor em Estatística e Experimentação
Agronômica, ESALQ/USP. Professor Titular no Setor de Experimentação Vegetal do
Departamento de Fitotecnia da Universidade Federal de Santa Maria (1976 a 2003). Atuou
como professor voluntário (2003 a 2012), no Programa de pós-graduação em
Agronomia/UFSM. Tem bolsa de produtividade em pesquisa (CNPq) desde 1991. É
Professor Visitante Nacional Sênior (julho de 2012 a junho de 2016) junto ao PPG
Agronomia da UTFPR –Pato Branco, PR.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 4
1. INTRODUÇÃO

O texto apresenta os testes estatísticos não-paramétricos que podem ser utilizados na


análise e interpretação de dados provenientes de pesquisas agrícolas, em diversas situações
de hipóteses a serem testadas. Também, nos casos em que as pressuposições (exigências)
do modelo matemático dos testes paramétricos não são atendidas é recomendada a
aplicação do teste não-paramétrico equivalente. Para realização dos testes, algumas tabelas
(ou parte delas) estão disponíveis ao final do texto.
Alguns testes não-paramétricos são aplicadospara verificar se as pressuposições do
modelo matemático estão sendo atendidas, tais como:, o teste de Lilliefors e de Shapiro-
Wilk, que verificam se os dados podem ser estudados com o uso da distribuição normal e,
o teste de sequência, utilizado para verificar a independência dos dados. A escala ordinal e
nominal dos dados é a causa principal da aplicação dos testes não-paramétricos.
Em alguns casos, a falta de atendimento às pressuposições pode ser resolvida com a
transformação dos dados, porém, muitas vezes, não há uma transformação adequada e,
assim, os testes não-paramétricos equivalentes aos paramétricos são indicados. Um teste
estatístico não-paramétrico é aquele cujo modelo não especifica condições sobre os
parâmetros da população da qual se retirou a amostra. Mesmo existindo certas
pressuposições, estas são mais brandas do que aquelas associadas aos testes paramétricos.
O emprego da estatística não-paramétrica é recente. Os primeiros testes foram
desenvolvidos no final do século XIX e início do século XX, e seu uso constitui-se numa
importante ferramenta de trabalho do estatístico, devido a sua simplicidade e versatilidade.

Algumas vantagens quanto ao uso de testes não-paramétricos são:


a) Menor exigência do que os paramétricos, dispensam a normalidade dos dados;
b) A probabilidade das afirmativas obtidas é exata, exceto quando se usa aproximação
para grandes amostras (aproximação normal);
c) Independem da forma da população da qual a amostra foi obtida;
d) Geralmente são de mais fácil aplicação e quase sempre, exigem menor volume de
cálculos;
e) Alguns testes não-paramétricos permitem trabalhar com dados de diferentes
populações, o que não é possível com os testes paramétricos;

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 6
f) São úteis nos casos em que é difícil estabelecer uma escala de valores quantitativos
para os dados. Nesse caso, o pesquisador classifica os dados em ordem: mais ou
menos, pior ou melhor, maior ou menor, entre outras;
g) São mais eficientes do que os paramétricos, quando os dados não têm distribuição
normal. Caso tenham distribuição normal, sua eficiência em alguns casos, é levemente
inferior aos testes paramétricos.

Algumas desvantagens quanto ao uso de testes não-paramétricos são:


a) Geralmente não consideram a magnitude dos dados, sendo comum transformar os
mesmos, de valores para simples ordens ou sinais;
b) Quando são satisfeitas todas as exigências do modelo estatístico, o teste paramétrico é
mais poderoso, sendo necessário aumentar o tamanho de amostra para o teste não-
paramétrico obter o mesmo poder;
c) Geralmente não permite testar interações, restringindo seu uso a modelos mais
complexos;
d) A obtenção, utilização e interpretação das tabelas de execução dos testes são
geralmente mais complexas.

Para realização dos testes não-paramétricos são empregadas as seguintes escalas:


1) Escala nominal - usa números apenas como um meio de distinguir elementos ou suas
propriedades em diferentes classes ou categorias, tal como uma função indicadora de
um evento: Ai = 1 se y  x; Ai = 0 se y < x. Ao numerar as categorias, por exemplo, C1,
C2, ..., Cn, é utilizada uma escala nominal, pois os números apenas distinguem as
classes.
2) Escala ordinal - os números são utilizados somente para classificar os elementos, numa
ordem crescente ou decrescente (podendo evidentemente ocorrer empates). Por
exemplo, na classificação dos tubérculos de batatas, de acordo com o tamanho ou peso;
e, na classificação das cultivares de um experimento de acordo com a produtividade
obtida.
3) Escala de intervalo de medida - envolve uma unidade de medida e contém o ponto zero
como referência. A grandeza entre duas medidas pode ser expressa como múltiplos ou
submúltiplos da unidade considerada, por exemplo, na medida da temperatura do ar.
4) Escala de relação de medidas - considera a ordem, o intervalo e a relação entre duas
medidas. Ao afirmar que uma quantidade é “três vezes” a outra, usa-se uma relação de

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 7
medidas. Talvez esta seja a escala mais usada, e seu emprego é verificado em medidas
de: peso, tamanho, área, volume, entre outras.

Em se tratando de testes não-paramétricos, uma revisão sobre a técnica do teste de


significância se faz necessária. Para isto, designa-se por Ho, chamada de hipótese nula, a
hipótese estatística a ser testada, e por H1 a hipótese alternativa. A hipótese estatística Ho
expressa uma concordância ou uma igualdade e, a hipótese H1, é o oposto, ou seja, uma
discordância ou uma desigualdade. Nas pesquisas agrícolas, o importante é manter em
nível aceitável (erro α) a probabilidade de rejeitar Ho quando ela for verdadeira. Pois,
concluir por uma diferença de tratamentos que pode resultar em prejuízo na sua aplicação é
algo que deve ser mantido em baixa probabilidade de ocorrência. Na prática, o valor do
erro α (nível de significância do teste) varia entre 0,01 e 0,05 ou, é determinado segundo o
valor da estatística do teste, neste caso denominado de nível mínimo de significância (p-
valor).
Potantoo, o teste de significância, que considera apenas o erro α, ou seja, a
probabilidade de rejeitar a hipótese Ho quando ela for verdadeira (erro tipo I), será adotado
neste texto. A probabilidade de não rejeitar Ho, quando ela é verdadeira (erro tipo II = 1-α)
não é considerada nos testes de significância.
É possível elencar procedimentos gerais para realização dos testes de significância,
que são:
a) Enunciar as hipóteses Ho e H1;
b) Fixar o limite do erro α, e identificar a estatística do teste;
c) Com auxílio das tabelas estatísticas, considerando α e a estatística do teste, determinar a
região crítica para Ho ou o valor tabelado;
d) Com os dados da amostra, calcular o valor da estatística do teste;
e) Concluir pela rejeição de Ho, no caso do valor da estatística do teste ser maior do que o
valor tabelado ou, quando o valor do teste não está dentro da região crítica para Ho.

2. TESTES NÃO-PARAMÉTRICOS APLICÁVEIS A UMA AMOSTRA

São testes estatísticos que podem ser aplicados para testar uma hipótese que exige a
extração de apenas uma amostra de determinada população. Verificam se uma amostra
pode vir de uma população especificada, diferindo dos testes de duas amostras, em que as

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 8
comparam e comprovam a probabilidade de as duas serem provenientes da mesma
população.

2.1. Teste binomial

É aplicado nas amostras provenientes de populações que têm somente duas classes
(dados dicotômicos), tais como: sim, não; fértil, não fértil; macho, fêmea; maduro, verde;
parasitado, não parasitado; sadio, doente; vivo, morto; certo, errado; entre outras. Qualquer
observação possível sobre a população recairá numa ou noutra, dessas duas classificações
discretas.
Para qualquer população dividida em duas classes (dicotomizada), conhecendo a
proporção p em uma das classes, a proporção na outra será definida como q = 1 – p. O
valor de p é fixo para uma determinada população, variando entre populações. Mesmo
sabendo (ou admitindo) o valor de p, para determinada população, não se pode garantir que
uma amostra aleatória extraída da referida população contenha exatamente a proporção p
de casos em uma classe e, a proporção q, na outra.

Os efeitos aleatórios da amostragem impedem de que a amostra seja uma réplica


exata da população. Por exemplo, o rebanho ovino de uma fazenda pode acusar
proporções iguais de carneiros e ovelhas; mas, uma amostra aleatória extraída de tal
população poderá resultar em 46% de carneiros e 54% de ovelhas, ou mesmo 53% de
carneiros e 47% de ovelhas. Essas diferenças entre os valores da população e os dados da
amostra são devidas ao acaso. Naturalmente, as pequenas diferenças são mais prováveis do
que as grandes.
A distribuição binomial é a distribuição amostral de proporções observadas em
amostras aleatórias extraídas de uma população dicotomizada. Isto é, tal distribuição dá os
valores que podem ocorrer sob H0, em que H0 é a hipótese de que o valor da população é p.
Portanto, quando os dados obtidos de uma pesquisa são dicotomizados, pode-se usar a
distribuição binomial para comprovar H0. O tipo do teste é de aderência, ou seja, julga a
significância global das diferenças entre as frequências teóricas ou esperadas e as
frequências observadas. O teste tem a finalidade de concluir se é razoável esperar que as
proporções (ou frequências) observadas na amostra podem referir-se a uma população que
apresente um determinado valor de p.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 9
Os dados constituem o resultado de “n” tentativas repetidas de Bernoulli com
proporções p e q = 1 - p, para as duas classes, respectivamente.
As pressuposições do teste são:
a) O resultado de cada tentativa é classificado como sucesso ou falha;
b) A probabilidade “p” de sucesso permanece inalterada, de tentativa para tentativa;
c) As n tentativas são independentes.
Método – considera-se a estatística do teste “B = número de sucessos nas n
tentativas”. Esta estatística tem distribuição binomial, com parâmetros n e p. Sendo po um
valor conhecido, sob a hipótese a ser testada, em que 0 < po < 1. O valor de po pode ser
determinado pelas normas técnicas, por exemplo, do produtor ou do consumidor.
Hipóteses a testar em nível  de significância:
a) H0: p = po versus H1: p > po
Rejeita-se H0 se B  b(; n; po), em que: P[B  b(; n; po)] =  ; e,
b(; n; po) é o limite superior da distribuição binomial (valor crítico), em nível  de
probabilidade (Tabela 1).
b) H0: p = po versus H1: p < po
Rejeita-se H0 se B  c(; n; po), em que: P[B  c(; n; po)] = ; e,
c(; n; po) é o limite inferior da distribuição binomial (valor crítico), em nível  de
probabilidade.
d) H0: p = po versus H1: p  po
Rejeita-se H0 se B  b(; n; po) ou B  c(; n; po), sendo os níveis de probabilidade b(; n; po); e,
c(; n; po), respectivamente, 1 e 2.
Neste caso considera-se  = 1 + 2 e, geralmente, 1  2, devido a assimetria da
distribuição.
A Tabela 1 contém P(B  c(; n; po)), com n variando de 1 a 20 e, po variando de 0,05 a
0,50. Quando n for superior a 20 é utilizada a aproximação normal:
B  E o (B) B  npo
B*   .
Vo (B) npo q o

Se H0 é verdadeira, B*  N(0; 1). Neste caso, os testes, em nível  de significância,


são:
a) H0: p = po versus H1: p > po
Rejeita-se H0, se B*  z, em que P[B*  z] = ;
b) H0: p = po versus H1: p < po

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 10
Rejeita-se H0, se B*  -z, em que P[B*  -z] = ; e,
c) H0: p = po versus H1: p  po
Rejeita-se H0, se B*  z/2 ou B*  -z/2.
Os limites de z podem ser consultados na Tabela 2, para a distribuição normal
padrão.
Uso das tabelas - a Tabela 1 contém P(B  c), com n variando de 1 a 20 e, po
variando de 0,05 a 0,50. No Quadro 1, é mostradoum caso de n = 5 e po = 0,25.
Consultando este quadro, P(B  1) = 0,6328, isto é, a probabilidade de obtenção de no
máximo um sucesso em cinco tentativas é 0,6328. Neste caso, c(0,6328; 5; 0,25) = 1, é o limite
inferior, e,  = 0,6328 é o nível mínimo de significância.

Quadro 1 - Limites inferiores da distribuição binomial, P(B  c(; n; po)) = , com po = 0,25
e n=5.
c(; n; po) c(; n; po)= 0 c(; n; po)= 1 c(; n; po)= 2 c(; n; po)= 3 c(; n; po)= 4 c(; n; po)=5
P(B  c(; n; po)) =0,2373 =0,6328 =0,8965 =0,9844 =0,9990 =1

Quando não há tabelas apropriadas para determinação do limite superior, o seguinte


procedimento é adotado: suponha  = 0,0156, então 1- = 0,9844. Para n= 5 e po= 0,25,
tem-se P(B  3) = 0,9844, em que: c(1-; n; po) = 3. Por outro lado, P(B  4) = P(B>3) =1-
P(B  3) = 1 - (1-) = , logo, b(; n; po) = 4, então conclui-se que: b(; n; po) = 1 + c(1-; n; po).
Ilustração do uso da tabela no teste bilateral - admitindo: 1 = 0,2373 e 2 = 0,0156, é
obtido: P(B  0) = 0,2373 = 1 e P(B  4) = 0,0156 = 2. Logo, para n = 5 e po = 0,25,
rejeita-se H0 se B = 0 ou B  4. No caso especial de po = 0,50, a distribuição binomial é
simétrica em relação a sua média n/2.
Quando, por exemplo, n = 8 tentativas e po= 0,50, têm-se P(B  0) = P(B  8) =
0,0039, isto é, a probabilidade de não obter nenhum sucesso ou oito sucessos em oito
tentativas é 0,0039. Assim, para  = 0,0039, tem-se: c(; n; po) = c(0,0039; 8; 0,50) = 0, e
consequentemente, b(; n; po) = b(0,0039; 8; 0,50) = 8.
É mais informativo definir o nível  de significância, com base no valor B,
encontrando o nível mínimo de significância (p-valor) quando se rejeita H0 em favor de H1,
do que fixá-lo a priori.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 11
Exemplo 1
Para verificar o grau de infestação de uma doença de raízes, em uma área com a
cultura de soja, foram coletadas dez plantas ao acaso. Foi constatado que uma das plantas
apresentava sintomas característicos da doença. Admitindo-se que, para uma infestação
abaixo de 30%, a doença é controlável, qual a possibilidade de se efetivar o controle?
Têm-se: n = 10; B = 1; po = 0,30.
O teste é H0: p = 0,30 versus H1: p < 0,30, sendo o p-valor = P(B  1) obtido na
Tabela 1, ou seja: P(B  1) = 0,1493  0,15.
Fixando  = 0,05, não se rejeita a hipótese H0, isto é, a doença seria controlável. Por
outro lado, se fosse o caso de rejeitar H0, a doença não seria controlável ou o controle não
seria viável.

2.2. Teste 2 (Qui-quadrado)

O teste é aplicado quando as frequências esperadas são previamente estabelecidas e,


nos casos de uma amostra disposta sob a forma de tabelas de contingência Kx1, em que K
é o número de classes.
Supondo que N produtores devam optar, cada um, por uma dentre n cultivares de
soja oferecidas comercialmente. Pode-se, neste caso, estabelecer a hipótese H0: Não há
preferência por qualquer cultivar. Então, a frequência esperada seria N/n para cada classe.
A hipótese H0 pode ser testada por 2, com (n-1) graus de liberdade.
Comumente é aplicado um teste de aderência no ajustamento de uma conhecida
função de distribuição a uma amostra de dados provenientes de uma distribuição que não é
conhecida, como por exemplo, testar se os dados seguem a distribuição Normal ou
Poisson.
Restrições ao uso do teste:
a) Se o número de classes K = 2, a frequência esperada mínima deve ser  5;
b) Se K > 2, o teste 2 não deve ser usado se mais de 20% das frequências esperadas
forem abaixo de cinco, ou se qualquer uma delas for inferior a um.
Método – compara-se as frequências observadas com as frequências esperadas
(baseada numa hipótese) de uma lista de categorias. A hipótese da nulidade (H0) informa a
proporção de indivíduos que se enquadram em cada uma das categorias na população
presumida. A estatística do teste (c) é usada para determinar se as frequências observadas
estão suficientemente próximas das esperadas, para justificar sua ocorrência sob H0.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 12
K (Oi  E i ) 2
A hipótese H0 pode ser testada pela estatística: χ c  i 1
Ei

Em que: Oi = número de casos observados classificados na categoria i; Ei = número de


casos esperados classificados na categoria i, sob H0; e,  = somatório sobre todas as K
categorias.
Quanto maior for o c , maior será a probabilidade das frequências observadas não
serem provenientes da população em que se baseou a hipótese da nulidade H0. O c é
comparado com o 2 da tabela para verificar se rejeita ou não H0.
A significância do valor de c pode ser determinado mediante a Tabela 3 de 2 com
GL =K–1, graus de liberdade, em que K é o número de categorias da classificação das
observações. E, geralmente, numa tabela de contingência de p x q, o número de GL =(p-
1)(q-1).

Exemplo 2
Num rebanho, os animais estão classificados em animais vacinados e não vacinados.
No Quadro 2, estão os resultados da contagem de quantos deles adoeceram ou continuaram
sadios.

Quadro 2 – Frequência de animais observados em cada uma das categorias.


Animais doentes Animais sadios Total
Vacinados 4 23 27
Não vacinados 12 11 23
Total 16 34 N=50

 16 
A percentagem de animais doentes é   100 = 32%. Se a percentagem fosse a
 50 
mesma, tanto para animais vacinados como para não vacinados, deveria se ter (27)0,32 =
8,6 animais doentes entre os vacinados e, (23)0,32 = 7,4, entre os não vacinados. Para se

obter todas as frequências esperadas, basta calcular:


27)(16 = 8,6;
27)(34  = 18,4;
50 50
23)(16 = 7,4; e, 23)(34  = 15,6. Essas são as frequências esperadas que aparecem entre
50 50
parênteses no Quadro 3. Pode parecer estranho ter valores esperados fracionários, mas tais
valores devem ser entendidos como médias de muitas observações. Com os dados do

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 13
(Oi  Ei )2
K (4  8,6) 2 (23  18,4) 2 (12  7, 4) 2
Quadro 3: χ c  i 1 ; c  + + +
Ei 8,6 18,4 7, 4

(11  15,6) 2
 7,83 ; e, GL=(2-1)(2-1)=1.
15,6
Na Tabela 3, P(X > 3,841) = 0,05 ou P(X > 6,635) = 0,01. Como o valor calculado
para o teste (c=7,83) foi maior do que o valor crítico (X(GL; ) = X(1; 0,01) = 6,635), com
GL=1 e 1% de erro, rejeita-se a hipótese H0. A hipótese da percentagem de animais doentes
ser a mesma, tanto para animais vacinados como para não vacinados, é rejeitada. E, como
o número de animais doentes entre os vacinados é menor, conclui-se que realmente a
vacina é eficiente para reduzir a incidência da doença.

Quadro 3 – Frequências de animais observados e esperados (entre parênteses) em cada


categoria.
Animais doentes Animais sadios Total
Vacinados 4 (8,6) 23 (18,4) 27
Não vacinados 12 (7,4) 11 (15,6) 23
Total 16 34 N=50

Emtabelas de contingência 2 x 2, do exemplo anterior, há dois tipos de animais


(vacinados e não vacinados) e dois tipos de sanidade (doentes e sadios). Nesse caso as
limitações para o uso do 2 são:
a) A frequência total N não deve ser menor do que 20;
b) Se a frequência total N estiver entre 20 e 40, a frequência esperada mínima não deve
ser menor do que cinco; e,
c) Para N maior do que 40, a frequência esperada mínima deve ser pelo menos igual a um.

Exemplo 3
Sejam os dados listados no Quadro 4, em que as frequências esperadas são
calculadas como no exemplo anterior. Observa-seque N está entre 20 e 40 e a menor
frequência esperada de animais doentes é menor do que 5 (3,6). Neste caso, o teste de 2
não pode ser aplicado e, há duas soluções possíveis:
a) Aplicar o teste exato de Fischer (Item 4.4);
b) Obter mais dados, até completar um mínimo de N = 40 animais.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 14
Quadro 4 – Frequências de animais observados e esperados (entre parênteses) em cada
categoria.
Animais doentes Animais sadios Total
Vacinados 2 (4,4) 15 (12,6) 17
Não vacinados 6 (3,6) 8 (10,4) 14
Total 8 23 N=31

Exemplo 4
Sejam os dados listados no Quadro 5. Nesse caso, o valor calculado para o teste é c
= 13,33 com GL= (3-1)(2-1) = 2. Da Tabela 3, X(GL; ) = X(2; 0,01)=9,210 é menor do que c
= 13,33 e, por isto, rejeita-se H0, em nível de 1% de significância. Nos animais vacinados e
nos não-vacinados não há a mesma proporção de incidência de doença.

Quadro 5 – Frequências de animais observados e esperados (entre parênteses) em cada


categoria.
Animais doentes Animais sadios Total
Vacina A 2 (6,0) 18 (14) 20
Vacina B 4 (6,0) 16 (14) 20
Sem vacina 12 (6,0) 8 (14) 20
Total 18 42 N = 60

As tabelas de contingência 3 x 2, podem ser desdobradas em duas tabelas 2 x 2,


como apresentado a seguir.

Quadro 6 – Frequências de animais observados e esperados (entre parênteses) em cada


categoria.
Animais doentes Animais sadios Total
Vacina A ou B 6 (12,0) 34 (28) 40
Sem vacina 12 (6,0) 8 (14) 20
Total 18 42 N = 60

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 15
Quadro 7 – Frequências de animais observados e esperados (entre parênteses) em cada
categoria.
Animais doentes Animais sadios Total
Vacina A 2 (6,0) 18 (14) 20
Vacina B 4 (6,0) 16 (14) 20
Total 6 34 N = 40

No Quadro 6, c = 12,86 é maior do que X(GL; ) = X(1; 0,05) = 3,841, com GL=1 e 5%
de significância. Dessa forma, ao rejeitar a hipótese nula, conclui-se que existe menor
número de animais vacinados doentes do que o esperado ou, de forma oposta, existe maior
número de animais doentes não vacinados do que o esperado. Conclui-se que a vacina (A
ou B) foi eficiente na redução do número de animais doentes.
No Quadro 7, c = 0,78 é menor do X(GL; ) = X(1; 0,05) = 3,841, com GL=1 e 5% de
significância. Dessa forma, ao não rejeitar a hipótese nula, conclui-se que não existe
diferença entre as vacinas A e B.

Exemplo 5
Um melhorista de plantas, ao fazer um cruzamento entre dois genótipos diferentes,
observou que na geração F2 (filhos dos híbridos) houve segregação de um certo caráter,
em quatro classes distintas, com a seguinte frequência: 188; 66; 54; 12 indivíduos. Pode-se
supor (por hipótese), que o caráter é geneticamente controlado por dois genes com
dominância completa, isto é, foi cruzado um indivíduo com o genótipo AABB com um
indivíduo aabb (ou AAbb com aaBB) resultando num híbrido (F1) de genótipo AaBb, o
qual segregou na seguinte proporção (hipótese): 9 (AABB + AABb + AaBB + AaBb); 3
(AAbb + Aabb); 3 (aaBB + aaBb); 1 (aabb).
No Quadro 8, estão relacionadas as frequências observadas (Oi) e esperadas (Ei) em
cada classe, com base na hipótese da proporção P = 9:3:3:1.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 16
Quadro 8 - Frequência observada (Oi) e esperada (Ei) com base na hipótese da proporção Pi
= 9:3:3:1.
Classe Pi Oi Ei
A_ B_ 9 188 180
A_ bb 3 66 60
aa B_ 3 54 60
aabb 1 12 20
Soma 16 320 320

(188  180) 2
O valor do teste Qui-quadrado é calculado pela expressão:  c  +
180
(66  60) 2 (54  60) 2 (12  20) 2
+ + = 4,755 com GL=(4-1)=3. Em nível de 5% de
60 60 20
significancia, o valor da estatística (c = 4,755) é menor do que X(GL; ) = X(3; 0,05) = 7,815,
obtido na Tabela 3. Com isto, a hipótese de dois genes independentes com dominância
completa não é rejeitada. Caso fosse rejeitada H0, uma nova hipótese teria que ser
formulada e devidamente testada.

2.3. Teste de Kolmogorov-Smirnov

Foi introduzido por Kolmogorov em 1933, e serve para testar a aderência, de uma
específica e bem conhecida distribuição F(X), aos dados provenientes de uma distribuição
desconhecida Fo(X).
A hipótese da nulidade (H0) especifica alguma distribuição F(X) conhecida. Uma
amostra: X1, X2, ... Xn, é retirada de uma população, cuja distribuição Fo(X) é
desconhecida, estabelecendo-se o confronto com F(X) para saber se é razoável estudar os
dados através desta distribuição, admitida como verdadeira função de distribuição da
amostra casualizada.
Este teste tem vantagem sobre o 2, pois pode ser aplicado a pequenas amostras,
além disto, trata os dados individualmente, não perdendo informações devido aos
agrupamentos, como é o caso de 2.
O teste de Kolmogorov-Smirnov de uma amostra é um teste de aderência, ou seja,
verifica o grau de concordância entre a distribuição de um conjunto de valores amostrais
(observados) e uma determinada distribuição teórica especificada.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 17
Método - é considerado que: F(X) = proporção de valores esperados  X; S(X) =
proporção de valores observados  X; Fo(X) = verdadeira função de distribuição de X, que
é desconhecida;e, S(X) é um estimador de Fo(X).
S(X) é uma função empírica de distribuição e, para n observações, S(Xi) = Ki/n =
Ki/5, em que Ki = número de observações X  Xi. A seguir, define-se:
D = Supx |F(X) – S(X)|;
D+ = Supx [F(X) – S(X)];
D- = Supx [S(X) – F(X)].
O teste, em nível  de significância, é:
a) H0: F  Fo versus H1: F  Fo, para pelo menos um valor de X
Rejeita-se H0, se D  d. Em que d é o valor da Tabela 4, P(D  d) = ;
b) H0:F  Fo versus H1:F > Fo, para pelo menos um valor de X
Rejeita-se H0, se D+  d1. Em que d1 é o valor da Tabela 4, P(D+  d1) = ; e,
c) H0:F  Fo versus H1: F < Fo, para pelo menos um valor de X
Rejeita-se H0, se D-  d1. Em que d1 é o valor da Tabela 4, P(D-  d1) = .
Para o entendimento da Tabela 4, seja n = 3 e os dados do Quadro 9 (parte da Tabela
4). Os níveis de significância (na Tabela 4) referem-se ao teste bilateral (para os testes
unilaterais, deve-se dividi-los por 2). Assim, para  = 0,05, rejeita-se H0 se D  0,708
(bilateral); e, se D+ ou D-  0,636 (unilateral).
Para valores de n acima de 100, podem-se considerar os limites aproximados
d  Q/ n , em que os valores de Q estão na linha final do Quadro 9 e na linha final da
Tabela 4.

Quadro 9 – Limites de d e d1 no teste de Kolmogorov-Smirnov, para o caso de uma


amostra: P(D  d) =  e P(D+ ou D-  d1) = /2 (parte da Tabela 4).
 bilateral 0,20 0,10 0,05 0,02 0,01
 unilateral 0,10 0,05 0,025 0,01 0,005
n=3 0,565 0,636 0,708 0,784 0,829
n >100 1,06/ n 1,21/ n 1,35/ n 1,51/ n 1,62/ n

Para determinar os supremos (D, D+ e D-), em cada ponto Xi, considera-se a maior
das duas diferenças: F(Xi)–S(Xi) e F(Xi)–S(Xi-1), caso a distribuição seja contínua. Se a

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 18
distribuição é discreta, considera-se em cada ponto Xi apenas a diferença entre F(Xi)–
S(Xi). Detalhando:
- para determinar D, considera-se a maior das duas diferenças, em valor absoluto;
- para determinar D+, considera-se em cada ponto, a maior das duas diferenças;
- para determinar D-, considera-se em cada ponto, a menor das duas diferenças.

Exemplo 6
Supondo uma amostra aleatória de n = 5 caixas de abobrinhas (Quadro 10), em que a
variável (X) é a proporção de frutos danificados. Estes valores ordenados são: x1 = 0,28; x2
= 0,47; x3 = 0,54; x4 = 0,63; e, x5 = 0,68. Nesse caso, é razoável admitir, com = 0,05, que
os dados possuem distribuição uniforme, dada pela função de densidade:

x 0 para x  0

F( x)   f( x)dx  P (X  x), ou seja F( x)   x para 0  x  1
 1 para x  1

e, S(xi) = ki/n = ki/5, em que ki = número de observações X  xi; e, S(xi) é considerado
contínua. Obtém-se:
D = Supx |F(xi) – S(xi)| = 0,32
D+ = Supx [F(xi) – S(xi-1)] = 0,28
D- = Supx [S(xi) – F(xi)] = 0,32
O valor tabelado para um teste bilateral, com n=5 e =0,05, é d=0,563 e pode ser
consultado no Quadro 11 (Parte da Tabela 4). A hipótese é H0: F  Fo versus H1: F  Fo; e,
o critério do teste estabelece que para pelo menos um valor de X, a hipótese H0 é rejeitada,
ou seja algum |F(x)–S(x)|  d. Como D = 0,32 é menor do que d=0,563, não se rejeita H0.
Assim, é razoável admitir que os dados possuam distribuição uniforme.
No caso de admitir o teste unilateral com =0,05, a hipótese H0: F(X)  Fo(X) é
rejeitada, em favor de H1: F(X) > Fo(X), se D+ d. Como D+ = 0,28 é menor do que d =
0,509, não se rejeita H0. É razoável admitir que os dados possuam distribuição uniforme.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 19
Quadro 10 – Planilha auxiliar de aplicação do teste de Kolmogorov-Smirnov.
ki xi F(xi)=x S(xi)=ki/5 F(xi)–S(xi-1) F(xi)–S(xi) |F(x)–S(x)| S(x)-F(x)
1 0,28 0,28 0,20 0,28 0,08 0,28 -0,08
2 0,47 0,47 0,40 0,27 0,07 0,27 -0,07
3 0,54 0,54 0,60 0,14 -0,06 0,14 0,06
4 0,63 0,63 0,80 0,03 -0,17 0,17 0,17
5 0,68 0,68 1,00 -0,12 -0,32 0,32 0,32
D+ = 0,28 D=0,32 D- = 0,32

Quadro 11 – Limites de d e d1 do teste de Kolmogorov-Smirnov, para o caso de uma


amostra: P(D  d) =  e P[D+ ou D-  d1) = /2 (parte da Tabela 4).
 bilateral 0,20 0,10 0,05 0,02 0,01
 unilateral 0,10 0,05 0,025 0,01 0,005
n=5 0,447 0,509 0,563 0,627 0,668

Exemplo 7
Num experimento de milho, obtiveram-se os pesos (kg parcela-1) apresentados no
Quadro 12. Seria razoável estudar os dados através de uma distribuição normal de média µ
= 20,00 e variância 2 = 5,25?
x
Solução - Inicialmente deve-se admitir que: F( x )   f( x)dx = P(X  x) , em que


( x  20, 0 ) 2
1  10,50
f ( x)  e é a função de densidade da distribuição normal. Usando a
5,74
x  20
transformação z  , as probabilidades P(Z  z ) = P(X  x) podem ser obtidas da
5,25

xi  20
tabela de distribuição normal padrão (Tabela 2), considerando zi  . Ainda, S(xi) =
5,25

ki/25, em que ki é o número de observações  xi. No Quadro 12, o leitor pode conferir os
valores (ki; xi; zi; F( xi ) = F(z i ) e S(xi)) e a sequência dos procedimentos para a aplicação
do teste.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 20
Quadro 12 – Planilha auxiliar de aplicação do teste de Kolmogorov-Smirnov.
ki xi zi F(xi) S(xi)=ki/25 F(xi)–S(xi-1) F(xi)–S(xi) |F(x)–S(x)| S(x)-F(x)
1 13,9 -2,66 0,004 0,040 0,004 -0,036 0,036 0,036
2 17,7 -1,00 0,158 0,080 0,118 0,078 0,078 -0,078
3 17,9 -0,92 0,179 0,120 0,099 0,059 0,099 -0,059
4 18,3 -0,74 0,230 0,160 0,110 0,070 0,110 -0,070
5 18,5 -0,66 0,256 0,200 0,096 0,056 0,096 -0,056
6 18,9 -0,48 0,316 0,240 0,116 0,076 0,116 -0,076
7 19,4 -0,26 0,398 0,280 0,158 0,118 0,158 -0,118
8 19,8 -0,09 0,465 0,320 0,185 0,145 0,185 -0,145
9 20,2 0,09 0,536 0,360 0,216 0,176 0,216 -0,176
10 20,6 0,26 0,602 0,400 0,242 0,202 0,242 -0,202
11 21,1 0,48 0,684 0,440 0,284 0,244 0,284 -0,244
12 21,3 0,57 0,715 0,480 0,275 0,235 0,275 -0,235
13 21,7 0,74 0,770 0,520 0,290 0,250 0,290 -0,250
14 21,9 0,83 0,794 0,560 0,274 0,234 0,274 -0,234
15 22,0 0,87 0,808 0,600 0,248 0,208 0,248 -0,208
16 22,2 0,96 0,831 0,640 0,231 0,191 0,231 -0,191
17 22,7 1,18 0,881 0,680 0,241 0,201 0,241 -0,201
18 22,8 1,22 0,889 0,720 0,209 0,169 0,209 -0,169
19 23,2 1,40 0,919 0,760 0,199 0,159 0,199 -0,159
20 23,3 1,44 0,925 0,800 0,165 0,125 0,165 -0,125
21 23,4 1,48 0,930 0,840 0,130 0,090 0,130 -0,090
22 23,8 1,66 0,952 0,880 0,112 0,072 0,112 -0,072
23 24,4 1,92 0,972 0,920 0,092 0,052 0,092 -0,052
24 24,4 1,92 0,972 0,960 0,052 0,012 0,052 -0,012
25 24,9 2,14 0,984 1,000 0,024 -0,016 0,024 0,016
D+ = 0,290 D=0,290 D- = 0,036

Admitindo-se que Fo(X) é a verdadeira função de distribuição, determina-se a


hipótese H0: F  Fo versus H1: F  Fo. Do exemplo, obtém-se as estimativas de:
D = Supx |F(x) – S(x)| = 0,290
D+ = Supx [F(x) – S(xi-1)] = 0,290

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 21
D- = Supx [S(x) – F(x)] = 0,036
O valor tabelado para um teste bilateral, com n=25 e =0,05, é d=0,264 e pode ser
consultado no Quadro 13 (Parte da Tabela 4). Pelo critério do teste, H0 é rejeitada se P(D 
d) < , para pelo menos um valor de X.
O valor determinado D =0,290 é maior que d = 0,264, isto é, P(D > 0,264) = 0,05.
Com isto, rejeita-se H0. Não é razoável admitir que os dados do exemplo possuam
distribuição normal com média µ = 20,00 e variância 2 = 5,25. Nova hipótese, com outra
média e/ou variância, poderia ser testada até chegar ao objetivo proposto.

Quadro 13 – Limites de d e d1 no teste de Kolmogorov-Smirnov, para o caso de uma


amostra: P(D  d) =  e P[D+ ou D-  d1) = /2 (parte da Tabela 4).
 bilateral 0,20 0,10 0,05 0,02 0,01
 unilateral 0,10 0,05 0,025 0,01 0,005
n = 25 0,208 0,238 0,264 0,295 0,316

2.4. Teste de Lilliefors

O teste de Kolmogorov-Smirnov, visto anteriormente, admite uma função de


distribuição específica, com parâmetros de indexação conhecidos, podendo ser utilizado
para testar a adequação a qualquer distribuição de variável. Lilliefors, em 1967, introduziu
uma modificação no teste de Kolmogorov-Smirnov, somente para o caso de testar a
normalidade dos dados. Com isto, foi ampliado o seu uso aos casos em que a média e a
variância não são previamente especificadas, mas sim, estimadas a partir dos valores da
amostra, ou seja:
n
̂  i 1 xi / n ;
n
s 2  i 1 ( xi  ˆ )2 /( n  1) ; e,

xi  ̂
zi  , i = 1, 2, ... , n.
s
Com os valores da variável padronizada (zi), colocados em ordem crescente, obtém-
se as probabilidades de que um valor Z seja menor do que z, ou seja: P(Z  z) = F(xi),
encontrados na tabela de distribuição normal padrão (Tabela 2). Após, calcula-se S(xi) =
ki/n e, procede-se de forma análoga ao teste de Kolmogorov-Smirnov.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 22
Muitas vezes, há suspeita de que a amostra não tenha distribuição normal, mas
através deste teste é verificado se é razoável estudar os dados através da distribuição
normal, admitida como não discrepante da verdadeira distribuição que é desconhecida; ou
seja, as diferenças entre a função de distribuição normal e a verdadeira função de
distribuição são insignificantes, e ,consequentemente, não detectáveis. Logo, a não rejeição
de H0, não significa que a distribuição é normal, mas apenas indica que esta é uma razoável
aproximação da distribuição desconhecida.
Como a média e a variância não são especificadas, são determinados a partir dos
dados da amostra, e os limites superiores da distribuição de D (bilateral) do teste de
Kolmogorov-Smirnov não são apropriados. Verificar na Tabela 5, os limites superiores (d)
aproximados (obtidos empiricamente) do teste de Lilliefors.

Exemplo 8
Aplicação do teste de Lilliefors aos dados do exemplo 7, referente ao experimento
de milho.
A partir dos dados da amostra, as estimativas da média, da variância e do desvio
padrão, são:
n
̂  i 1 xi / n = 528,3/25 = 21,13;
n
s 2  i 1 ( xi  ˆ )2 /( n  1) = 6,8856; s = 2,624; e,

xi  ̂ x  21,13
zi  = i .
s 2,624
Os valores de F(zi) são obtidos da Tabela 2 e, S(xi) =ki/25, para i=k = 1, 2, ... , 25.
No Quadro 14, o leitor pode conferir os valores (ki; xi; zi; F(xi) e S(xi)) e, a sequência dos
procedimentos necessários para a aplicação do teste.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 23
Quadro 14 – Planilha auxiliar de aplicação do teste de Lilliefors.
ki xi zi F(xi) S(xi)=ki/25 F(zi)–S(zi-1) F(zi)–S(zi) |F(z)–S(z)|
1 13,9 -2,76 0,003 0,040 0,003 -0,037 0,037
2 17,7 -1,31 0,095 0,080 0,055 0,015 0,055
3 17,9 -1,23 0,109 0,120 0,029 -0,011 0,029
4 18,3 -1,08 0,140 0,160 0,020 -0,020 0,020
5 18,5 -1,00 0,159 0,200 -0,001 -0,041 0,041
6 18,9 -0,85 0,198 0,240 -0,002 -0,042 0,042
7 19,4 -0,66 0,255 0,280 0,015 -0,025 0,025
8 19,8 -0,51 0,305 0,320 0,025 -0,015 0,025
9 20,2 -0,35 0,363 0,360 0,043 0,003 0,043
10 20,6 -0,20 0,421 0,400 0,061 0,021 0,061
11 21,1 0,00 0,500 0,440 0,100 0,060 0,100
12 21,3 0,06 0,524 0,480 0,084 0,044 0,084
13 21,7 0,22 0,587 0,520 0,107 0,067 0,107
14 21,9 0,29 0,614 0,560 0,094 0,054 0,094
15 22,0 0,33 0,629 0,600 0,069 0,029 0,069
16 22,2 0,41 0,659 0,640 0,059 0,019 0,059
17 22,7 0,60 0,726 0,680 0,086 0,046 0,086
18 22,8 0,64 0,739 0,720 0,059 0,019 0,059
19 23,2 0,79 0,785 0,760 0,065 0,025 0,065
20 23,3 0,83 0,797 0,800 0,037 -0,003 0,037
21 23,4 0,86 0,805 0,840 0,005 -0,035 0,035
22 23,8 1,02 0,846 0,880 0,006 -0,034 0,034
23 24,4 1,25 0,894 0,920 0,014 -0,026 0,026
24 24,4 1,25 0,894 0,960 -0,026 -0,066 0,066
25 24,9 1,44 0,925 1,000 -0,035 -0,075 0,075
D=0,107

Para o teste bilateral, a hipótese é H0: F  Fo versus H1: F  Fo. O valor tabelado
(Tabela 5), para n=25 e  = 0,05, é d=0,173 ou seja, P(D ≥ 0,173) = 0,05. Como o valor
estimado para D = Sup |F(Z)-S(Z)| = 0,107 é menor do que o tabelado, a hipótese não é
rejeitada. Vimos que, pelo teste Kolmogorov-Smirnov, os dados não seguiam uma
distribuição normal com média 20,00 e variância 5,25. No entanto, pelo teste de Lilliefors,

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 24
com média e variância estimada a partir dos dados, constata-se que os mesmos dados
podem ser estudados através da distribuição normal.

2.5. Teste de Shapiro-Wilk

O teste foi proposto por Samuel Shapiro e Martin Wilk, em 1965, com objetivo de
verificar a aderência de um conjunto de dados à distribuição normal. A principal
característica deste teste é a aplicação a um grupo de dados com n < 50.
Método – considere a sequência de procedimentos:
a) Definir as hipóteses, H0: a amostra tem origem em uma população com distribuição
normal versus H1: a amostra não se origina de uma população com distribuição normal;
n
b) Listar as observações em ordem crescente e determinar a média geral ( ̂  i1 xi / n );
n
c) Determinar a soma dos quadrados dos desvios (SQD =  i 1
( xi  ˆ ) 2 ;
n
d) Determinar o valor b   i 1
an  i 1 ( xn  i 1  xi ) . Os valores de an-i+1 são tabelados em

função do número de observações da amostra (Tabela 6). Para efeito de cálculo, quando
o número de observações for ímpar, deve-se desprezar a observação mediana. Para se
obter o valor de b, recomenda-se o uso de uma planilha auxiliar, conforme modelo no
Quadro 15;
2 n
2
e) Determinar a estatística W do teste, Wc = b / i 1 ( xi  ˆ ) ;

f) Em função do nível de significância adotado no teste e do tamanho de amostra, obter o


valor crítico Wt (Tabela 7); e,
g) Decisão: se Wc > Wt, rejeitar H0 em nível  de significância, concluindo que a amostra
não provem de uma população com distribuição normal.

Quadro 15 – Planilha auxiliar para obter o valor b do teste de Shapiro-Wilk.


i n-i+1 an-i+1 xn-i+1 xi an-i+1(xn-i+1 - xi)
1
2
n
b  i 1 an  i 1 ( xn  i 1  xi )

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 25
Exemplo 9
Sejam os resultados da porcentagem da germinação de sementes, obtidas de 20 lotes
de sementes de Eucaliptus grandis, do Lote 1 ao Lote 20, respectivamente: 81, 88, 71, 27,
32, 92, 63, 63, 45, 48, 26, 83, 47, 44, 50, 50, 73, 81, 80 e 80.
Pergunta-se, esses resultados provem de uma população com distribuição normal?
Segundo os procedimentos do teste, a ordem crescente das observações é: 26, 27, 32,
44, 45, 47, 48, 50, 50, 63, 63, 71, 73, 80, 80, 81, 81, 83, 88, 92, sendo a média geral
n n
̂  i1 xi / n = 61,2 e, a soma dos quadrados dos desvios SQD= i 1 ( xi  ˆ ) 2 = (26-

61,2)²+ (27-61,2)²+ (32-61,2)²+ ... + (88-61,2)²+ (92-61,2)² = 8321,2.


Os valores de an-i+1 foram obtidos da Tabela 6 e estão relacionados no Quadro 16,
juntamente com os demais cálculos. Com isto, Wc é calculado como sendo:
2 n 2
Wc = b / i 1 ( xi  ˆ ) = (88,3724)2/(8321,2) = 0,938;

Wt = W(α; n) = W(0,05; 20) = 0,905 (Tabela 7).


Como Wc = 0,938 > Wt = 0,905, rejeita-se H0, concluindo que a amostra não provem
de uma população com distribuição normal.

Quadro 16 – Planilha auxiliar para obter o valor b do teste de Shapiro-Wilk, do exemplo 9.


I n-i+1 an-i+1 xn-i+1 xi an-i+1(xn-i+1 - xi)
1 20 0,4734 92 26 31,2444
2 19 0,3211 88 27 19,5871
3 18 0,2665 83 32 13,5915
4 17 0,2085 81 44 7,7145
5 16 0,1686 81 45 6,0696
6 15 0,1334 80 47 4,4022
7 14 0,1013 80 48 3,2416
8 13 0,0711 73 50 1,6353
9 12 0,0422 71 50 0,8862
10 11 0,0140 63 63 0,0000
b = 88,3724

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 26
2.6. Teste de Sequência (Run test ou Iterações)

Num arranjo de dados de uma amostra, em que, por algum critério, podem-se
enquadrar os dados em duas classes (A e B), podem ocorrer diferentes situações:
a) Os símbolos A’s precedem os B’s, ou vice-versa:
A A A A A ... A B B B B B ... B
B B B B B ... B A A A A A ... A
b) Os símbolos A’s e B’s, intercalam-se sistematicamente:
A B A B A B ... A B
B A B A B A ... B A
c) Os símbolos A’s e B’s, posicionam-se aleatoriamente:
A A A A A B B B A A B B B A B A B B A A A

Nos casos “a” e “b”, os dados induzem a admitir falta de aleatoriedade no


posicionamento dos elementos das duas classes (A e B), ou seja, há algum fator não
aleatório atuando sobre os dados da amostra. Ao afastar-se daqueles casos extremos (“a” e
“b”), cresce a evidência de que os elementos da amostra se arranjam aleatoriamente (ao
acaso).
Numa sequência de elementos, a cada sucessão de símbolos iguais precedidos e
seguidos por símbolos diferentes ou por nenhum símbolo é denominado “sequência”.

Exemplos:
1) A A A A B B B A A B B B B B B B = quatro sequências (C=4);
1 2 3 4
2) B B B B B B B B A B B B A A A A A B B B = cinco sequências (C=5).
1 2 3 4 5

Admitindo m = 4 elementos da classe A e n = 3 elementos da classe B, pode-se ter:


número mínimo de sequências (C=2) (AAAABBB) e número máximo de sequências (C=7)
(ABABABA) = m + n .
Quando os dados da amostra são quantitativos, a mediana, é utilizada como critério
para definição das duas classes, classe 1: formada por elementos abaixo da mediana; e,
classe 2: por elementos acima da mediana, adotando-se os sinais “-” e “+”,
respectivamente. Os casos de elementos iguais a mediana podem ser descartados ou,
incluídos numa das duas classes por critério previamente estabelecido. Veja o esquema de

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 27
aplicação do teste de sequência, com oito observações, no Quadro 17. Neste caso, o
número de sequências é igual a sete (C=7).

Quadro 17 – Esquema da aplicação do teste de sequência.


Observação valor Observação arranjo
1 2 Mediana =3,5 1 -
2 5 2 +
3 3 3 -
4 6 4 +
5 8 5 +
6 1 6 -
7 4 7 +
8 3 8 -

Método - listar os m elementos coletados da classe 1 e, os n elementos coletados da


classe 2, na ordem em que eles ocorrem; determinar o valor de C (número de sequências)
formado no arranjo.
Hipóteses: H0: a sequência de dados é aleatória versus H1: a sequência de dados não
é aleatória.
Rejeita-se H0, em nível  de significância, se C  c1(1; m; n) ou C  c1(2; m; n), em que
c1 e c2 são os limites inferior e superior da distribuição nula do teste e são encontrados na
Tabela 8.
Para fixar o nível  de significância, deve-se primeiro fixar os níveis 1 e 2, ou seja:
P(C  c1) = 1; P(C  c2) = 2. Para concluir, é considerado o nível mínimo de
significância (p-valor), que é igual ao dobro do menor valor entre 1 e 2.

Exemplo 10
A praga “bicheira da raiz” da cultura do arroz, geralmente, localiza-se nas
bordaduras da lavoura. A fim de encontrar a distribuição espacial dessa praga numa área
experimental, a mesma foi subdividida em quadros, conforme mostra o croqui no Quadro
18. Em cada quadrilátero (Q) enumerado, foi tomada uma amostra de 1,0m2, contando-se
o número de pragas (N) listado no Quadro 19.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 28
Para verificar se a “bicheira da raiz” se distribui aleatoriamente na área têm-se as
seguintes hipóteses, H0: a praga se distribui aleatoriamente na área versus H1: a praga não
se distribui aleatoriamente na área.

Quadro 18 – Croqui dos pontos marcados nos quadros da área experimental com a cultura
do arroz.
1 8 10 17
3 6 12 15
5 14
4 7 13 16
2 9 11 18

Quadro 19 – Número de pragas “bicheira da raiz” (N) em cada quadro (Q).


Quadro 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Número 15 16 7 6 1 5 4 20 21 25 18 8 7 2 4 7 24 23

A mediana dos dados (N) é igual a 7,5. Consideram-se os elementos menores ou


iguais a mediana como “-” e, os valores maiores do que a mediana, como “+”, sendo o
resultado listado no Quadro 20.

Quadro 20 – Listagem dos quadros, classes e seqüências, referentes à quantidade da praga


“bicheira da raiz”.
Quadro 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Classe + + - - - - - + + + + + - - - - + +
sequências 1 2 3 4 5

O número de sequências é igual a 5 (C=5), sendo m = 9 e n = 9. Na Tabela 8,


consulta-se 1 = P(C  5) = 0,012 e 2 =P(C  5) = 1-P (C  4) = 1–0,003 = 0,997. Assim,
p-valor = 2*mín(1; 2) = 21 =20,012 = 0,024 = 2,4%.
Como 2,4% é menor do que 5%, rejeita-se H0, concluindo que a “bicheira da raiz” do
arroz não se distribui aleatoriamente na área experimental e por algum motivo tem
preferência (sinal “+”, superior a mediana) em atacar as plantas localizadas nas bordas da
área, o que pode ser conferido pelas classes (do Quadro 20) sobre o croqui do Quadro 18.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 29
Para n e m maiores do que os da Tabela 8, a aproximação da distribuição normal
deve ser utilizada, ou seja, deve ser calculada a estatística:
C  E(C)
z , em que C é o número de sequências observadas;
V(C)

2mn
E(C)  1 
mn
2mn(2mn  m  n)
V(C) 
(m  n) 2 (m  n  1)

Rejeita-se H0, se z > z/2, em nível  de significância.

3. TESTES PARA DADOS PAREADOS

Os testes estatísticos de duas amostras relacionadas são empregados para determinar


se dois tratamentos são diferentes, ou se um tratamento é melhor do que o outro.
A vantagem dos testes não-paramétricos aplicáveis a duas amostras relacionadas, é
que não exigem que os pares sejam extraídos da mesma população. Em cada caso,
compara-se o grupo em que se aplicou o tratamento, com outro que não sofreu nenhum
tratamento, ou que sofreu tratamento diferente, ou seja, duas alternativas devem ser
consideradas. O tratamento ou fator pode consistir de uma diversidade de situações ou
condições: injeção de um medicamento, treinamento, propaganda, separação da família,
alterações cirúrgicas, modificação nas condições de habitação, alterações climáticas,
introdução de um novo elemento na economia, entre outras. Os indivíduos são tomados ao
acaso em duas amostras e, cada uma delas recebe um determinado tratamento, sendo uma
delas o grupo controle. Em qualquer das duas alternativas, considerando as amostras
independentes, uma grande dispersão de dados poderá comprometer seriamente a validade
das conclusões obtidas. Para contornar esse problema, recomenda-se, nestes casos,
estruturar os dados em pares, em que cada elemento receberá um dos tratamentos, visando
a redução da heterogeneidade. Independentemente da heterogeneidade dos dados, a própria
natureza do problema poderá exigir o seu pareamento. Os casos mais comuns de
pareamento ocorrem quando cada indivíduo é tomado como seu próprio controle,
constituindo o que é denominado de pré e póstratamento. Em certos casos, o pareamento é
natural, por exemplo: grupos de gêmeos ou então, quando se consideram orgãos pareados
(ouvidos, pés, braços, olhos, entre outros).

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 30
Um outro caso ocorre em estudos comparativos de dois grupos de indivíduos, que
são pareados em conformidade com suas afinidades. Dentro de cada par, os tratamentos
são casualizados. Este processo de pareamento evita qualquer influência de fatores
colaterais nos resultados de pesquisa. Em qualquer destes casos, poderia-se pensar na
aplicação do teste t às diferenças de resultados de cada par. Entretanto, isso exigiria que
fossem satisfeitas as exigências daquele teste, o que nem sempre ocorre. Há alguns casos
em que o teste t não é aplicável. Dentre eles destacam-se:
- as exigências do teste não se coadunam com os dados da pesquisa;
-as diferenças entre os dados pareados são apenas ordinais, isto é, pode-se apenas assinalar
qual o membro de cada par é maior, mas não pode-se especificar o quanto ele é maior;
e,
- os dados são qualitativos, e não quantitativos.

3.1. Teste do Sinal

O teste do sinal apareceu antes de 1710, sendo o mais antigo de todos os testes não-
paramétricos. Na realidade, trata-se de um teste binomial (po =0,5), sendo um teste bastante
versátil, que merece ser destacado.
Os dados consistem de n pares de observações (Xi,Yi), em que Xi representa uma
situação pré e Yi uma situação pós, ou seja, (Xi, Yi) são pareados de acordo com suas
afinidades e objetivos de pesquisa.
As pressuposições são:
a) Os pares (Xi, Yi), i=1,2,...,n, são mutuamente independentes, ou seja, F(x)F(y) = F(x;y),
para qualquer par de valores;
b) Toma-se como modelo: Zi =  + ei, para i=1,2,...,n, em que  é o efeito do tratamento e
Zi = Yi – Xi;
c) Os ei são mutuamente independentes; e,
d) Cada ei provém de uma distribuição contínua (não necessariamente a mesma), cuja
mediana é zero, isto é, P(ei > 0) = P(ei < 0) = 0,5. Pode-se substituir esta pressuposição
por outra mais branda, dentro de cada par, a escala de medida é, ao menos, ordinal. Com
esta pressuposição, o teste torna-se mais flexível e estende o seu campo de aplicação a
dados qualitativos.
Método - preliminarmente, defini-se a função indicadora: Ai = 1, se Yi >Xi e Ai = 0,
se Yi < Xi.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 31
n
Determina-se: B  i 1 A i , em que B, sob H0:  = 0, tem distribuição binomial com

po=0,5.
Podem-se testar as seguintes hipóteses, em nível  de significância:
a) H0:  = 0 versus H1:  > 0. Rejeita-se H0, se B  (n – c(; n; 0,5)), em que c(; n; 0,5) é o
limite inferior da distribuição binomial, em nível  de significância, com n pares, e po =
0,5 (Tabela 1).
b) H0:  = 0 versus H1:  < 0. Rejeita-se H0, se B  c(; n; 0,5).
c) H0:  = 0 versus H1:  0. Rejeita-se H0 se B  (n – c(1; n; 0,5)), ou B  c(2; n; 0,5), em que
c(1; n; 0,5) é o limite inferior da distribuição binomial, em nível  de significância, com n
pares e po = 0,5.
2B  n
Para grandes amostras, calcula-se: B*  , como aproximação da distribuição
n
normal padrão, sendo as hipóteses: H0: = 0 versus H1: > 0. Rejeita-se H0 se B*  Z, em
que Z é o limite superior da distribuição normal padrão, em nível  de significância.
Podem-se testar ainda as hipóteses:
a) H0:  = 0 versus H1:  < 0. Rejeita-se H0 se B*  -Z; e,
b) H0:  = 0 versus H1:   0. Rejeita-se H0 se B*  Z/2, ou B*  -Z/2.

Exemplo 1
No Quadro 21 estão listados os resultados de um experimento, com objetivo de testar
a eficiência de um herbicida pré-emergente no controle de ervas daninhas da cultura do
arroz irrigado. Em cada uma das dez parcelas, tratou-se a metade, sendo que a outra
metade não recebeu o herbicida (controle). Deseja-se verificar se o efeito do tratamento foi
eficiente ( = 0,0547).
Na Tabela 1, pode-se obter o valor c(; n; 0,5) = c(0,0547; 10; 0,50) = 2. Assim, rejeita-se H0
se B  2. Como o valor B = 1 (Quadro 22), rejeita-se H0, concluindo que o herbicida foi
eficiente e reduziu o peso de ervas daninhas na cultura do arroz irrigado.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 32
Quadro 21 – Listagem do peso (g) de ervas daninha em 10 parcelas.
Peso (g) de ervas daninha
Parcela Controle (X) Tratada (Y)
1 115,4 98,4
2 121,0 73,6
3 112,3 65,9
4 78,7 42,1
5 65,6 77,2
6 213,5 104,0
7 157,5 82,8
8 80,7 59,4
9 142,8 102,6
10 100,3 53,6

Quadro 22 – Planilha auxiliar para a aplicação do teste do sinal.


Parcela i Zi = Yi-Xi Ai
1 -17,0 0
2 -47,4 0
3 -46,4 0
4 -36,6 0
5 11,6 1
6 -109,5 0
7 -74,7 0
8 -21,2 0
9 -40,2 0
10 -46,6 0
Soma = B = 1

Exemplo 2
Numa determinada variedade de cana-de-açúcar, o comprimento médio do terceiro
internódio é 22 cm. Admitindo este, como um fato característico da variedade, e
objetivando verificar se a cana de um determinado talhão pertence a esta variedade, foram
tomadas nove amostras de seis colmos, obtendo os comprimentos médios do terceiro

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 33
internódio, apresentados no Quadro 23. Podem-se testar as hipóteses H0:  = 22 versus H1:
 > 22.
Solução: rejeita-se H0:  = 22 se B  n-c(; n; 0,5).
A Tabela 1 contém c(; n; 0,5) = c(0,0195; 9; 0,50) = 1. Logo, p-valor = P(B  8) = P(B  1)
= 0,0195. Com 1,95% de significância, a cana-de-açúcar em questão não é da variedade
considerada.

Quadro 23 – Listagem dos comprimentos médios (Y, cm) em nove amostras de cana.
Amostra i Comprimentos médios
1 23,3
2 22,4
3 21,1
4 22,6
5 22,2
6 23,5
7 22,7
8 22,8
9 23,0

Quadro 24 – Planilha auxiliar para a aplicação do teste do sinal.


Amostra i Yi Xi Yi-Xi Ai
1 23,3 22 1,3 1
2 22,4 22 0,4 1
3 21,1 22 -0,9 0
4 22,6 22 0,6 1
5 22,2 22 0,2 1
6 23,5 22 1,5 1
7 22,7 22 0,7 1
8 22,8 22 0,8 1
9 23,0 22 1,0 1
Soma = B = 8

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 34
Exemplo 3
Com objetivo de comparar a qualidade do café de máquina italiana com o café de
coador, os dois produtos foram disponibilizados para cada uma de 40 pessoas obtidas ao
acaso. Cada pessoa identificou o melhor dos dois cafés. No caso de ser preferido o café de
coador, será considerado o sinal como + (mais), em caso contrário será considerado o sinal
– (menos). O resultado foi o seguinte: 25 pessoas preferem o café de coador (+) e, 15
pessoas preferem o café de máquina (-). Se os dois tipos de café fossem iguais (H0), dever-
se-ia obter em média, 20 sinais mais e 20 sinais menos.
Se o número de blocos, N (ou, de pessoas, que é equivalente), for superior a 20,
pode-se usar a aproximação da distribuição normal padrão (Tabela 2). Assim,
2B  N 2 * 25  40
z   1,58 , em que: B é o número de sinais mais ou sinais menos.
N 40
Como o valor calculado (1,58) é menor do que o tabelado em 5% (1,96), não se rejeita H0,
ou seja, não se comprovou diferença entre os dois tipos de café.

Exemplo 4
Considerando o exemplo anterior, supondo que em vez de 40 pessoas, tivessem
retirados, ao acaso, somente 16, com os seguintes resultados: 12 pessoas preferem o café
de coador (+) e quatro pessoas preferem o café de máquina (-).
Considerando o número menor de observação, obtém-se na Tabela 1, a probabilidade
de ter um número de ocorrência B  4, em N = 16 tentativas, é  = 0,0384 ou 3,84%. Tal
resultado seria significativo, em nível de 5% de significância, uma vez que se tem menos
de 5%. Logo, rejeita-se H0 concluindo que o café de coador é preferido.
Se em vez de quatro, teriam cinco pessoas preferindo o café de máquina, o p-valor
seria 0,1051 ou 10,51% e o resultado não seria significativo.
Para o exemplo anterior (40 pessoas), também poder-se-ia aplicar o teste 2 e ter-se-
ia os dados do Quadro 25, com os valores esperados entre parênteses.

Quadro 25 – Dados para aplicação do teste do teste 2 (qui-quadrado)..


Sinal + Sinal - Total
25 (20) 15 (20) 40

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 35
(25  20)2 (15  20) 2
O valor do teste é  c  + =2,50. O valor crítico da
20 20
distribuição 2 pode ser consultado na Tabela 3. Com GL=1 grau de liberdade, em nível de
5% de significância, têm-se X(GL; ) = X(1; 0,05) =3,841. Logo, não se rejeitaa hipótese de
nulidade (H0), ou seja, não há diferença significativa entre os tratamentos.
É preciso salientar que o teste de sinal, aplicado com o auxílio da Tabela 1, é exato e
não tem restrições, enquanto que o 2 é aproximado, e no caso da aproximação da
distribuição normal padrão, quando N > 20, o teste também não é exato.

3.2. Teste de Cox e Stuart para tendências

Cox e Stuart, em 1955, adaptaram o teste do sinal ao estudo de tendência (trend),


numa sequência de dados de observação.
Admite-se que uma sequência de dados apresenta uma tendência crescente (ou,
decrescente) quando se considera na ordem natural em que são observados, os últimos
tendem a ser maiores (ou, menores) do que os primeiros.
Considerando a sequência de variáveis aleatórias X1, X2, ..., Xn, procede-se uma
partição, tomando-se um valor K, tal que: K = n/2, se n é par; e, K = (n+1)/2, se n é ímpar.
Formam-se, assim, os pares (Xi, Xk+i), observando que se n é ímpar, a observação central é
descartada. A função indicadora é definida por: A i  1, se Xk+i > Xi e, A i  0, se Xk+i
n
<Xi. Seja B  i 1 Ai e, prosseguem-se os procedimentos do teste do sinal, como visto

anteriormente.
Por exemplo, se a hipótese do teste for H0:  =0 versus H1:  >0, quando se rejeita
H0, conclui-se que há uma tendência crescente na sequência de dados considerados.

Exemplo 5
As precipitações pluviométricas do mês de janeiro, desde 1981 a 2000, em Santa
Maria, estão apresentadas no Quadro 26. Com objetivo de verificar se a precipitação está
tendendo a aumentar ou a diminuir, utilizar-se-á o Teste de Cox e Stuart.
Solução: K = n/2 = 20/2 = 10, forma-se os pares (Xi, X10+i) listados no Quadro 27,
com o resultado do teste (B=4).
A hipótese do teste bilateral é: H0:  = 0 versus H1:   0.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 36
Na Tabela 1, para po = 0,50, têm-se 1 = P(B4) = 0,3770 e 2 = P(B4) = 1 -
P(B3) = 1 - 0,1719 = 0,8281. Portanto, o p-valor no qual se rejeitaria H0 em favor de H1 é
 =2 mín(1; 2), no caso, =21 = 20,3770 = 0,7540. Logo, não se rejeita H0, isto é, os
dados não apresentam tendência de crescer ou decrescer na sequência dos anos avaliados.

Quadro 26 – Dados de precipitação (mm) de janeiro (1981 a 2000) em Santa Maria.


Ano Precipitação (mm) Ano Precipitação (mm)
1981 125,35 1991 117,05
1982 127,46 1992 90,72
1983 118,77 1993 127,20
1984 98,36 1994 100,72
1985 126,37 1995 118,63
1986 148,25 1996 132,45
1987 112,37 1997 118,43
1988 156,28 1998 135,14
1989 96,18 1999 108,80
1990 162,32 2000 126,48

Quadro 27 – Planilha auxiliar da aplicação do teste de Cox e Stuart para tendências.


Xi X10+i Zi = X10+i - Xi Ai
125,35 117,05 -8,3 0
127,46 90,72 -36,74 0
118,77 127,20 8,43 1
98,36 100,72 2,46 1
126,37 118,63 -7,74 0
148,25 132,45 -15,80 0
112,37 118,43 6,06 1
156,28 135,14 -21,14 0
96,18 108,80 12,62 1
162,32 126,48 -35,84 0
Soma = B = 4

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 37
3.3. Teste de Mc Nemar

É aplicado quando cada elemento é tomado como o seu próprio controle,


distinguindo-se em duas situações: antes e depois. É utilizado para testar mudanças de
categoria (classes), ocorridas em função da aplicação de determinado tratamento aos dados
de uma amostra.
A tabela de contingência 2x2 (Quadro 28), resume duas classes (A e B) e duas
situações (antes e depois). Têm-se n pares (Xi, Yi), em que Xi é a situação antes e, Yi é a
situação depois. Assim, pode-se obter (A, A) (A, B) (B, A) (B, B).
Pressuposições: os pares (Xi, Yi), são mutuamente independentes e a escala de
medidas utilizada é a nominal.
A hipótese da nulidade (H0) admite que o número de elementos que mudaram de
classe seja o mesmo nas duas direções. É esperado ocorrer (b+c)/2 mudanças em cada
direção. As hipóteses são:
H0: P(A,B) = P(B,A) versus H1: P(A, B) < P(B, A) ou H1: P(A, B) > P(B, A) ou H1:
P(A, B)  P(B, A).
Caso 1: n’ = b+c  20. Neste caso, aplica-se o teste binomial, com po = 0,50,
identificando a estatística B do teste, com a frequência observada b, ou seja: B = b. Logo,
nada mais é do que o teste do sinal, se considera os pares (A, B) como positivos (+) e os
pares (B, A) como negativos (-).
Caso 2: n’ = b+c > 20. Utiliza-se o teste 2, com 1 grau de liberdade, como mostrado

(b  c) 2
a seguir: χ c  . Rejeita-se H0 se c > X(GL; ) (Tabela 3).
(b  c)

Quadro 28 - Tabela de contingência 2x2 para duas classes (A e B) e duas situações (antes
e depois).
Depois (Yi)
Antes (Xi) A B
A a b a+b
B c d c+d
a+c b+d
b = total de indivíduos que depois do tratamento mudaram da classe A para B.
c = total de indivíduos que depois do tratamento mudaram da classe B para A.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 38
Exemplo 6
Duas marcas diferentes de ração (A e B) são utilizadas para engorda de suínos numa
propriedade. Na ração “A”, o suinocultor colocou um atrativo, com finalidade de aumentar
o consumo da mesma. Os resultados, para uma amostra ao acaso de 100 suínos, estão
listados no Quadro 29. Pergunta-se, o atrativo foi eficiente?
Solução - segundo os dados na tabela de contingência (Quadro 29), n’ = 13+3 = 16
mudanças, ou seja, após colocar o atrativo, três animais que consumiam a ração “A”
mudaram para a ração “B” e 13 animais mudaram da ração “B” para a ração “A”. Neste
exemplo, utiliza-se o procedimento do primeiro caso (n’ = b+c  20) e, aplica-se o teste
binomial: B = b = 3.
H0: P(A, B) = P(B, A) versus H1: P(A, B) < P(B, A). Tem-se B = 3 e n’ = 16. Da
Tabela 1 tem-se B  c(; n’; 0,5), P(B  3) = 0,0106. Assim, o p-valor para rejeitar H0 é igual
a 0,0106. Conclui-se que, em nível de 1,06 % de probabilidade, o atrativo colocado na
ração “A” foi eficiente.

Quadro 29 – Consumo de ração por suínos, antes e depois da adição do atrativo na ração.
Depois do atrativo
Antes do atrativo Ração “A” Ração “B”
Ração “A” 37 3
Ração “B” 13 47

Exemplo 7
O rebanho bovino de 200 animais de uma propriedade tem acesso livre a duas pastagens
(uma com aveia preta e outra com azevém + trevo vesiculoso). Fez-se adubação
nitrogenada em cobertura na aveia preta e retiraram-se os animais das pastagens por 15
dias. Após o retorno, observam-se mudanças quanto à pastagem preferida (Quadro 30). A
preferência dos animais sofreu interferência da adubação na aveia preta? Solução: como n’
= 47 + 18 = 65 mudanças (caso 2, n’ = b+c > 20), utiliza-se o teste de 2.
Hipóteses (teste bilateral): H0: P(A, B) = P(B, A) versus H1:P(A, B)P(B, A) e determina-

(b  c) 2 (47  18) 2
se  c    12,93 , sendo o valor crítico da distribuição qui-quadrado
bc 47  18
X(GL; ) = X(1; 0,05) = 3,84 (Tabela 3), rejeita-se H0 e conclui-se que a adubação de cobertura
na aveia preta fez com que aumentasse a preferência pelos animais.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 39
Quadro 30 – Número de bovinos pastando em cada pastagem antes e depois da adubação.
Depois da adubação
Antes da adubação Azevém + trevo vesiculoso Aveia preta
Azevém + trevo vesiculoso 83 47
Aveia preta 18 52

3.4. Teste das Ordens Assinaladas

Introduzido por Wilcoxon, em 1945, considera n pares de observações (Xi, Yi).


Agora, em vez de utilizarem-se os sinais das diferenças Zi, como no teste de sinal,
introduz-se o conceito de ordem (rank). O teste se baseia exclusivamente nas ordens das
diferenças positivas: Di = Yi - Xi.
As pressuposições são:
a) Os pares (Xi, Yi) são mutuamente independentes;
b) Modelo Di =  + ei , em que i = 1, 2, ..., n; cada Di é uma variável contínua com
distribuição simétrica; e,
c) Os Di têm a mesma mediana e a escala de medida é, ao menos, intervalo de medida.
Método - consideram-se os valores absolutos das diferenças Di , ou seja, |D1|, |D2|, ...
|Dn|. Seja Oi a observação de |Di|, quando classificados em ordem crescente, então a função
1 se Yi  X i (Di  0) n
indicadora é: A i   . Calcular a estatística T   Oi A i , que é a
0 se Yi  X i (Di  0) i 1

soma das ordens das diferenças positivas Di.


As hipóteses são:
a) H0:  = 0 versus H1:  > 0. Rejeita-se H0 se T  T1- , em que P(T  T1-) = ;
b) H0:  = 0 versus H1:  < 0. Rejeita-se H0 se T  T , em que: P(T  T) = ; e,
c) H0:  = 0 versus H1:   0. Rejeita-se H0 se T  T1-1 ou T  T2, em que: 1 + 2 =  e
geralmente  1 =  2 = /2.
Quando H0 é verdadeira, a distribuição de T é simétrica em relação à média
n(n+1)/4, logo, associam-se os limites inferiores (T) e superiores (T1-) ou seja: T1- =
n(n+1)/2 = T e P(T  T) = P[T  n(n+1)/2 - T] = P(T  T1-).
A Tabela 7 contém os limites T e T1- para “n” entre 1 e 20.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 40
Para grandes amostras (n>20), usar a aproximação da distribuição
n(n  1)
T
normal: T*  4
n(n  1)(2n  1)
24
Nessas condições, para as hipóteses H0:  = 0 versus H1:  > 0, em nível  de
significância, rejeita-se H0 se: T*  Z, em que: Z é o limite superior da distribuição
normal padrão.

Exemplo 8
Sejam os dados do Quadro 31. Da Tabela 9, tem-se que P(T  15) = 0,031. Logo,
com o p-valor de 0,031, não se rejeita H0, concluindo que Xi e Yi provem de uma mesma
população.
Quadro 31 – Dados para aplicação do teste das ordens assinaladas.
Xi Yi Di |Di| Oi Ai Oi Ai
12 15 3 3 2 1 2
10 8 -2 2 1 0 0
8 13 5 5 3 1 3
10 4 -6 6 4 0 0
13 25 12 12 5 1 5
Soma = T = 10

Exemplo 9
Nos ensaios estaduais de competição de cultivares de milho do Rio Grande do Sul,
constatou-se que a cultivar LS56 produziu 15% a mais do que a cultivar ADL36. Para a
comprovação desse resultado, foram consideradas as médias de produção (t ha-1) das duas
cultivares em dez locais diferentes (Quadro 32). A cultivar LS56 produziu 15% a mais do
que a cultivar ADL36?
Solução: acrescentam-se 15% na produção da ADL36 e testa com LS56, com isso
nossa hipótese é H0:  = 0 versus H1:  > 0. Os procedimentos do teste estão no Quadro
33.
Da Tabela 9, tem-se P(T  46) = 0,032. Logo, com o p-valor de 0,032 rejeita-se H0,
confirmando que a cultivar LS56 produz 15 % a mais do que a cultivar ADL36.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 41
Quadro 32 – Dados para aplicação do teste das ordens assinaladas.
Locais ADL36 LS56
1 75,8 93,5
2 84,3 100,2
3 78,4 95,4
4 81,5 98,6
5 85,6 102,5
6 68,7 80,5
7 70,4 73,6
8 79,7 93,5
9 78,3 94,6
10 83,5 105,1

Quadro 33 – Planilha auxiliar da aplicação do teste das ordens assinaladas (X = ADL36 e


Y = LS56).
1,15Xi Yi Di |Di| Oi Ai Oi Ai
87,2 93,5 6,3 6,3 8 1 8
96,9 100,2 3,3 3,3 3 1 3
90,2 95,4 5,2 5,2 7 1 7
93,7 98,6 3,7 3,7 4 1 4
98,4 102,5 4,1 4,1 5 1 5
79,0 80,5 1,5 1,5 1 1 1
81,0 73,6 -6,5 6,5 9 0 0
91,6 93,5 1,9 1,9 2 1 2
90,0 94,6 4,6 4,6 6 1 6
96,0 105,1 9,1 9,1 10 1 10
Soma = T = 46

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 42
4. TESTES PARA DUAS AMOSTRAS INDEPENDENTES

4.1. Teste da Soma das Ordens (Rank Sum Test) – Wilcoxon

Utiliza-se esse teste, quando o interesse maior é verificar, entre dois tratamentos, se
existe superioridade de um sobre o outro, quanto à natureza dos dados amostrados.
Aplica-se o teste de posição envolvendo duas populações (X e Y). No caso destas
serem independentes, destaca-se o teste de Wilcoxon, introduzido em 1945, com a
denominação de Teste da Soma das Ordens.
Pressuposições:
a) As duas amostras são casualizadas e independentes; e,
b) As variáveis (Xi e Yj) são contínuas.
Método - consideram-se as amostras: X1, X2, ......., Xm e Y1, Y2, ......., Yn, (m  n).
Admite-se o modelo: Xi = ei (i = 1, 2, ..........., m) e Yj =  + em+j (j = 1, 2, ..., n), em que
 é o efeito do tratamento. Procede-se a classificação conjunta das N = m + n observações,
em ordem crescente.
n
Define-se: W   j 1 O j , em que: Oj representa a ordem de Yj na classificação

conjunta das N = m + n observações. As hipóteses são:


H0:  =0 versus H1:  > 0. Rejeita-se H0 se W  W1- , tal que: P(W  W1-) = ;
H0:  =0 versus H1:  < 0. Rejeita-se H0 se W  W , tal que: P(W  W) = ; e
H0:  = 0 versus H1:   0. Rejeita-se H0 se W  W1-1 ou W  W2 , em que: 1 + 2 =
e, geralmente, 1 = 2 = /2.
Os p-valores de W são encontrados na Tabela 10. Quando m e n tendem ao infinito,
n(m  n  1)
W
ou quando extrapolam os limites da tabela, calcula-se a estatística: W*  2
mn(m  n  1)
12
Com isso, os testes ficam baseado na distribuição normal padrão W*N(0;1), e as
hipóteses serão: H0:  = 0 versus H1:  > 0. Rejeita-se H0 se W*  Z, em que: Z é o
limite superior da distribuição normal padrão, em nível  de significância.

Exemplo 1

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 43
Foi realizado um estudo comparando as características do solo de Santa Maria, RS,
com o solo de Cruz Alta, RS, coletando em cada cidade dez amostras de solo. O teor de
fósforo (ppm) entre os dois solos é a variável resposta utilizada (Quadro 34).Verificar se os
locais diferem quanto ao teor de fósforo no solo, em nível de significância =0,052.
Solução - teste bilateral com as hipóteses: H0:  = 0 versus H1:   0.
O leitor pode verificar os procedimentos da aplicação do teste no Quadro 35. O valor
obtido para o teste foi igual a W = 85.
Na Tabela 10, em nível  = 0,052 (/2 = 0,052/2 = 0,026); n = 10; m = 10, têm-se os
valores W1-0,026 = 131 e W0,026 = 79. Rejeita-se H0 se W  131 ou W  79. Logo, nesse
caso, não se rejeita H0. Conclui-se que os teores de fósforo não diferem entre os solos de
Santa Maria e Cruz Alta.

Quadro 34 – Dados para aplicação do teste da soma das ordens.


Santa Maria (X) Cruz Alta (Y)
0,24 0,29 0,21 0,31
0,37 0,42 0,35 0,21
0,33 0,37 0,41 0,31
0,35 0,39 0,28 0,28
0,18 0,38 0,21 0,33

Quadro 35 – Planilha auxiliar para a aplicação do teste da soma das ordens (classe: X =
Santa Maria; Y = Cruz Alta).
Classe P (ppm) Ordem Oi
X 0,18 1
Y 0,21 3 3
Y 0,21 3 3
Y 0,21 3 3
X 0,24 5
Y 0,28 6,5 6,5
Y 0,28 6,5 6,5
X 0,29 8
Y 0,31 9,5 9,5
Y 0,31 9,5 9,5

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 44
X 0,33 11,5
Y 0,33 11,5 11,5
X 0,35 13,5
Y 0,35 13,5 13,5
X 0,37 15,5
X 0,37 15,5
X 0,38 17
X 0,39 18
Y 0,41 19 19
X 0,42 20
Soma = W = 85

4.2. Teste de Mann-Whitney

O teste, criado em 1947, tem por objetivo verificar se duas amostras independentes
(X e Y) são provenientes de uma mesma população.
Pressuposições:
a) As duas amostras são casualizadas e independentes; e,
b) As variáveis (X e Y) são contínuas.
Hipóteses – consideram-se as verdadeiras e desconhecidas funções de distribuição de
X e de Y, respectivamente F1(X) e F2(X). Podem-se estabelecer: H0: F1(X) = F2(X) e
P(X<Y) = 0,5. Então, testam-se as hipóteses: H0: P(X<Y) = 0,5 versus H1: Po(X<Y) > 0,5
ou H1: Po(X<Y) < 0,5 ou H1: Po(X<Y)  0,5.
Método - consideram-se as amostras: X1, X2, ..., Xm e Y1, Y2, ..., Yn, (m  n).
Procede-se a classificação conjunta das N = m+n observações, em ordem crescente. Em
cada observação da primeira amostra, indicar a ordem referente ao número de observações
da segunda amostra que apresentam valores maiores. Calcular a estatística U, pela soma
das ordens da primeira amostra. Logo, U representa o número de observações em que
Xi<Yj. Como a estatística de Mann-Whitney (U) está relacionada a estatística de Wilcoxon
n(n  1)
W  U , utiliza-se a Tabela 10.
2

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 45
Para os casos em que m e n extrapolam os valores da Tabela 10, usa-se a
mn
U
aproximação normal: U*  2  N(0;1).
mn(m  n  1)
12

Exemplo 2
Foi anotada a porcentagem de frutos podres em caixas de maçãs, provenientes do
armazenamento em duas diferentes câmaras refrigeradas. Em cada câmara, foram
coletados dados em dez caixas aleatoriamente, com os seguintes resultados:
Câmara A: 27 28 29 32 33 35 36 39 41 43; e,
Câmara B: 36 40 48 51 52 53 56 57 58 60.
A primeira observação da câmara A é menor do que as dez observações da câmara B,
a segunda, da câmara A é menor do que as dez observações da câmara B, etc. Calcula-se a
estatística U da seguinte forma:
U = 10 + 10 + 10 + 10 + 10 + 10 + 10 + 9 + 8 + 8 = 95;
1010  1
W = 95  = 150.
2
Na Tabela 10, em nível  = 0,052 (/2 = 0,052/2 = 0,026); n = 10; m = 10, têm-se os
valores W1-0,026 = 131 e W0,026 = 79. Rejeita-se H0 se W  131 ou W  79. Como W=150,
rejeita-se H0, e conclui-se que a câmara B proporciona maiorapodrecimento dos frutos
quando comparado com a câmara A.

4.3. Teste de Kolmogorov-Smirnov

Recomenda-se o uso deste teste, quando os dados, depois de listados em ordem


crescente, apresentam-se de forma dispersa. O teste considera a posição e a dispersão dos
dados, mostrando a posição relativa de dois tratamentos. É um teste destinado,
principalmente, para verificar se duas amostras independentes foram retiradas de uma
mesma população.
Admitem-se as amostras: X1, X2, ......., Xm e Y1, Y2, ......., Yn, (m  n), independentes
e utilizam-se as frequências relativas acumuladas.
Pressuposições:
a) As amostras são casualizadas e independentes;

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 46
b) As variáveis X e Y são contínuas. Quando for discreta o teste é apenas aproximado.
Hipóteses:
H0: F1 (X)  F2 (X) versus H1: F1(X) > F2(X); ou,
H1: F1(X) < F2(X); ou,
H1: F1(X)  F2(X).
Método - Listar as N = m+n observações em ordem crescente. Obter os estimadores
K1 K
S1 e S2, respectivamente de F1 e F2. S1 ( x )  ; S 2 ( x)  2 , em que K1 = número de
m n
observações Xi  x e K2 = número de observações Yj  x.
Definir D = Supx |S1(x) – S2(x)|
D+ = Supx [S1(x) – S2(x)]
D- = Supx [S2(x) – S1(x)]
Os testes em nível  de significância (Tabela 11) são:
a) H0: F1(X)  F2(X) versus H1: F1(X)  F2(X) para pelo menos um valor de x
Rejeita-se H0, se D  d, tal que P(D  d) = ;
b) H0: F1(X)  F2(X) versus H1: F1(X) > F2(X) para pelo menos um valor de x
Rejeita-se H0, se D+  d, tal que P(D+  d) = ; e,
c) H0: F1(X)  F2(X) versus H1: F1(X) < F2(X) para pelo menos um valor de x
Rejeita-se H0, se D-  d.

Exemplo 3
Um experimento tem como objetivo comparar a porcentagem de germinação de
sementes de dois lotes de sementes de feijão, contendo cada um deles, dez observações
(Quadro 36). A hipótese a ser testada é se os lotes podem ser considerados como um único
lote.
Neste caso é preferível construir um quadro acumulativo de distribuição de
frequência, com os respectivos valores de S(x) para cada classe (Quadro 37).
7
Verifica-se que a maior discrepância (D = S1(x) - S2(x)) obtida foi D = . Pela Tabela
10
11, com n = 10 e  = 0,05, o valor de d = 6. Como D = 7 > (d = 6), rejeita-se H0 e
conclui-se que os dois lotes não provem da mesma população.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 47
Quadro 36 – Dados para aplicação do teste de Kolmogorov-Smirnov.
Lote 1 80,5 81,8 85,2 86,9 88,0 88,8 93,6 80,7 93,4 87,5
Lote 2 76,5 80,1 80,2 78,6 74,9 69,8 81,7 64,7 72,3 72,9

Quadro 37 – Planilha auxiliar para a aplicação do teste de Kolmogorov-Smirnov.


64 a 67 68 a 71 72 a 75 76 a 79 80 a 83 84 a 87 88 a 91 91 a 94
Lote 2 (S2(x)) 1 2 5 7 10 10 10 10
10 10 10 10 10 10 10 10
Lote 1 (S1(x)) 0 0 0 0 3 5 8 10
10 10 10 10 10 10 10 10
S1(x) - S2(x) 1 2 5 7 7 5 2 0
10 10 10 10 10 10 10 10

4.4. Teste exato de Fischer

Quando se têm restrições à aplicação do teste de 2, em tabelas de contingência 2 x


2, principalmente no caso de pequenas amostras (nominais ou ordinais), o teste exato de
Fischer é mais apropriado.
Este teste consiste em determinar a exata probabilidade de ocorrência de uma
frequência observada ou de valores ainda mais extremos.
Pressuposições:
a) As amostras são casualizadas e independentes; e,
b) As duas classes são mutuamente exclusivas.
Hipóteses - para estabelecer H0, considerar uma das classes e nela admitir: P(A) =
probabilidade de um elemento pertencer a população representada pela amostra A; P(B) =
probabilidade de um elemento pertencer a população representada pela amostra B, ou seja:
H0: P(A) = P(B) versus H1: P(A) > P(B); ou,
H1: P(A) < P(B); ou,
H1: P(A)  P(B).
Método - considerar duas amostras (A e B), com os totais marginais fixos e as
frequências observadas, conforme tabela de contingência 2 x 2 (Quadro 38).

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 48
Quadro 38 - Croqui das informações necessárias para o teste exato de Fischer
I II
A a b a+b = N1
B c d c+d = N2
a+c b+d N

A probabilidade de ocorrência, de observações na classe (B,II) é:

P(x  d )  CNd 2 CNb 1 / CNd  b . Se d for a menor das quatro (a, b, c, d) frequências, podem-se
ter três casos para a hipótese alternativa:
a) H0: P(A) = P(B) versus H1: P(A) > P(B). A exata probabilidade de ocorrência de um
d i b  d i bd
valor igual ou mais extremo que d é: p  i  0 p i , sendo: pi  CN 2 C N1 / CN , e o

nível de significância é  = p;
b) H0: P(A) = P(B) versus H1: P(A) < P(B). Admite-se “a priori”, b < d. Logo, a exata
M
probabilidade de ocorrência de um valor igual ou mais extremo que d é: p  i  d p i ,

em que: M = mín(N2; b+d); e,


c) H0: P(A) = P(B) versus H1: P(A)  P(B). Aplica-se o teste bilateral, quando não se tem
idéia da direção a ser testada. Calcula-se p como um dos casos anteriores e  = 2p é o
nível de significância.

Exemplo 4
No Quadro 39 estão listados os resultados obtidos para a prova de duas amostras de
vinho, que foram classificadas por degustadores profissionais.
Observa-se que os degustadores classificaram corretamente o vinho seco em dez
casos, mas em três deles, consideraram como sendo suave. Já o vinho suave, foi
classificado corretamente em oito casos, e incorretamente, em dois casos. Existe diferença
significativa para a classificação desses vinhos?

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 49
Quadro 39 – Dados para aplicação do teste exato de Fischer.
Natureza do vinho
Classificação pelos degustadores Seco Suave Total
Seco 10 (6,8) 2 (5,2) 12
Suave 3 (6,2) 8 (4,8) 11
13 10 N = 23

As frequências esperadas estão entre parênteses e são todas bastante baixas, e uma
frequência é menor do que cinco, por outro lado, a frequência total (23) está entre 20 e 40,
o que inviabiliza o uso do teste de 2 . Portanto, deve-se aplicar o teste exato de Fischer,
considerando as frequências a b c d, como as frequências observadas na tabela de
contingência 2x2 (Quadro 40).

Quadro 40 – Aplicação do teste exato de Fischer.


Natureza do vinho
Classificação pelos degustadores: Seco Suave Total
Seco 10 (a) 2 (b) 12
Suave 3 (c) 8 (d) 11
13 10 N=23

A probabilidade de uma tabela com essas frequências marginais é:


12 ! 11! 13! 10!
Ρ  0,0095 ou 0,95%.
23! 10! 2! 3! 8!

Geralmente, realiza-se o teste considerando a frequência mínima da tabela, que neste


caso é “b = 2”. Calcula-se a probabilidade de obter um caso como esse ou mais extremo,
isto é, ter “b=0; b=1; b=2”. Obtém-se: P = P(b=0) + P(b=1) + P(b=2) =
12 ! 11! 13! 10! 12 ! 11! 13! 10! 12 ! 11! 13! 10!
Ρ    0,0118 ou 1,18%
23! 10! 0! 3! 10! 23! 10! 1! 3! 9! 23! 10! 2! 3! 8!

O cálculo da probabilidade (PP) é ligeiramente superior à 1%. Tem-se um resultado


significativo em nível de 5% de significância, ou seja, rejeita-se a hipótese da nulidade
(H0), isto é, existe diferença significativa para a classificação desses vinhos.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 50
Exemplo 5
Num ensaio de milho com 24 híbridos, fez-se um estudo para verificar se os híbridos
simples tinham o mesmo desempenho dos duplos. Para isso, a referência usada foi a
produtividade média do ensaio (Quadro 41).

Quadro 41 – Dados para aplicação do teste exato de Fischer.


Acima da média Abaixo da média
(A) híbridos simples 5 7 12
(B) híbridos duplos 10 2 12
15 9 24

Solução para o teste bilateral: H0: P(A) = P(B) versus H1: P(A)  P(B).
Usa-se como referência a frequência d = 2 e calcula-se a probabilidade P= P(d=2)
+P(d=1) +P(d=0), ou seja:
P(d  2)  C122 C12
7 9
/ C24  0,0400 ;

P(d  1)  C112 C12


8
/ C249  0,0045 ;
0 9 9
P(d  0)  C12 C12 / C 24  0,0002 ;

P = 0,0400 + 0,0045 + 0,0002 = 0,0447, ou seja,  = 2P = 2(0,0447) = 0,0894.


Assim, rejeita-se H0, em nível  = 8,94% de significância, ou seja, o desempenho
dos híbridos é diferente.

5. TESTES DE DISPERSÃO APLICÁVEIS A DUAS AMOSTRAS INDEPENDENTES

5.1. Teste de Siegel-Tukey

Proposto por Siegel e Tukey, em 1960, este teste é um competidor do teste F, no


campo não-paramétrico, embora sua eficiência, em comparação ao teste F, seja na ordem
de 0,61, quando os dados seguem a distribuição normal.
A idéia do teste é verificar se duas amostras provem de duas populações diferentes
com variabilidades diferentes.
Pressuposições:
a) As duas amostras são casualizadas e independentes; e,

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 51
b) As duas populações representadas pelas amostras têm medianas conhecidas.
Hipóteses: H0:  y2 =  x2 versus H1:  y2   x2 .

Método - admitem-se as amostras: X1, X2, ..., Xm e Y1, Y2, ..., Yn, estimando-se as
medianas Mx e My, respectivamente, subtraindo da maior mediana o valor da menor.
Ajustar as observações da amostra com maior mediana, subtraindo dos valores observados,
o resultado da subtração entre as duas medianas, colocando a seguir todos os valores das
duas amostras em ordem crescente.
Com essa organização, classificar com a ordem 1 (um), a menor observação, ordem 2
(dois) a maior, ordem três (3) a próxima maior, ordens 4 (quatro) e 5 (cinco), as próximas
duas menores, ordens 6 (seis) e 7 (sete), para as próximas duas maiores e assim por diante,
até completar todo o conjunto de observações.
Somam-se as ordens da primeira amostra (Sm), que representa o número de ordens
em que Xi<Yj. Como a estatística Sm está relacionada à estatística de Wilcoxon
m(m  1)
W  Sm  , pode ser usada a Tabela 10.
2

Exemplo 1
Abaixo estão apresentados os resultados do comprimento da parte aérea (cm), após
60 dias da semeadura de dois híbridos de milho, já ordenados:
Híbrido 1 (X): 167 190 217 220 222 258 262 287;
Híbrido 2 (Y): 116 132 148 162 188 210 215 252.
As variâncias das amostras são diferentes?
Md1 = 221
Md1 – Md2 = 221 – 175 = 46
Md2 = 175
Ajuste dos valores do híbrido 1 (subtrair 46 de cada valor do híbrido 1):
Híbrido 1 (X): 121 144 171 174 176 212 216 241;
Híbrido 2 (Y): 116 132 148 162 188 210 215 252.
Os valores (X e Y) odenados em conjunto estão listados no Quadro 42, juntamente
com a ordem estabelecida pelo critério do teste.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 52
Quadro 42 – Aplicação do teste de Siegel-Tukey.
Valor ordenado 116 121* 132 144* 148 162 171* 174*
Ordem 1 4 5 8 9 12 13 16
Valor ordenado 176* 188 210 212* 215 216* 241* 252
Ordem 15 14 11 10 7 6 3 2
* valores pertencentes ao híbrido 1 (X), usados para determinar Sm

A soma das ordens referentes aos valores do híbrido 1 (X) é: Sm = 4 + 8 + 13 + 16 +


15 + 10 + 6 + 3 = 75.
m(m  1) 8 8  1
W  Sm  = 75  = 111
2 2
Na Tabela 10, em nível  = 0,05 (/2 = 0,05/2 = 0,025); n = 8; m = 8, têm-se os
valores W1-0,025 = 87 e W0,025 = 49. Rejeita-se H0 se W  87 ou W  49. Logo, rejeita-se H0
e conclui-se que há evidências de que as variâncias das amostras são diferentes.

5.2. Teste de Ansari-Bradley

É um teste baseado no grau de dispersão das ordens de uma amostra, considerando a


classificação conjunta das ordens de duas amostras independentes, de tal forma que a soma
de quadrado dos desvios de todas as ordens é zero.
Pressuposições:
a) As duas amostras são casualizadas e independentes; e,
b) As duas populações representadas pelas amostras têm medianas conhecidas.
2 2
Hipóteses - Admitindo    y /  x , em que:  y e  x são as variâncias das

variáveis aleatórias Xi e Yj respectivamente. As hipóteses do teste são:


2 2
H0: 2 = 1 (  y   x ) versus H1: 2 > 1 ou H1: 2 < 1 ou H1: 2  1.

Método - admitem-se as amostras: X1, X2, ..., Xm e Y1, Y2, ..., Yn, supostamente com
medianas Mx e My, respectivamente. Classificar as variáveis conjuntamente, dando ordem
1 (um) a maior e a menor delas, ordem 2 (dois) às duas extremas seguintes e assim por
diante. Obtêm-se as ordens:
a) Para M = m + n, par 1, 2, 3, ......., N/2, N/2, ........3, 2, 1.
b) Para M = m + n, ímpar 1, 2, 3, ......., (N-1)/2, (N+1)/2, (N-1)/2, ........3, 2, 1.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 53
m
Calcular a estatística: W   Oi , em que: Oi representa a ordem da variável Xi.
i 1

Para o teste de hipóteses, em nível  de significância, H0: 2 = 1 versus H1: 2 > 1,


rejeita-se H0 se W  w , em que: P(W  w) =  é obtido na Tabela 12.
Aproximação normal: quando m e n são muito grandes, faz-se a aproximação da
W  E o (W)
distribuição normal padrão. Neste caso, W*   N (0;1).
Vo (W)

m(N  2) mn(N 2  4)
Para os casos em que N é par: Eo (W)  ; Vo (W)  .
4 48(N  1)

m(N  1)2 mn(N  1)(3  N 2 )


Para os casos em que N é ímpar: E o (W)  ; Vo (W)  .
4N 48N 2

Exemplo 2
Num ensaio de laboratório, foram testados dois métodos para determinação do teor
de fósforo no solo: método de Mehlich (X) e resina (Y). Realizaram-se na mesma amostra
dez determinações pelos dois métodos, obtendo-se os resultados em ppm de fósforo
(Quadro 43). Verificar através do teste de Ansari – Bradley, a concordância dos métodos.
Solução para um teste bilateral em que H0: 2 = 1 versus H1: 2  1
O leitor pode observar a planilha auxiliar (Quadro 44) para a obtenção do valor W.
m
Segundo esta planilha, tem-se: W  i 1 O i = 1 + 2 + 3 + 5 + 9 + 7 + 5 + 3 + 2 + 1 = 38.

Na Tabela 12, tem-se P(W  68) = 0,028 e na Tabela 13 tem-se P(W  39) = 0,008.
Assim, pela propriedade da simetria, o p-valor, no qual se rejeita H0 é  = 2 mín(1; 2) =
2 (0,008) = 0,016. Conclui-se que, em nível  = 0,016, os métodos diferem e, pela natureza
dos resultados, concluímos que o método Y é mais preciso.

Quadro 43 – Dados para aplicação do teste de Ansari-Bradley.


Método de Mehlich (X) Método da resina (Y)
0,65 1,21
0,69 1,36
0,73 1,38
1,23 1,40
1,45 2,00

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 54
2,23 2,12
2,35 2,14
2,42 2,20
2,45 2,31
2,53 2,40

Quadro 44 – Planilha auxiliar para a aplicação do teste de Ansari-Bradley.


Classificação conjunta Ordens Oi
0,65 X 1 1
0,69 X 2 2
0,73 X 3 3
1,21 Y 4
1,23 X 5 5
1,36 Y 6
1,38 Y 7
1,40 Y 8
1,45 X 9 9
2,00 Y 10
2,12 Y 10
2,14 Y 9
2,20 Y 8
2,23 X 7 7
2,31 Y 6
2,35 X 5 5
2,40 Y 4
2,42 X 3 3
2,45 X 2 2
2,53 X 1 1

5.3. Teste de Moses

Não exige que as populações tenham a mesma mediana, isto é, sua aplicação é viável
nos casos em que as populações diferem em posições. O teste nada mais é do que uma

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 55
aplicação do teste de Wilcoxon às variâncias dos dados originais, quando agrupados
convenientemente.
Método - considerar as amostras: X1, X2, ..., Xm e Y1, Y2, ... , Yn. Utilizar um valor
arbitrário K  2 e subdividir as m observações X em m1 grupos aleatórios de K elementos
cada um, desprezando a sobra, se houver. Procede-se da mesma forma para as observações
Y, obtendo n1 grupos. Calcula-se a soma de quadrados dos desvios de cada grupo:
K
C i   r 1 X ir2   K
r 1
 2
X ir /K (i = 1, 2, 3, ... , m1);

  Y  /K
K K 2
D j   r 1 Yjr2 r 1 jr (j = 1, 2, 3, ... , n1).

Dessa forma, aplica-se o teste de Wilcoxon aos valores Ci e Dj .

Exemplo 3
Com objetivo de determinar o número médio de um inseto praga em lavouras de
soja, com cultivares diferentes, foram calculadas as médias do número de insetos em 16
lavouras com a cultivar A e em 9 lavouras com a cultivar B, durante um período de três
meses. As médias diárias do número de insetos praga estão listados no Quadro 45.
Cultivar A = 16 insetos praga por avaliação e, cultivar B= 11,3insetos praga por
avaliação. Pelo teste de Moses, pode-se verificar se a média da cultivar A é maior. Testa-se
a hipótese: H0: 2 = 1 versus H1: 2 > 1.
Escolhendo o tamanho de cada grupo, K = 4, temos, aleatoriamente, os grupos
apresentados no Quadro 46.
A estatística W de Wilcoxon é: W = 4 + 6 = 10.
Com n=2 e m=4, a Tabela 10 contém P(W10) = 0,133. Adotando-se  = 0,05 não
se rejeita H0, e conclui-se que as duas cultivares não diferem nas suas médias do número
de insetos praga por avaliação.

Quadro 45 – Dados para aplicação do teste de Moses.


Cutlivar A Cultivar B
18,3 15,0 11,6
14,7 16,4 7,5
18,8 17,2 13,4
15,3 19,4 13,2
10,6 17,5 18,3
13,2 18,3 10,5

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 56
14,8 15,4 8,2
15,5 16,3 11,4
7,3

Quadro 46 - Planilha auxiliar dos procedimentos para aplicação do teste de Moses.


Grupos da cultivar A (m=4) Grupos da cultivar B (n=2)
1 2 3 4 1 2
10,6 18,3 18,3 15,0 7,5 11,6
17,5 13,2 17,2 16,4 18,3 13,2
15,3 15,4 15,5 19,4 8,2 10,5
16,3 14,7 14,8 18,8 11,4 7,3
Média 14,92 15,40 16,45 17,40 11,35 10,65
Ci 27,37 13,74 7,61 12,72 - -
Dj - - - - 73,05 18,65
Ordem* 5 3 1 2 6 4
* Ordenar Ci e Dj em conjunto.

6. TESTES DE CORRELAÇÃO

São também denominados de teste de independência, pois se prestam para verificar o


grau de dependência entre duas variáveis aleatórias X e Y.
Considera-se uma amostra de n pares independentes de observações (X1, Y1), (X2,
Y2), (X3, Y3), ... , (Xn, Yn), provenientes de uma população contínua bivariada. Para
aplicação dos testes, a hipótese da nulidade H0: P(Xx; Yy) = P(Xx) P(Yy) para
qualquer x e y.
No campo paramétrico, para esses casos, utiliza-se o teste de Pearson. No campo
não-paramétrico, tem-se o teste de Kendall e o de Spearman, ambos muito eficientes.

6.1. Teste de Kendall

Método - considerar uma amostra de n pares de observações: (X1, Y1), (X2, Y2), (X3,
Y3), ..., (Xn, Yn), provenientes de uma população contínua bivariada. Pode-se formar:

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 57
n(n  1)
C 2n  , que é o escore total de produtos do tipo Mij = (Xi – Xj) (Yi – Yj), i = 1, 2, ...,
2
n-1 e j = i+1, i+2, ..., n. Quando tiver Mij >0, o par é concordante; Mij <0, o par é
discordante; e, Mij = 0, o par é neutro. Sob a hipótese H0: P(Mij > 0)=0,5 calcula-se o
escore efetivo
coeficiente de Kendall () como sendo:  = 2 P(Mij >0) – 1 ou  = , em que:
escore total
o escore efetivo provém do somatório dos pares concordantes de cada observação em Y.
Hipóteses - H0:  = 0 ou P(Mij > 0) = 0,5 versus
H1:  > 0 ou P(Mij > 0) > 0,5; ou ,
H1:  < 0 ou P(Mij > 0) < 0,5; ou,
H1:   0 ou P(Mij > 0)  0,5.
Levando em consideração as combinações dos produtos Mij, calcula-se a estatística K
= número de pares concordantes. Para essa estimativa de K, considera-se cada par
concordante, indicando em Y o escore +1, se a observação seguinte em Y for maior e, -1,
se for menor.
Para testar a hipótese H0: = 0 versus H1:>0, rejeita-se H0 se K [(n(n–1)/2]–k(; n),
em que: P{K  [(n(n –1)/2] – k(; n)} = P{K  k(; n)} = . Os valores de k(; n) estão na
Tabela 14.
Para H0:  = 0 versus H1:  < 0
Rejeita-se H0 se K  k(; n).
Para H0:  = 0 versus H1:   0
Rejeita-se H0 se K  k(1; n) ou K  [(n(n–1)/2] – k(2; n), em que 1 + 2 =  e
geralmente 1 = 2 = /2.
K - n(n - 1)/4
Aproximação normal - K*   N(0;1), em que K = número de
n(n  1)(2n  5)
72
pares concordantes e n = número de observações. Para verificação do teste compara-se o
valor de K* com os valores de z da distribuição normal padrão (Tabela 2).

Exemplo 1
Um estudo da densidade (g cm-3) de Eucalyptus grandis considerou: X como sendo a
densidade básica média do DAP (diâmetro à altura do peito), amostras Pressler (volume
determinado através de paquímetros e do diâmetro da sonda de Pressler de 0,5cm); e, Y

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 58
como sendo a densidade básica média de DAP, amostras Pressler (secções transversais do
tronco). Os resultados estão listados no Quadro 47.
Verificar se as densidades obtidas pelos dois métodos são positivamente
correlacionadas.
Solução - H0: =0 versus H1: >0.
Arranjando os pares de acordo com as ordens crescentes de X (Quadro 48). O leitor
pode acompanhar os procedimentos do teste no Quadro 48.
Número de pares concordantes K1 =12 +11 +9 +6 +7 +2 +4 +2 +4 +0 +2 +1 =60.
Número de pares neutros K0 =1 (Y = 0,620 - observado duas vezes). Sendo K = K1 +
0,5 K0 = 60,5.
Portanto, p-valor = P(K  60,5) = P(K 13(12)/2 – 60,5) = P(K  17,5). Na Tabela
14, com n=13, obtém-se: 0,003 < p-valor < 0,005.
escore efetivo 13 x 12
Determina-se  = , sendo o escore total obtido por  78 .
escore total 2
Assim,  = 42 / 78 = 0,5386.
O nível mínimo de significância, no qual se rejeita H0, está compreendido entre 0,3%
e 0,5%. Desta forma, evidencia-se que os dados sejam positivamente correlacionados.

Quadro 47 – Dados para aplicação do teste de Kendall.


X Y
0,602 0,619
0,636 0,620
0,604 0,620
0,548 0,538
0,590 0,616
0,592 0,601
0,625 0,664
0,641 0,652
0,606 0,579
0,502 0,501
0,588 0,590
0,594 0,622
0,626 0,606

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 59
Quadro 48 – Planilha auxiliar para a aplicação do teste de Kendall.
X Ordem Y Ordem K Escore efetivo
0,502 1 0,501 1 12 12
0,548 2 0,538 2 11 11
0,588 3 0,590 4 9 9
0,590 4 0,616 7 6 3
0,592 5 0,601 5 7 6
0,594 6 0,622 11 2 -3
0,602 7 0,619 8 4 2
0,604 8 0,620 9,5 2 0
0,606 9 0,579 3 4 4
0,625 10 0,664 13 0 -3
0,626 11 0,606 6 2 2
0,636 12 0,620 9,5 1 -1
0,641 13 0,652 12 --- ---
Soma 60 42

6.2. Teste de Spearman

Equivale ao teste de Pearson, desde que sejam substituídos os valores observados


pelas suas ordens.
Método - devem-se considerar os n pares de (Xi, Yi) provenientes de uma população
contínua bivariada e que sejam Ri e Si, respectivamente, as ordens das observações de Xi e
de Yi.
O coeficiente de correlação para os casos em que não ocorrem empates é dado por:
n
6i 1 (R i  Si )2
rs  1  .
n(n 2  1)
Caso ocorram empates, a estatística é obtida por:
n
12i 1 R iSi  3n(n  1)2 g gh
rs  em que: t'  i 1 t i (t i2  1) ; u'   j1 u j (u 2j  1)
n(n 2
 2
 1)  t´ n(n  1)  u´ 

g = número de grupos de empates entre os X;

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 60
h = número de grupos de empates entre os Y;
ti = número de observações do iésimo grupo X;
uj = número de observações do jésimo grupo Y.
Hipóteses - H0: X e Y são independentes (rs = 0) versus
H1: X e Y são positivamente correlacionados (rs > 0); ou,
H1: X e Y são negativamente correlacionados (rs < 0); ou,
H1: X e Y são dependentes (rs  0).
Para H0: rs =0 versus H1: rs >0, rejeita-se H0 se rs  r(; n) (Tabela 15), em que P(rs
r(; n)) = .
Para H0: rs =0 versus H1: rs < 0, rejeita-se H0 se rs  -r(; n).
Para H0: rs =0 versus H1: rs  0, rejeita-se H0 se rs  r(1; n) ou rs  -r(2; n), em que 1
+ 2 =  e, geralmente 1 = 2 = /2.

Aproximação normal: rs *  rs n  1  N(0;1). Para testar a hipótese H0: rs = 0

versus H1: rs > 0, em nível  de significância, rejeita-se H0 se rs*  z.

Exemplo 2
Foram avaliados 12 vasos com uma planta de feijão, cultivar carioca. Foram
avaliadas a fitomassa fresca da parte aérea (FFPA) e do sistema radicular (FFSR) aos 45
dias após a semeadura. Resultados no Quadro 49.
Verificar se as variáveis observadas são significativamente correlacionadas.
A hipótese do teste é H0: rs = 0 versus H1: rs  0.
O leitor pode acompanhar os demais procedimentos do teste no Quadro 50.
6 x 52
rs = 1  = 0,8182.
12(122  1)
Pela Tabela 15, com  = 0,05, n = 12, o valor de ro = 0,497. Desta forma, com rs > ro,
rejeita-se H0, conclui-se que há correlação significativa, ou seja, as variáveis fitomassas
fresca da parte aérea e do sistema radicular de plantas de feijão são positivamente
correlacionadas.

Quadro 49 – Dados para aplicação do teste de Spearman.


Parcela FFPA FFSR
1 82 42
2 98 46

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 61
3 87 39
4 40 37
5 116 65
6 113 88
7 111 86
8 83 56
9 85 62
10 126 92
11 106 54
12 117 81

Quadro 50 – Planilha auxiliara para a aplicação do teste de Spearman.


Parcela FFPA Ri FFSR Si di = Ri - Si di²
1 82 2 42 3 -1 1
2 98 6 46 4 2 4
3 87 5 39 2 3 9
4 40 1 37 1 0 0
5 116 10 65 8 2 4
6 113 9 88 11 -2 4
7 111 8 86 10 -2 4
8 83 3 56 6 -3 9
9 85 4 62 7 -3 9
10 126 12 92 12 0 0
11 106 7 54 5 2 4
12 117 11 81 9 2 4
di² = 52

Exemplo 3
Utilizando os mesmos dados do Exemplo 1 do teste de Kendall (Quadro 47),
verificar se as densidades obtidas pelos dois métodos são positivamente
correlacionadas.Solução - neste caso, o teste é H0: rs = 0 versus H1: rs > 0. Organizam-se os
dados pelas suas ordens, conforme Quadro 51.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 62
n
12i 1 R iSi  3n(n  1)2
Calcula-se: rs  .
n(n 2

 1)  t´ n(n 2  1)  u´ 
g = número de grupos de empates entre X é igual a 0, logo t’ = 0;
h = número de grupos de empates entre os Y = 2;
uj = número de observações do jésimo grupo Y com empates = 2.
gh
u'   j1 u j (u 2j  1) = 2 x (22 - 1) = 6;
n
12 (7x8)  (12x9,5)  ...  ((11x6)  3x13(13  1) 2
i 1
rs   0,682 ;
{[13(132  1)][13(132  1)  6]}

A Tabela 15 contém P(r >0,643) = 0,010 e P(r >0,698) = 0,005. Então, o p-valor no
qual se rejeita H0 é  =0,006. Se o nosso teste fosse bilateral, o  =0,012.
Assim, conclui-se que existe correlação positiva entre os dois métodos para
determinação do DAP em Eucalyptus grandis.

Quadro 51 – Aplicação do teste de Spearman.


Ri Si
7 8
12 9,5
8 9,5
2 2
4 7
5 5
10 13
13 12
9 3
1 1
3 4
6 11
11 6

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 63
7. TESTES PARA K AMOSTRAS INDEPENDENTES

Podem-se estruturar certos testes não-paramétricos com as ordens (postos) das


observações e, estes, são competidores diretos da análise de variância do campo
paramétrico. Quando algum pressuposto do modelo matemático no campo paramétrico
(normalidade dos dados, homogeneidade das variâncias dos tratamentos, independência
dos erros e aditividade do modelo) não é satisfeita, os testes não-paramétricos apresentam
um poder maior, quando comparados com o teste F, permitindo obter melhores conclusões.
Admitem-se para estes testes, K amostras independentes constituindo os K
tratamentos (Quadro 52).

Quadro 52 - Esquema de apresentação dos dados do K amostras independentes.


1 2 ........... K
X11 X21 ........... XK1
X12 X22 ........... XK2
: : ........... :
: : ........... :
: : ........... :
X1n1 X2n2 ........... XKnk

Devem-se substituir os dados originais por suas ordens (postos), numa classificação

conjunta das N  i n i observações.

7.1. Teste de Kruskal-Wallis

Foi introduzido em 1952, por Kruskal-Wallis, como um competidor ou substituto do


teste F no campo paramétrico, com finalidade de estabelecer confrontos entre K amostras
independentes ou para o delineamento inteiramente casualizado.
Quando o número de amostras independentes é duas (K = 2), ele correspondem ao
teste bilateral de Wilcoxon, e, para K > 2 , pode-se considerar uma extensão do mesmo.
Logo, esse teste permite averiguar se há diferença entre pelo menos duas, das K
amostras (tratamentos), logo, é um teste de posição para K amostras independentes.
Pressuposições:

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 64
a) As observações devem ser independentes;
b) Dentro de cada amostra, as observações devem ser provenientes da mesma população;
c) As K populações são aproximadamente da mesma forma e contínuas.
Hipóteses: H0: t1 =t2 = ... =tK versus H1: pelo menos dois tratamentos diferem entre
si.
K
Método - proceder a classificação conjunta das N  i 1 ni observações, dando

ordem 1 a menor e, ordem N, a maior delas.


2
12 K Ri
Calcular a estatística: H  
N(N  1) i 1 ni
 3(N  1) , em que: Ri é a soma das

ordens atribuídas ao tratamento i.


A Tabela 16 contém o valor de h(ni  6; K=3; ) para proceder o teste, em nível  de
significância. Rejeita-se H0 se H calculado > h(ni; K; ), em que P(H  h(ni; K; )) = .
Situações especiais:
a) K = 2, utilizar o teste bilateral de Wilcoxon;
b) K >3 ou para, pelo menos um ni 6, utilizar a tabela de 2 (qui-quadrado), com (K-1)
graus de liberdade; e,
c) Observa-se que a tabela está organizada para n1  n2  n3 , entretanto, como a ordem das
amostras não interfere no resultado de H, pode-se sempre tomá-las naquela ordem.

Exemplo 1
Numa pesquisa sobre a influência do tamanho do disco na aração, foram testados três
diâmetros (D1 = 26 cm, D2 = 28 cm e D3 = 30 cm). Os resultados de esforço de tração
(kgf) para um solo argiloso são acompanhados pelas ordens, entre parênteses (Quadro 53).

Quadro 53 – Dados e procedimentos para a aplicação do teste de Kruskal-Wallis.


D1 = 26 cm D2 = 28 cm D3 = 30 cm
2212,8 (13) 2195,2 (12) 1770,3 (4)
2025,3 (9) 2031,5 (11) 1800,0 (5)
1989,0 (8) 1876,5 (7) 1852,8 (6)
2232,8 (14) 1750,3 (2) 1769,0 (3)
2027,8 (10) 1060,3 (1)
R1 = 13+9+8+14+10=54 R2 = 33 R3 = 18

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 65
Verificar se houve diferença de comportamento dos discos quanto ao esforço de
tração.
H0: t1 = t2 = t3 versus H1: pelo menos dois tratamentos diferem entre si.
2
12 K Ri
H 
N(N  1) i 1 n i
 3(N  1) ;

12  54 2 332 182 
H      3(14  1)  5,40 .
14(14  1)  5 5 4 

Consulta-se a Tabela 16, considerando  =5% e ni (n1 =4 < n2 =5 e n3 =5), e obtém-


se h(ni; K; ) = h(ni; 3; 0,05) = 5,643. Como H calculado é menor do que h(ni; 3; 0,05), em nível 
=5%, não se rejeita H0 e conclui-se que não existe diferença significativa entre os
tratamentos.

Exemplo 2
Num confinamento de bovinos, os animais foram alimentados com três silagens
(milho; sorgo e mistura de milho com sorgo), cada uma fornecida a quatro animais
escolhidos ao acaso. Os aumentos de peso são ordenados na classificação conjunta, com as
ordens entre parênteses (Quadro 54).
Verificar se houve diferença no comportamento das três silagens, quanto ao ganho de
peso dos animais.
H0: t1 = t2 = t3 versus H1: pelo menos dois tratamentos diferem entre si.

12  42 2 112 252 
H      3(12  1)  9,269 .
12(12  1)  4 4 4 

Considera-se  =5% e n1 =4; n2 =4 e n3 =4, e obtém-se na Tabela 16, h(ni; 3; 0,05)

=5,692. Como H calculado é maior do que h(ni; K; ), rejeita-se H0 e conclui-se que existe
diferença significativa entre pelo menos dois tratamentos em 5% de significância.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 66
Quadro 54 – Dados do ganho de peso (kg animal-1 semana-1) para aplicação do teste de
Kruskal-Wallis.
Silagem de milho Silagem de sorgo Silagem de milho+sorgo
30 (9) 10 (1) 18 (7)
35 (10) 12 (2) 16 (6)
38 (11) 15 (5) 19 (8)
40 (12) 13 (3) 14 (4)
R1 = 9+10+11+12=42 R2 = 11 R3 = 25

7.2. Comparações Múltiplas de Kruskal-Wallis

Esse método complementa o teste de Kruskal-Wallis, nos casos em que se rejeita H0:
t1 = t2 = ... = tk. Utiliza-se esse método para verificar quais tratamentos diferem entre si.
Em comparações com todos os pares de tratamentos em pequenas amostras, para
cada par i e j de tratamentos determina-se a diferença entre as ordens |Ri – Rj|, em que i =
1, 2, ... , K-1 e j = i+1, i+2, ..., K. Ri e Rj representam a soma das ordens atribuídas aos
tratamentos i e j, respectivamente, na classificação conjunta das N observações referentes
aos k tratamentos.
A diferença mínima significativa, com taxa de erro , segundo a qual se admite ti 
tj, é dms = , em que: P(|Ri –Rj|)   = , e  é obtida na Tabela 17.

Exemplo 3
Aplicar o método de comparações múltiplas no exemplo 2 (item 7.1).
Organizar as diferenças:
|R1 – R2| = |42 – 11| = 31
|R1 – R3| = |42 – 25| = 17
|R2 – R3| = |11 – 25| = 14
Na Tabela 17, com k = 3, n= 4 e com  = 0,011, obtêm-se  = 27, ou ainda:
P(|Ri – Rj|  27) = 0,011.
Pode-se concluir que, com  de 1,1%, o tratamento 1 (silagem de milho) difere do
tratamento 2 (silagem de sorgo), mas não do tratamento 3 (silagem de milho + sorgo) e, os
tratamentos 2 e 3 não diferem.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 67
Em comparações com todos os tratamentos em grandes amostras, devem-se

determinar as diferenças das médias das ordens R i  R j e um . A dms segundo a qual se

K(Kn  1) K(N  1)
admite ti  tj é: dms  Q Q , em que: Q é obtido na Tabela 18.
12 12

Exemplo 4
Numa lavoura de soja, foram aplicados três fungicidas para verificar a eficiência dos
mesmos no controle de oídio e doenças de final de ciclo. Os resultados da produtividade
(kg ha-1), são ordenados na classificação conjunta, com as ordens entre parênteses (Quadro
55). Verificar pelo teste de Kruskal-Wallis, se houve diferença entre os tratamentos.

Quadro 55. Dados para aplicação do teste de comparações múltiplas de Kruskal-Wallis.


Testemunha (t1) Fungicida 1 (t2) Fungicida 2 (t3) Fungicida 3 (t4)
2000 (3) 2800 (7) 3000 (13) 3600 (23)
1980 (1) 2810 (8) 3050 (15) 3500 (19)
2100 (6) 2900 (11) 3100 (17) 3510 (20)
2050 (4) 2850 (10) 3150 (18) 3550 (21)
2070 (5) 2830 (9) 3070 (16) 3570 (22)
1990 (2) 2950 (12) 3020 (14) 3610 (24)
R1 = 21 R2 = 57 R3 = 93 R4 = 129

H0: t1 = t2 = t3 = t4 versus H1: pelo menos dois tratamentos diferem entre si.
2
12 K Ri
H 
N(N  1) i 1 n i
 3(N  1) ;

12  212 57 2 932 129 2 


H       3(24  1)  21,60 .
24(24  1)  6 6 6 6 

Considerando =5% , n1 = n2 = n3 = n4 = 6 e K = 4, há necessidade de utilizar a


Tabela 3 do ² (qui-quadrado) com GL = K-1 = 4–1 = 3. Da tabela, obtém-se X(GL; ) = X(3;
0,05)= 7,815. Como H calculado é maior do que X(3; 0,05) = 7,815, logo, rejeita-se H0 e
conclui-se que existe diferença significativa entre pelo menos dois tratamentos, em 5% de
significância.
Método de comparações múltiplas:

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 68
21 57 93 129
R1   3,5 ; R2   9,5 ; R3   15,5 ; R4   21,5 .
6 6 6 6
Diferenças:

| R1 - R 2 |  6 ; | R2 - R3 |  6 ;
| R 1 - R 3 |  12 ; | R 2 - R 4 |  12 ;

| R1 - R 4 |  18 ; | R3 - R 4 |  6 .

Em nível de 0,05 de probabilidade e para K = quatro tratamentos, na Tabela 18 Q = 3,633.

4(24  1)
dms  3,633 10,48 .
12
Conclui-se que t1 difere de t3, t1 difere de t4 e t2 difere de t4, ou seja, o fungicida 3 foi
o mais eficiente e diferiu da testemunha e do fungicida 1, sendo a testemunha o pior
tratamento.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 69
8. ANÁLISE DE VARIÂNCIA – CLASSIFICAÇÃO DUPLA

Ao generalizar o pareamento de K amostras dispostas em blocos, ou seja, na mesma


configuração de um delineamento em blocos casualizados, admite-se a estrutura
apresentada no Quadro 56.
Quando as exigências do modelo matemático forem satisfeitas, os testes paramétricos
(teste F e seus complementares) são mais eficientes. Entretanto, os testes não-paramétricos
são mais versáteis, pois não exigem a normalidade dos dados e nem a homogeneidade das
variâncias dos tratamentos, além disso, no caso de pequenas amostras, podem ser aplicados
com maior eficiência.

Quadro 56 - Planilha auxiliar para apresentação da estrutura dos resultados


Tratamento Bloco 1 Bloco 2 Bloco 3 ........... Bloco n
1 X11 X12 X13 ........... X1n
2 X21 X22 X23 ........... X2n
3 X31 X32 X33 ........... X3n
: : : : ........... :
: : : : ........... :
K XK1 XK2 XK3 ........... XKn

8.1. Teste de Friedman

É considerado como um teste F aplicado às ordens das observações dentro de cada


bloco e também como uma extensão do teste bilateral do sinal. Porém, neste caso, o
pareamento dos dados pode ser proveniente de um mesmo grupo n de indivíduos,
considerando situações distintas, ou poderá ser proveniente de n grupos de K indivíduos
afins do mesmo grupo.
Pressuposições:
a) Os n grupos de K observações são independentes entre si; e,
b) As K populações são aproximadamente da mesma forma e contínuas.
Hipóteses: H0: t1 = t2 = .... = tK versus H1: pelo menos dois tratamentos diferem
entre si.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 70
Método - dentro de cada bloco fazer a classificação conjunta das K observações,
dando ordem 1 a menor e K a maior.
12 K
Calcular a estatística X 2r   R 2  3n(K  1) , em que Ri é a soma das
i 1 i
nK(K  1)
ordens atribuídas ao tratamento i, nos n blocos.
Testa-se H0 versus H1, em nível  de significância, na qual se rejeita H0 se X 2r  X 02

para P( X 2r  X 02 ) =, em que os valores X 02 , para k  5 são consultados na Tabela 19.

Exemplo 1
Realizou-se um experimento sobre adubação nitrogenada, em cobertura, na cultura
de alface, com os seguintes tratamentos:
Tratamento 1: testemunha;
Tratamento 2: 5 gramas de salitre por dez litros d’água;
Tratamento 3: 10 gramas de salitre por dez litros d’água;
Tratamento 4: 20 gramas de salitre por dez litros d’água.
Obtiveram-se os dados de produção de alface (g 12 plantas-1), listados em função do
bloco e tratamento, com as ordens (dentro de cada bloco) entre parênteses (Quadro 57).
Verificar pelo teste de Friedman se houve resposta à adubação nitrogenada.
Solução: H0: t1 = t2 = t3 = t4 versus H1: pelo menos dois tratamentos diferem entre si.

Quadro 57 – Planilha auxiliar para a aplicação do teste de Friedman.


Blocos Trat. 1 Trat. 2 Trat. 3 Trat. 4
1 3640 (1) 4200 (2) 4700 (3) 5300 (4)
2 4890 (2) 4550 (1) 6020 (4) 5900 (3)
3 4800 (1) 5320 (4) 5250 (3) 5150 (2)
4 4460 (1) 5500 (2) 5580 (4) 5560 (3)
R1= 5 R2= 9 R3= 14 R4= 12

12 K
X 2r   R 2  3n(K  1) ;
i 1 i
nK(K  1)
12
X r2  (5 2  9 2  14 2  12 2 )  3(4)(4  1)  6,90 .
4(4)(4  1)

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 71
Com  = 0,052, tem-se X 02 = 7,50 (Tabela 19). Logo, não se rejeita H0, e conclui-se

que não existe diferença significativa entre os tratamentos, ou seja, não houve resposta à
adubação nitrogenada.

Exemplo 2
Num experimento, obtiveram-se resultados de produtividade (kg ha-1) de quatro
híbridos de milho (LS56, ADL36, SJL42 e ACF39), de um experimento no delineamento
blocos ao acaso com quatro repetições. Os resultados são ordenados dentro de cada bloco,
com as ordens entre parênteses (Quadro 58).
Verificar pelo teste de Friedman se os híbridos diferem quanto à produtividade.
Solução: H0: t1 = t2 = t3 = t4 versus H1: pelo menos dois tratamentos diferem entre si.
12 K
X 2r   R 2  3n(K  1) ;
i 1 i
nK(K  1)
12
X 2r  (42  162  10 2  102 )  3(4)(4  1)  10,80 .
4(4)(4  1)

Com  = 0,052, tem-se X 02 = 7,50 (Tabela 19). Logo, rejeita-se H0, e conclui-se que

os híbridos diferem entre si quanto à produtividade.

Quadro 58 – Planilha auxiliar para a aplicação do teste de Friedman.


Blocos Trat.1 (LS56) Trat.2 (ADL36) Trat.3 (SJL42) Trat.4 (ACF39)
1 4500 (1) 7500 (4) 6000 (2) 6200 (3)
2 4800 (1) 7800 (4) 6200 (3) 6100 (2)
3 5000 (1) 7000 (4) 6300 (3) 6250 (2)
4 4900 (1) 8000 (4) 5900 (2) 6100 (3)
R1=4 R2=16 R3=10 R4=10

8.2. Comparações Múltiplas pelo teste de Friedman

Esse procedimento tem por finalidade localizar as possíveis diferenças entre os pares
de tratamentos, ou seja, complementa o teste de Friedman, quando se rejeita H0.
Nas comparações com todos os pares de tratamentos, com pequenas amostras,
considera-se K ( K  1) / 2 pares de tratamentos. Para cada par de tratamento, determina-se
a diferença entre as ordens: |Ri – Rj|, em que i = 1, 2, ..., K-1 e j = i+1, i+2, ..., K. Ri e Rj

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 72
representam as somas das ordens atribuídas aos tratamentos i e j nos n blocos. Admite-se
titj, em nível  de significância, se |Ri – Rj|  1, ou seja, a dms = 1. Logo, P|Ri – Rj| 
1 =  (Tabela 20).

Exemplo 3
Aplicar o método de comparações múltiplas ao exemplo 2 (Quadro 58), que pelo
teste de Friedman, concluiu-se que os híbridos de milho (LS56, ADL36, SJL42 e ACF39),
diferem entre si.
Solução:
|R1 – R2| = |4 – 16| = 12 |R2 – R3| = |16 – 10| = 6
|R1 – R3| = |4 – 10| = 6 |R2 – R4| = |16 – 10| = 6
|R1 – R4| = |4 – 10| = 6 |R3 – R4| = |10 – 10| = 0
Na Tabela 20, para K = quatro tratamentos e n = quatro repetições, com  = 0,026,
1 =10. Conclui-se que a produtividade do tratamento 2 (híbrido ADL36) difere do
tratamento 1 (híbrido LS56). Os tratamentos 1 e 3, 1 e 4, 2 e 3, 2 e 4, 3 e 4 não diferem
entre si.
A Tabela 20 contém o valor de 1, em um nível  de erro, até no máximo 15
tratamentos e 15 blocos. Assim, para as comparações com todos os pares de tratamentos
em grandes amostras, quando o número de blocos, ou de tratamentos, ou ambos forem

nK(K  1)
maiores que esses valores, calcula-se a dms pela fórmula: dms  Q , em que:
12
Q é obtido na Tabela 18, com n = número de blocos. Para cada par, da mesma forma
anterior, determina-se a diferença entre as ordens: |Ri – Rj|, em que i = 1, 2, ..., K-1 e j =
i+1, i+2, ..., K.

Exemplo 4
Num experimento, foram coletados os dados referentes à porcentagem de formação
de calos em estacas de laranja pêra, tratadas com cinco diferentes tratamentos, com
resultados no Quadro 59. Os tratamentos são:
Tratamento 1 – IBA 500 ppm;
Tratamento 2 – IBA 1000 ppm;
Tratamento 3 – IBA 2000 ppm;
Tratamento 4 – IBA 4000 ppm; e,
Tratamento 5 – IBA 8000 ppm.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 73
Verificar se os tratamentos diferem pelo método das comparações múltiplas.

Quadro 59. Planilha com os dados para aplicação do teste de comparações múltiplas pelo
teste de Friedman.
Bloco Tratamento 1 Tratamento 2 Tratamento 3 Tratamento 4 Tratamento 5
1 46 (3) 74 (5) 35 (2) 21 (1) 56 (4)
2 48 (3) 80 (5) 25 (1) 31 (2) 51 (4)
3 37 (3) 62 (4) 36 (2) 35 (1) 64 (5)
4 38 (1) 72 (5) 46 (3) 42 (2) 57 (4)
5 37 (3) 61 (4) 17 (1) 29 (2) 62 (5)
6 41 (2) 71 (5) 46 (3) 36 (1) 54 (4)
7 45 (3) 69 (5) 41 (2) 38 (1) 51 (4)
8 49 (3) 78 (5) 38 (1) 41 (2) 61 (4)
9 37 (2) 71 (5) 45 (3) 36 (1) 52 (4)
10 42 (2) 76 (5) 43 (3) 31 (1) 55 (4)
11 47 (3) 65 (5) 39 (1) 43 (2) 60 (4)
12 38 (1) 52 (4) 41 (2) 42 (3) 53 (5)
13 39 (2) 74 (5) 38 (1) 50 (3) 58 (4)
14 35 (1) 79 (5) 37 (2) 49 (3) 64 (4)
15 43 (3) 59 (4) 42 (2) 40 (1) 61 (5)
16 40 (3) 61 (4) 20 (1) 37 (2) 62 (5)
R1= 38 R2= 75 R3= 30 R4= 28 R5= 69

Solução: Obtém-se as diferenças:


|R1 – R2| = |38 – 75| = 37; |R2 – R4| = |75 – 28| = 47;
|R1 – R3| = |38 – 30| = 08; |R2 – R5| = |75 - 69| = 06;
|R1 – R4| = |38 – 28| = 10; |R3 – R4| = |30 – 28| = 02;
|R1 – R5| = |38 – 69| = 31; |R3 – R5| = |30 – 69| = 39;
|R2 – R3| = |75 – 30| = 45; e |R4 – R5| = |28 – 69| = 41;
Como o número de blocos é maior do que 15, utiliza-se a Tabela 18. Com  =0,05 e
para K = 5 tratamentos, o valor de Q = 3,858.

(16)(5)(5 1)
Logo, dms  3,858  24,40 .
12

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 74
Conclui-se que os tratamentos 2 (IBA 1000 ppm) e 5 (IBA 8000 ppm) não diferem
entre si, mas são diferentes dos demais. Os tratamentos 1 (IBA 500 ppm), 3 (IBA 2000
ppm) e 4 (IBA 4000 ppm) não diferem entre si.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 75
9. CONSIDERAÇÕES SOBRE O USO DE APLICATIVOS COMPUTACIONAIS

Alguns testes não-paramétricos são extremamente fáceis de serem realizados. Com


um simples aplicativo, na planilha Excel, se obtém a estatística do teste (valor calculado) e,
os valores críticos devem ser consultados em tabelas específicas. Para os casos de grandes
amostras, a aproximação da distribuição normal ou de qui-quadrado, os valores críticos
podem ser obtidos na planilha excel usando as funções apropriadas.
Sugestão de aplicativos de baixo custo ou gratuitos:

1) SAEG
Página do SAEG na internet: http://www.ufv.br/saeg/download.htm (pode-se baixar
o aplicativo “SAEG 9.1 Demonstração” que é uma cópia do SAEG que contém todos os
procedimentos estatísticos, utilitários, gráficos, entre outros. Essa versão de demonstração
admite somente 40 observações). Email para contato: saeg@ufv.br (para compra da chave
física para o uso autorizado - solicitar custo reduzido para uso próprio de estudantes e
professores).
Algumas possibilidades de análise com o SAEG são relacionadas a seguir:
a) Análise de variância => Análise Não-paramétrica => Teste de Wilcoxon (quando têm 2
tratamentos); Teste de Kruskal-Wallis (com 3 ou mais tratamentos), também procede as
comparações múltiplas entre os tratamentos.
b) Testes estatísticos => Teste de Qui-Quadrado: Simples (compara frequências
observadas com esperadas); Contingência (classifica as observações em duas classes e
procede o teste qui-quadrado da independência); => Teste de Lilliefors (verificação da
normalidade dos dados);
c) Estatísticas univariadas => Frequências cruzadas (com opção de Qui-Quadrado = Sim),
é um segundo caminho para o teste qui-quadrado em tabelas de contingência.
d) Correlações => Correlação Spearman; Correlação de Kendall
Demais procedimentos podem ser consultados em Ribeiro Junior (2001) ou, no
próprio aplicativo demonstração.

2) BioEstat 5.0
Página do BioEstat na internet: http://biocistron.blogspot.com/2008/07/programa-
bioestat-50_7617.html (AYRES et al., 2007). É um aplicativo computacional livre, tem

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 76
manual interno (ajuda do BioEstat) e de fácil aplicação. Executa, aproximadamente, 65%
dos testes propostos neste livro e outros não contemplados. Os principais testes
encontrados no aplicativo são:
a) Testes aplicáveis a uma amostra (binomial, qui-quadrado, Kolmogorov-Smirnov,
Lilliefors, Sequência ou Runs test ou Iterações);
b) Testes apropriados a dados pareados (Mc Nemar);
c) Testes para duas amostras independentes (Soma das ordens ou Wilcoxon, Mann-
Whitney, Kolmogorov-Smirnov, teste exato de Fisher);
d) Testes de correlação (Kendall e Spearman);
e) Testes para K amostras independentes (Kruskal-Wallis); e,
f) Análise da variância - classificação dupla (Friedman);

Quando uma característica avaliada numa pesquisa não segue a distribuição de


probabilidade normal ou simplesmente a distribuição de probabilidade é desconhecida, o
método computacional intensivo de reamostragem (Bootstrap) pode ser utilizado. Neste
método, a amostra, representativa da população, é reamostrada (com reposição de valores)
um grande número de vezes (recomenda-se maior que1.000) para determinar-se uma
estatística qualquer. A distribuição de probabilidade desta estatística é a distribuição da
mesma na população. Por exemplo, com uma amostra de N=40 observações, pode-se gerar
2.000 reamostras de 40 observações (com reposição), calculando a média em cada
reamostra. Ordenando estas 2.000 médias, o percentil 0,025 (P025) e o percentil 0,975
(P975) são as estimativas por intervalo de confiança (P025 a P975), com 5% de erro. Isto
vale para qualquer distribuição da variável amostrada. Detalhes sobre bootstrap podem ser
consultados em Efron (1979).
O aplicativo BioEstat contém algumas aplicações bootstrap (intervalo de confiança
para a média; intervalo de confiança da proporção; teste t para duas amostras
independentes; análise de variância para um fator; correlação linear e seu intervalo de
confiança, entre outros).

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 77
REFERÊNCIAS BIBLIOGRÁFICAS

AYRES, M., M.Jr. AYRES, D.L. AYRES, A.A.S. SANTOS, 2007. BioEstat – Aplicações
estatísticas nas áreas das ciências bio-médicas. URL.
‘<http://rs579.rapidshare.com/files/171642982/BioEstat.zip> Acessado em 23/02/2010.
ANSARI, A.R.; BRADLEY, R.A. Rank sum tests for dispersion. The Annals of
Mathematical Statistics, v. 31, p.1174-1189. 1960.
BEAVER, R. et al. Statistics for management and economics. 2ed. Belmont: Duxbury,
1974. 441p.
BUNCHAFT, G.; KELLNER, S.R.O. v.2. 2ed. Estatística sem mistérios. Petrópolis:
Vozes, 1999. 303p.
BUNCHAFT, G.; KELLNER, S.R.O. v.4. 2ed. Estatística sem mistérios. Petrópolis:
Vozes, 2001. 229p.
CAMPOS, H. Estatística experimental não-paramétrica. 4ed. Piracicaba: FEALQ,
1993. 349p.
CENTERO, A.J. Curso de estatística aplicada à biologia. Goiânia: CEGRAF/UFG,
1990. 188p.
COSTA NETO, P.L.O. Estatística. São Paulo: Edgard Blücher, 1977. 264p.
COX, D.R.; STUART, A. Some quick tests for trend in location and dispersion.
Biometrika, v. 42, p.80-95. 1955.
EFRON, B. Bootstrap method: another look at the jackknife. The Annals of Statistics, 7,
1-26, 1979.
FERREIRA, D.F. Estatística básica. Lavras: Editora UFLA, 2005. 664p.
FONSECA, J.S.; MARTINS, G.A. Curso de estatística. 5ed. São Paulo: Atlas, 1994.
317p.
FRIEDMAN, M. The use of ranks to avoid the assumptions of normality implicit in the
analysis os variance. Journal of the American Statistical Association, v. 32, p.675-
701. 1937.
GOMES, F.P. A estatítica moderna na pesquisa agropecuária. 3ed.Piracicaba:
POTAFOS, 1987. 162p.
GOMES, F.P. Curso de estatística experimental. 13ed. Piracicaba: Nobel, 1990. 468p.
KENDALL, M.G. A new measure of rank correlation. Biometrika, v.30, p.81-93. 1938.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 78
KRUSKAL, W.H.; WALLIS, W.A. Use of ranks in one-criterion variance analysis.
Journal of the American Statistical Association, v. 47, p.583-621. 1952.
LEVIN, J. Estatística aplicada a ciências humanas. 2ed. São Paulo: Harbra, 1987. 392p.
LILLIEFORS, H.W. On the Kolmogorov-Smirnov test for normality with mean and
variance unknown. Journal of the American Statistical Association, v.62, p.399-402.
1967.
MANN, H.B.; WHITNEY, D.R. On a test of whether one of two random variables is
stochastically larger than other. The Annals of Mathematical Statistics, v.18, p.50-60.
1947.
MOSES, L.E. Rank tests of dispersion. The Annals of Mathematical Statistics, v.34,
p.973-983. 1963.
RIBEIRO JUNIOR, J.I. Análises estatísticas no SAEG. Viçosa: UFV, 2001. 301p.
SHAPIRO, S.S.; WILK, M.B. An analysis of variance test for normality (complete
samples). Biometrika, v.52, p.591-611. 1965.
SIEGEL, S. Estatística não-paramétrica para as ciências do comportamento. São
Paulo: McGraw-Hill, 1975. 350p.
SIEGEL, S.; TUKEY, J.W. A nonparametric sum of ranks procedure for relative spread in
unpaired samples. Journal of the American Statistical Association, v. 55, p.429-444.
1960.
SPEARMAN, C. The proof and measurement of association between two things. The
American Journal of Psychology, v. 15, p.72-101. 1904.
SPIEGEL, M.R. Estatística. 3ed. São Paulo: McGraw-Hill, 1993. 643p.
SPRENT, P. SMEETON, N.C. Applied nonparametric statistical methods. 4ed. Boca
Raton: Chapman-Hall, 2006. 530p.
STEVENSON, W.J. Estatística aplicada à administração. São Paulo: Harbra, 1981.
495p.
WILCOXON, F. Individual comparisons by ranking methods. Biometrics, v.1, p.80-83.
1945.
ZIMMERMANN, F.J.P. Estatística aplicada à pesquisa agrícola. Santo Antônio de
Goiás: EMBRAPA, 2004. 402p.

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 79
Tabela 1 - Limites inferiores da distribuição binomial – P(B  c(, n, po)) = , com po
variando de 0,05 a 0,50.
po
n c 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
1 0 0,9500 0,9000 0,8500 0,8000 0,7500 0,7000 0,6500 0,6000 0,5500 0,5000
1 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

2 0 0,9025 0,8100 0,7225 0,6400 0,5625 0,4900 0,4225 0,3600 0,3025 0,2500
1 0,9975 0,9900 0,9775 0,9600 0,9375 0,9100 0,8775 0,8400 0,7975 0,7500
2 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

3 0 0,8574 0,7290 0,6141 0,5120 0,4219 0,3430 0,2746 0,2160 0,1664 0,1250
1 0,9928 0,9720 0,9393 0,8960 0,8438 0,7840 0,7183 0,6480 0,5748 0,5000
2 0,9999 0,9990 0,9966 0,9920 0,9844 0,9730 0,9571 0,9360 0,9089 0,8750
3 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

4 0 0,8145 0,6561 0,5220 0,4096 0,3164 0,2401 0,1785 0,1296 0,0915 0,0625
1 0,9860 0,9477 0,8905 0,8192 0,7383 0,6517 0,5630 0,4752 0,3910 0,3125
2 0,9995 0,9963 0,9880 0,9728 0,9492 0,9163 0,8735 0,8208 0,7585 0,6875
3 1,0000 0,9999 0,9995 0,9984 0,9961 0,9919 0,9850 0,9744 0,9590 0,9375
4 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

5 0 0,7738 0,5905 0,4437 0,3277 0,2373 0,1681 0,1160 0,0778 0,0503 0,0313
1 0,9774 0,9185 0,8352 0,7373 0,6328 0,5282 0,4284 0,3370 0,2562 0,1875
2 0,9988 0,9914 0,9734 0,9421 0,8965 0,8369 0,7648 0,6826 0,5931 0,5000
3 1,0000 0,9995 0,9978 0,9933 0,9844 0,9692 0,9460 0,9130 0,8688 0,8125
4 1,0000 1,0000 0,9999 0,9997 0,9990 0,9976 0,9947 0,9898 0,9815 0,9688
5 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

6 0 0,7351 0,5314 0,3771 0,2621 0,1780 0,1176 0,0754 0,0467 0,0277 0,0156
1 0,9672 0,8857 0,7765 0,6554 0,5339 0,4202 0,3191 0,2333 0,1636 0,1094
2 0,9978 0,9842 0,9527 0,9011 0,8306 0,7443 0,6471 0,5443 0,4415 0,3438
3 0,9999 0,9987 0,9941 0,9830 0,9624 0,9295 0,8826 0,8208 0,7447 0,6563
4 1,0000 0,9999 0,9996 0,9984 0,9954 0,9891 0,9777 0,9590 0,9308 0,8906
5 1,0000 1,0000 1,0000 0,9999 0,9998 0,9993 0,9982 0,9959 0,9917 0,9844
6 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

7 0 0,6983 0,4783 0,3206 0,2097 0,1335 0,0824 0,0490 0,0280 0,0152 0,0078
1 0,9556 0,8503 0,7166 0,5767 0,4449 0,3294 0,2338 0,1586 0,1024 0,0625
2 0,9962 0,9743 0,9262 0,8520 0,7564 0,6471 0,5323 0,4199 0,3164 0,2266
3 0,9998 0,9973 0,9879 0,9667 0,9294 0,8740 0,8002 0,7102 0,6083 0,5000
4 1,0000 0,9998 0,9988 0,9953 0,9871 0,9712 0,9444 0,9037 0,8471 0,7734
5 1,0000 1,0000 0,9999 0,9996 0,9987 0,9962 0,9910 0,9812 0,9643 0,9375
6 1,0000 1,0000 1,0000 1,0000 0,9999 0,9998 0,9994 0,9984 0,9963 0,9922
7 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

8 0 0,6634 0,4305 0,2725 0,1678 0,1001 0,0576 0,0319 0,0168 0,0084 0,0039
1 0,9428 0,8131 0,6572 0,5033 0,3671 0,2553 0,1691 0,1064 0,0632 0,0352
2 0,9942 0,9619 0,8948 0,7969 0,6785 0,5518 0,4278 0,3154 0,2201 0,1445
3 0,9996 0,9950 0,9786 0,9437 0,8862 0,8059 0,7064 0,5941 0,4770 0,3633
4 1,0000 0,9996 0,9971 0,9896 0,9727 0,9420 0,8939 0,8263 0,7396 0,6367
5 1,0000 1,0000 0,9998 0,9988 0,9958 0,9887 0,9747 0,9502 0,9115 0,8555
6 1,0000 1,0000 1,0000 0,9999 0,9996 0,9987 0,9964 0,9915 0,9819 0,9648
7 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9998 0,9993 0,9983 0,9961
8 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

9 0 0,6302 0,3874 0,2316 0,1342 0,0751 0,0404 0,0207 0,0101 0,0046 0,0020
1 0,9288 0,7748 0,5995 0,4362 0,3003 0,1960 0,1211 0,0705 0,0385 0,0195
2 0,9916 0,9470 0,8591 0,7382 0,6007 0,4628 0,3373 0,2318 0,1495 0,0898

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 80
Tabela 1 – continuação ...
n c 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
3 0,9994 0,9917 0,9661 0,9144 0,8343 0,7297 0,6089 0,4826 0,3614 0,2539
4 1,0000 0,9991 0,9944 0,9804 0,9511 0,9012 0,8283 0,7334 0,6214 0,5000
5 1,0000 0,9999 0,9994 0,9969 0,9900 0,9747 0,9464 0,9006 0,8342 0,7461
6 1,0000 1,0000 1,0000 0,9997 0,9987 0,9957 0,9888 0,9750 0,9502 0,9102
7 1,0000 1,0000 1,0000 1,0000 0,9999 0,9996 0,9986 0,9962 0,9909 0,9805
8 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9992 0,9980
9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

10 0 0,5987 0,3487 0,1969 0,1074 0,0563 0,0282 0,0135 0,0060 0,0025 0,0010
1 0,9139 0,7361 0,5443 0,3758 0,2440 0,1493 0,0860 0,0464 0,0233 0,0107
2 0,9885 0,9298 0,8202 0,6778 0,5256 0,3828 0,2616 0,1673 0,0996 0,0547
3 0,9990 0,9872 0,9500 0,8791 0,7759 0,6496 0,5138 0,3823 0,2660 0,1719
4 0,9999 0,9984 0,9901 0,9672 0,9219 0,8497 0,7515 0,6331 0,5044 0,3770
5 1,0000 0,9999 0,9986 0,9936 0,9803 0,9527 0,9051 0,8338 0,7384 0,6230
6 1,0000 1,0000 0,9999 0,9991 0,9965 0,9894 0,9740 0,9452 0,8980 0,8281
7 1,0000 1,0000 1,0000 0,9999 0,9996 0,9984 0,9952 0,9877 0,9726 0,9453
8 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995 0,9983 0,9955 0,9893
9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9990
10 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

11 0 0,5688 0,3138 0,1673 0,0859 0,0422 0,0198 0,0088 0,0036 0,0014 0,0005
1 0,8981 0,6974 0,4922 0,3221 0,1971 0,1130 0,0606 0,0302 0,0139 0,0059
2 0,9848 0,9104 0,7788 0,6174 0,4552 0,3127 0,2001 0,1189 0,0652 0,0327
3 0,9984 0,9815 0,9306 0,8389 0,7133 0,5696 0,4256 0,2963 0,1911 0,1133
4 0,9999 0,9972 0,9841 0,9496 0,8854 0,7897 0,6683 0,5328 0,3971 0,2744
5 1,0000 0,9997 0,9973 0,9883 0,9657 0,9218 0,8513 0,7535 0,6331 0,5000
6 1,0000 1,0000 0,9997 0,9980 0,9924 0,9784 0,9499 0,9006 0,8262 0,7256
7 1,0000 1,0000 1,0000 0,9998 0,9988 0,9957 0,9878 0,9707 0,9390 0,8867
8 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9980 0,9941 0,9852 0,9673
9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9993 0,9978 0,9941
10 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9995
11 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

12 0 0,5404 0,2824 0,1422 0,0687 0,0317 0,0138 0,0057 0,0022 0,0008 0,0002
1 0,8816 0,6590 0,4435 0,2749 0,1584 0,0850 0,0424 0,0196 0,0083 0,0032
2 0,9804 0,8891 0,7358 0,5583 0,3907 0,2528 0,1513 0,0834 0,0421 0,0193
3 0,9978 0,9744 0,9078 0,7946 0,6488 0,4925 0,3467 0,2253 0,1345 0,0730
4 0,9998 0,9957 0,9761 0,9274 0,8424 0,7237 0,5833 0,4382 0,3044 0,1938
5 1,0000 0,9995 0,9954 0,9806 0,9456 0,8822 0,7873 0,6652 0,5269 0,3872
6 1,0000 0,9999 0,9993 0,9961 0,9857 0,9614 0,9154 0,8418 0,7393 0,6128
7 1,0000 1,0000 0,9999 0,9994 0,9972 0,9905 0,9745 0,9427 0,8883 0,8062
8 1,0000 1,0000 1,0000 0,9999 0,9996 0,9983 0,9944 0,9847 0,9644 0,9270
9 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9992 0,9972 0,9921 0,9807
10 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9989 0,9968
11 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9998
12 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

13 0 0,5133 0,2542 0,1209 0,0550 0,0238 0,0097 0,0037 0,0013 0,0004 0,0001
1 0,8646 0,6213 0,3983 0,2336 0,1267 0,0637 0,0296 0,0126 0,0049 0,0017
2 0,9755 0,8661 0,6920 0,5017 0,3326 0,2025 0,1132 0,0579 0,0269 0,0112
3 0,9969 0,9658 0,8820 0,7473 0,5843 0,4206 0,2783 0,1686 0,0929 0,0461
4 0,9997 0,9935 0,9658 0,9009 0,7940 0,6543 0,5005 0,3530 0,2279 0,1334
5 1,0000 0,9991 0,9925 0,9700 0,9198 0,8346 0,7159 0,5744 0,4268 0,2905
9 1,0000 0,9999 0,9987 0,9930 0,9757 0,9376 0,8705 0,7712 0,6437 0,5000
7 1,0000 1,0000 0,9998 0,9988 0,9944 0,9818 0,9538 0,9023 0,8212 0,7095
8 1,0000 1,0000 1,0000 0,9998 0,9990 0,9960 0,9874 0,9679 0,9302 0,8666
9 1,0000 1,0000 1,0000 1,0000 0,9999 0,9993 0,9975 0,9922 0,9797 0,9539

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 81
Tabela 1 – continuação ...
n c 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
10 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9987 0,9959 0,9888
11 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995 0,9983
12 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

14 0 0,4877 0,2288 0,1028 0,0440 0,0178 0,0068 0,0024 0,0008 0,0002 0,0001
1 0,8470 0,5846 0,3567 0,1979 0,1010 0,0475 0,0205 0,0081 0,0029 0,0009
2 0,9699 0,8416 0,6479 0,4481 0,2811 0,1608 0,0839 0,0398 0,0170 0,0065
3 0,9958 0,9559 0,8535 0,6982 0,5213 0,3552 0,2205 0,1243 0,0632 0,0287
4 0,9996 0,9908 0,9533 0,8702 0,7415 0,5842 0,4227 0,2793 0,1672 0,0898
5 1,0000 0,9985 0,9885 0,9561 0,8883 0,7805 0,6405 0,4859 0,3373 0,2120
5 1,0000 0,9998 0,9978 0,9884 0,9617 0,9067 0,8164 0,6925 0,5461 0,3953
7 1,0000 1,0000 0,9997 0,9976 0,9897 0,9685 0,9247 0,8499 0,7414 0,6047
6 1,0000 1,0000 1,0000 0,9996 0,9978 0,9917 0,9757 0,9417 0,8811 0,7880
9 1,0000 1,0000 1,0000 1,0000 0,9997 0,9983 0,9940 0,9825 0,9574 0,9102
10 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9989 0,9961 0,9886 0,9713
11 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9978 0,9935
12 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9991
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

15 0 0,4633 0,2059 0,0874 0,0352 0,0134 0,0047 0,0016 0,0005 0,0001 0,0000
1 0,8290 0,5490 0,3186 0,1671 0,0802 0,0353 0,0142 0,0052 0,0017 0,0005
2 0,9638 0,8159 0,6042 0,3980 0,2361 0,1268 0,0617 0,0271 0,0107 0,0037
3 0,9945 0,9444 0,8227 0,6482 0,4613 0,2969 0,1727 0,0905 0,0424 0,0176
4 0,9994 0,9873 0,9383 0,8358 0,6865 0,5155 0,3519 0,2173 0,1204 0,0592
5 0,9999 0,9978 0,9832 0,9389 0,8516 0,7216 0,5643 0,4032 0,2608 0,1509
6 1,0000 0,9997 0,9964 0,9819 0,9434 0,8689 0,7548 0,6098 0,4522 0,3036
7 1,0000 1,0000 0,9994 0,9958 0,9827 0,9500 0,8868 0,7869 0,6535 0,5000
8 1,0000 1,0000 0,9999 0,9992 0,9958 0,9848 0,9578 0,9050 0,8182 0,6964
9 1,0000 1,0000 1,0000 0,9999 0,9992 0,9963 0,9876 0,9662 0,9231 0,8491
10 1,0000 1,0000 1,0000 1,0000 0,9999 0,9993 0,9972 0,9907 0,9745 0,9408
11 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995 0,9981 0,9937 0,9824
12 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9989 0,9963
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

16 0 0,4401 0,1853 0,0743 0,0281 0,0100 0,0033 0,0010 0,0003 0,0001 0,0000
1 0,8108 0,5147 0,2839 0,1407 0,0635 0,0261 0,0098 0,0033 0,0010 0,0003
2 0,9571 0,7892 0,5614 0,3518 0,1971 0,0994 0,0451 0,0183 0,0066 0,0021
3 0,9930 0,9316 0,7899 0,5981 0,4050 0,2459 0,1339 0,0651 0,0281 0,0106
4 0,9991 0,9830 0,9209 0,7982 0,6302 0,4499 0,2892 0,1666 0,0853 0,0384
5 0,9999 0,9967 0,9765 0,9183 0,8103 0,6598 0,4900 0,3288 0,1976 0,1051
6 1,0000 0,9995 0,9944 0,9733 0,9204 0,8247 0,6881 0,5272 0,3660 0,2272
7 1,0000 0,9999 0,9989 0,9930 0,9729 0,9256 0,8406 0,7161 0,5629 0,4018
8 1,0000 1,0000 0,9998 0,9985 0,9925 0,9743 0,9329 0,8577 0,7441 0,5982
9 1,0000 1,0000 1,0000 0,9998 0,9984 0,9929 0,9771 0,9417 0,8759 0,7728
10 1,0000 1,0000 1,0000 1,0000 0,9997 0,9984 0,9938 0,9809 0,9514 0,8949
11 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9987 0,9951 0,9851 0,9616
12 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9991 0,9965 0,9894
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9979
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
17 0
1 0,4181 0,1668 0,0631 0,0225 0,0075 0,0023 0,0007 0,0002 0,0000 0,0000

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 82
Tabela 1 – continuação ...
n c 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
2 0,9497 0,7618 0,5198 0,3096 0,1637 0,0774 0,0327 0,0123 0,0041 0,0012
3 0,9912 0,9174 0,7556 0,5489 0,3530 0,2019 0,1028 0,0464 0,0184 0,0064
4 0,9988 0,9779 0,9013 0,7582 0,5739 0,3887 0,2348 0,1260 0,0596 0,0245
5 0,9999 0,9953 0,9681 0,8943 0,7653 0,5968 0,4197 0,2639 0,1471 0,0717
8 1,0000 0,9992 0,9917 0,9623 0,8929 0,7752 0,6188 0,4478 0,2902 0,1662
7 1,0000 0,9999 0,9983 0,9891 0,9598 0,8954 0,7872 0,6405 0,4743 0,3145
8 1,0000 1,0000 0,9997 0,9974 0,9876 0,9597 0,9006 0,8011 0,6626 0,5000
9 1,0000 1,0000 1,0000 0,9995 0,9969 0,9873 0,9617 0,9081 0,8166 0,6855
10 1,0000 1,0000 1,0000 0,9999 0,9994 0,9968 0,9880 0,9652 0,9174 0,8338
11 1,0000 1,0000 1,0000 1,0000 0,9999 0,9993 0,9970 0,9894 0,9699 0,9283
12 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9975 0,9914 0,9755
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995 0,9981 0,9936
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9997 0,9988
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999
16 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
17 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

18 0 0,3972 0,1501 0,0536 0,0180 0,0056 0,0016 0,0004 0,0001 0,0000 0,0000
1 0,7735 0,4503 0,2241 0,0991 0,0395 0,0142 0,0046 0,0013 0,0003 0,0001
2 0,9419 0,7338 0,4797 0,2713 0,1353 0,0600 0,0236 0,0082 0,0025 0,0007
3 0,9891 0,9018 0,7202 0,5010 0,3057 0,1646 0,0783 0,0328 0,0120 0,0038
4 0,9985 0,9718 0,8794 0,7164 0,5187 0,3327 0,1886 0,0942 0,0411 0,0154
5 0,9998 0,9936 0,9581 0,8671 0,7175 0,5344 0,3550 0,2088 0,1077 0,0481
6 1,0000 0,9988 0,9882 0,9487 0,8610 0,7217 0,5491 0,3743 0,2258 0,1189
7 1,0000 0,9998 0,9973 0,9837 0,9431 0,8593 0,7283 0,5634 0,3915 0,2403
8 1,0000 1,0000 0,9995 0,9957 0,9807 0,9404 0,8609 0,7368 0,5778 0,4073
9 1,0000 1,0000 0,9999 0,9991 0,9946 0,9790 0,9403 0,8653 0,7473 0,5927
10 1,0000 1,0000 1,0000 0,9998 0,9988 0,9939 0,9788 0,9424 0,8720 0,7597
11 1,0000 1,0000 1,0000 1,0000 0,9998 0,9986 0,9938 0,9797 0,9463 0,8811
12 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9986 0,9942 0,9817 0,9519
13 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9987 0,9951 0,9846
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998 0,9990 0,9962
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9993
16 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999
17 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
18 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

19 0 0,3774 0,1351 0,0456 0,0144 0,0042 0,0011 0,0003 0,0001 0,0000 0,0000
1 0,7547 0,4203 0,1985 0,0829 0,0310 0,0104 0,0031 0,0008 0,0002 0,0000
2 0,9335 0,7054 0,4413 0,2369 0,1113 0,0462 0,0170 0,0055 0,0015 0,0004
3 0,9868 0,8850 0,6841 0,4551 0,2631 0,1332 0,0591 0,0230 0,0077 0,0022
4 0,9980 0,9648 0,8556 0,6733 0,4654 0,2822 0,1500 0,0696 0,0280 0,0096
5 0,9998 0,9914 0,9463 0,8369 0,6678 0,4739 0,2968 0,1629 0,0777 0,0318
6 1,0000 0,9983 0,9837 0,9324 0,8251 0,6655 0,4812 0,3081 0,1727 0,0835
7 1,0000 0,9997 0,9959 0,9767 0,9225 0,8180 0,6656 0,4878 0,3169 0,1796
8 1,0000 1,0000 0,9992 0,9933 0,9713 0,9161 0,8145 0,6675 0,4940 0,3238
9 1,0000 1,0000 0,9999 0,9984 0,9911 0,9674 0,9125 0,8139 0,6710 0,5000
10 1,0000 1,0000 1,0000 0,9997 0,9977 0,9895 0,9653 0,9115 0,8159 0,6762
11 1,0000 1,0000 1,0000 1,0000 0,9995 0,9972 0,9886 0,9648 0,9129 0,8204
12 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9969 0,9884 0,9658 0,9165
13 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9993 0,9969 0,9891 0,9682
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9994 0,9972 0,9904
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9995 0,9978
16 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9999 0,9996
17 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
18 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
19 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 83
Tabela 1 – continuação ...
n c 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
20 0 0,3585 0,1216 0,0388 0,0115 0,0032 0,0008 0,0002 0,0000 0,0000 0,0000
1 0,7358 0,3917 0,1756 0,0692 0,0243 0,0076 0,0021 0,0005 0,0001 0,0000
2 0,9245 0,6769 0,4049 0,2061 0,0913 0,0355 0,0121 0,0036 0,0009 0,0002
3 0,9841 0,8670 0,6477 0,4114 0,2252 0,1071 0,0444 0,0160 0,0049 0,0013
4 0,9974 0,9568 0,8298 0,6296 0,4148 0,2375 0,1182 0,0510 0,0189 0,0059
5 0,9997 0,9887 0,9327 0,8042 0,6172 0,4164 0,2454 0,1256 0,0553 0,0207
6 1,0000 0,9976 0,9781 0,9133 0,7858 0,6080 0,4166 0,2500 0,1299 0,0577
7 1,0000 0,9996 0,9941 0,9679 0,8982 0,7723 0,6010 0,4159 0,2520 0,1316
8 1,0000 0,9999 0,9987 0,9900 0,9591 0,8867 0,7624 0,5956 0,4143 0,2517
9 1,0000 1,0000 0,9998 0,9974 0,9861 0,9520 0,8782 0,7553 0,5914 0,4119
10 1,0000 1,0000 1,0000 0,9994 0,9961 0,9829 0,9468 0,8725 0,7507 0,5881
11 1,0000 1,0000 1,0000 0,9999 0,9991 0,9949 0,9804 0,9435 0,8692 0,7483
12 1,0000 1,0000 1,0000 1,0000 0,9998 0,9987 0,9940 0,9790 0,9420 0,8684
13 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9985 0,9935 0,9786 0,9423
14 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9984 0,9936 0,9793
15 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9985 0,9941
16 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9997 0,9987
17 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9998
18 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
19 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
20 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 84
Tabela 2 – Contém as probabilidades P[Z  z] = , referente a distribuição normal padrão.
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
0,4 0,3446 0,3409 0,3382 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
1,4 0,0808 0,0795 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
3,2 0,0007 0,0007 0,0006 0,0005 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 85
Tabela 3 – Contém os valores teóricos (X(GL; )) da distribuição de 2 (Qui-quadrado) para GL graus de
liberdade com os níveis de  de especificação.
P(X > X(GL; )) = 
GL 0,990 0,975 0,950 0,900 0,100 0,050 0,025 0,010
1 0,000 0,001 0,004 0,016 2,706 3,841 5,024 6,635
2 0,020 0,050 0,100 0,200 4,605 5,991 7,378 9,210
3 0,112 0,207 0,328 0,584 6,251 7,815 9,348 11,345
4 0,283 0,447 0,711 1,064 7,779 9,488 11,143 13,277
5 0,512 0,831 1,145 1,610 9,236 11,070 12,833 15,086
6 0,872 1,237 1,635 2,204 10,645 12,592 14,449 16,812
7 1,239 1,690 2,167 2,833 12,017 14,067 16,013 18,475
8 1,646 2,180 2,733 3,490 13,362 15,507 17,535 20,090
9 2,088 2,700 3,325 4,168 14,684 16,919 19,023 21,666
10 2,558 3,247 3,940 4,865 15,987 18,307 20,483 23,209
11 3,053 3,816 4,575 5,578 17,275 19,675 21,920 24,725
12 3,571 4,404 5,226 6,304 18,549 21,026 23,337 26,217
13 4,107 5,009 5,892 7,042 19,812 22,362 24,736 27,688
14 4,660 5,629 6,571 7,790 21,064 23,685 26,119 29,141
15 5,229 6,262 7,261 8,547 22,307 24,996 27,488 30,578
16 5,812 6,908 7,962 9,312 23,542 26,296 28,845 32,000
17 6,408 7,564 8,672 10,085 24,769 27,587 30,191 33,409
18 7,015 8,231 9,390 10,865 25,989 28,869 31,526 34,805
19 7,633 8,907 10,117 11,651 27,204 30,144 32,852 36,191
20 8,260 9,591 10,851 12,443 28,412 31,410 34,170 37,566
21 8,897 10,283 11,591 13,240 29,615 32,671 35,479 38,932
22 9,542 10,982 12,338 14,041 30,813 33,924 36,781 40,289
23 10,196 11,689 13,091 14,848 32,007 35,172 38,076 41,638
24 10,856 12,401 13,848 15,659 33,196 36,415 39,364 42,980
25 11,524 13,120 14,611 16,473 34,382 37,652 40,646 44,314
26 12,198 13,844 15,379 17,292 35,563 38,885 41,923 45,642
27 12,879 14,573 16,151 18,114 36,741 40,113 43,195 46,963
28 13,565 15,308 16,928 18,939 37,916 41,337 44,461 48,278
29 14,256 16,047 17,708 19,768 39,087 42,557 45,722 49,588
30 14,953 16,791 18,493 20,599 40,256 43,773 46,979 50,892
31 15,655 17,539 19,281 21,434 41,422 44,985 48,232 52,191
32 16,362 18,291 20,072 22,271 42,585 46,194 49,480 53,486
33 17,074 19,047 20,867 23,110 43,745 47,400 50,725 54,776
34 17,789 19,806 21,664 23,952 44,903 48,602 51,966 56,061
35 18,509 20,569 22,465 24,797 46,059 49,802 53,203 57,342
36 19,233 21,336 23,269 25,643 47,212 50,998 54,437 58,619
37 19,960 22,106 24,075 26,492 48,363 52,192 55,668 59,893
38 20,691 22,878 24,884 27,343 49,513 53,384 56,896 61,162
39 21,426 23,654 25,695 28,196 50,660 54,572 58,120 62,428
40 22,164 24,433 26,509 29,051 51,805 55,758 59,342 63,691
41 22,906 25,215 27,326 29,907 52,949 56,942 60,561 64,950
42 23,650 25,999 28,144 30,765 54,090 58,124 61,777 66,206
43 24,398 26,785 28,965 31,625 55,230 59,304 62,990 67,459
44 25,148 27,575 29,787 32,487 56,369 60,481 64,201 68,710
45 25,901 28,366 30,612 33,350 57,505 61,656 65,410 69,957
46 26,657 29,160 31,439 34,215 58,641 62,830 66,617 71,201
47 27,416 29,956 32,268 35,081 59,774 64,001 67,821 72,443
48 28,177 30,755 33,098 35,949 60,907 65,171 69,023 73,683
49 28,941 31,555 33,930 36,818 62,038 66,339 70,222 74,919
50 29,707 32,357 34,764 37,689 63,167 67,505 71,420 76,154
51 30,475 33,162 35,600 38,560 64,295 68,669 72,616 77,386
52 31,246 33,968 36,437 39,433 65,422 69,832 73,810 78,616
53 32,018 34,776 37,276 40,308 66,548 70,993 75,002 79,843
54 32,793 35,586 38,116 41,183 67,673 72,153 76,192 81,069
55 33,570 36,398 38,958 42,060 68,796 73,311 77,380 82,292

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 86
Tabela 3 – continuação ...
GL 0,990 0,975 0,950 0,900 0,100 0,050 0,025 0,010
56 34,350 37,212 39,801 42,937 69,919 74,468 78,567 83,513
57 35,131 38,027 40,646 43,816 71,040 75,624 79,752 84,733
58 35,913 38,844 41,492 44,696 72,160 76,778 80,936 85,950
59 36,698 39,662 42,339 45,577 73,279 77,931 82,117 87,166
60 37,485 40,482 43,188 46,459 74,397 79,082 83,298 88,379
61 38,273 41,303 44,038 47,342 75,514 80,232 84,476 89,591
62 39,063 42,126 44,889 48,226 76,630 81,381 85,654 90,802
63 39,855 42,950 45,741 49,111 77,745 82,529 86,830 92,010
64 40,649 43,776 46,595 49,996 78,860 83,675 88,004 93,217
65 41,444 44,603 47,450 50,883 79,973 84,821 89,177 94,422
66 42,240 45,431 48,305 51,770 81,085 85,965 90,349 95,626
67 43,038 46,261 49,162 52,659 82,197 87,108 91,519 96,828
68 43,838 47,092 50,020 53,548 83,308 88,250 92,689 98,028
69 44,639 47,924 50,879 54,438 84,418 89,391 93,856 99,228
70 45,442 48,758 51,739 55,329 85,527 90,531 95,023 100,425
71 46,246 49,592 52,600 56,221 86,635 91,670 96,189 101,621
72 47,051 50,428 53,462 57,113 87,743 92,808 97,353 102,816
73 47,858 51,265 54,325 58,006 88,850 93,945 98,516 104,010
74 48,666 52,103 55,189 58,900 89,956 95,081 99,678 105,202
75 49,475 52,942 56,054 59,795 91,061 96,217 100,839 106,393
76 50,286 53,782 56,920 60,690 92,166 97,351 101,999 107,583
77 51,097 54,623 57,786 61,586 93,270 98,484 103,158 108,771
78 51,910 55,466 58,654 62,483 94,374 99,617 104,316 109,958
79 52,725 56,309 59,522 63,380 95,476 100,749 105,473 111,144
80 53,540 57,153 60,391 64,278 96,578 101,879 106,629 112,329
81 54,357 57,998 61,261 65,176 97,680 103,010 107,783 113,512
82 55,174 58,845 62,132 66,076 98,780 104,139 108,937 114,695
83 55,993 59,692 63,004 66,976 99,880 105,267 110,090 115,876
84 56,813 60,540 63,876 67,876 100,980 106,395 111,242 117,057
85 57,634 61,389 64,749 68,777 102,079 107,522 112,393 118,236
86 58,456 62,239 65,623 69,679 103,177 108,648 113,544 119,414
87 59,279 63,089 66,498 70,581 104,275 109,773 114,693 120,591
88 60,103 63,941 67,373 71,484 105,372 110,898 115,841 121,767
89 60,928 64,793 68,249 72,387 106,469 112,022 116,989 122,942
90 61,754 65,647 69,126 73,291 107,565 113,145 118,136 124,116
91 62,581 66,501 70,003 74,196 108,661 114,268 119,282 125,289
92 63,409 67,356 70,882 75,100 109,756 115,390 120,427 126,462
93 64,238 68,211 71,760 76,006 110,850 116,511 121,571 127,633
94 65,068 69,068 72,640 76,912 111,944 117,632 122,715 128,803
95 65,898 69,925 73,520 77,818 113,038 118,752 123,858 129,973
96 66,730 70,783 74,401 78,725 114,131 119,871 125,000 131,141
97 67,562 71,642 75,282 79,633 115,223 120,990 126,141 132,309
98 68,396 72,501 76,164 80,541 116,315 122,108 127,282 133,476
99 69,230 73,361 77,046 81,449 117,407 123,225 128,422 134,642
100 70,065 74,222 77,929 82,358 118,498 124,342 129,561 135,807
101 70,901 75,083 78,813 83,267 119,589 125,458 130,700 136,971
102 71,737 75,946 79,697 84,177 120,679 126,574 131,838 138,134
103 72,575 76,809 80,582 85,088 121,769 127,689 132,975 139,297
104 73,413 77,672 81,468 85,998 122,858 128,804 134,111 140,459
105 74,252 78,536 82,354 86,909 123,947 129,918 135,247 141,620
106 75,092 79,401 83,240 87,821 125,035 131,031 136,382 142,780
107 75,932 80,267 84,127 88,733 126,123 132,144 137,517 143,940
108 76,774 81,133 85,015 89,645 127,211 133,257 138,651 145,099
109 77,616 82,000 85,903 90,558 128,298 134,369 139,784 146,257
110 78,458 82,867 86,792 91,471 129,385 135,480 140,917 147,414
111 79,302 83,735 87,681 92,385 130,472 136,591 142,049 148,571

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 87
Tabela 3 – continuação ...
GL 0,990 0,975 0,950 0,900 0,100 0,050 0,025 0,010
112 80,146 84,604 88,570 93,299 131,558 137,701 143,180 149,727
113 80,991 85,473 89,461 94,213 132,643 138,811 144,311 150,882
114 81,836 86,342 90,351 95,128 133,729 139,921 145,441 152,037
115 82,682 87,213 91,242 96,043 134,813 141,030 146,571 153,191
116 83,529 88,084 92,134 96,958 135,898 142,138 147,700 154,344
117 84,377 88,955 93,026 97,874 136,982 143,246 148,829 155,496
118 85,225 89,827 93,918 98,790 138,066 144,354 149,957 156,648
119 86,074 90,700 94,811 99,707 139,149 145,461 151,084 157,800
120 86,923 91,573 95,705 100,624 140,233 146,567 152,211 158,950
121 87,773 92,446 96,598 101,541 141,315 147,674 153,338 160,100
122 88,624 93,320 97,493 102,458 142,398 148,779 154,464 161,250
123 89,475 94,195 98,387 103,376 143,480 149,885 155,589 162,398
124 90,327 95,070 99,283 104,295 144,562 150,989 156,714 163,546
125 91,180 95,946 100,178 105,213 145,643 152,094 157,839 164,694
126 92,033 96,822 101,074 106,132 146,724 153,198 158,962 165,841
127 92,887 97,698 101,971 107,051 147,805 154,302 160,086 166,987
128 93,741 98,576 102,867 107,971 148,885 155,405 161,209 168,133
129 94,596 99,453 103,765 108,891 149,965 156,508 162,331 169,278
130 95,451 100,331 104,662 109,811 151,045 157,610 163,453 170,423
131 96,307 101,210 105,560 110,732 152,125 158,712 164,575 171,567
132 97,163 102,089 106,459 111,652 153,204 159,814 165,696 172,711
133 98,020 102,968 107,357 112,573 154,283 160,915 166,816 173,854
134 98,878 103,848 108,257 113,495 155,361 162,016 167,936 174,996
135 99,736 104,729 109,156 114,417 156,440 163,116 169,056 176,138
136 100,595 105,609 110,056 115,338 157,518 164,216 170,175 177,280
137 101,454 106,491 110,956 116,261 158,595 165,316 171,294 178,421
138 102,314 107,372 111,857 117,183 159,673 166,415 172,412 179,561
139 103,174 108,254 112,758 118,106 160,750 167,514 173,530 180,701
140 104,034 109,137 113,659 119,029 161,827 168,613 174,648 181,840
141 104,896 110,020 114,561 119,953 162,904 169,711 175,765 182,979
142 105,757 110,903 115,463 120,876 163,980 170,809 176,882 184,118
143 106,619 111,787 116,366 121,800 165,056 171,907 177,998 185,256
144 107,482 112,671 117,268 122,724 166,132 173,004 179,114 186,393
145 108,345 113,556 118,171 123,649 167,207 174,101 180,229 187,530
146 109,209 114,441 119,075 124,574 168,283 175,198 181,344 188,666
147 110,073 115,326 119,979 125,499 169,358 176,294 182,459 189,802
148 110,937 116,212 120,883 126,424 170,432 177,390 183,573 190,938
149 111,802 117,098 121,787 127,349 171,507 178,485 184,687 192,073
150 112,668 117,985 122,692 128,275 172,581 179,581 185,800 193,208
151 113,533 118,871 123,597 129,201 173,655 180,676 186,914 194,342
152 114,400 119,759 124,502 130,127 174,729 181,770 188,026 195,476
153 115,266 120,646 125,408 131,054 175,803 182,865 189,139 196,609
154 116,134 121,534 126,314 131,980 176,876 183,959 190,251 197,742
155 117,001 122,423 127,220 132,907 177,949 185,052 191,362 198,874
156 117,869 123,312 128,127 133,835 179,022 186,146 192,474 200,006
157 118,738 124,201 129,034 134,762 180,094 187,239 193,584 201,138
158 119,607 125,090 129,941 135,690 181,167 188,332 194,695 202,269
159 120,476 125,980 130,848 136,618 182,239 189,424 195,805 203,400
160 121,346 126,870 131,756 137,546 183,311 190,516 196,915 204,530

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 88
Tabela 4 – Limites de d e d1 no teste de 58 0,138 0,158 0,175 0,196 0,210
Kolmogorov-Smirnov, para o caso de um 59 0,137 0,156 0,174 0,194 0,208
amostra: P(D  d) =  e P[D+ (D-)  d1) = /2 60 0,136 0,155 0,172 0,193 0,207
 61 0,135 0,154 0,171 0,191 0,205
n 0,20 0,10 0,05 0,02 0,01 62 0,134 0,153 0,170 0,190 0,203
1 0,900 0,950 0,975 0,990 0,995 63 0,133 0,151 0,168 0,188 0,202
2 0,684 0,776 0,842 0,900 0,929 64 0,132 0,150 0,167 0,187 0,200
3 0,565 0,636 0,708 0,784 0,829 65 0,131 0,149 0,166 0,185 0,199
4 0,493 0,565 0,624 0,689 0,734 66 0,130 0,148 0,164 0,184 0,197
5 0,447 0,509 0,563 0,627 0,668 67 0,129 0,147 0,163 0,182 0,196
6 0,410 0,468 0,519 0,577 0,617 68 0,128 0,146 0,162 0,181 0,194
7 0,381 0,436 0,483 0,538 0,576 69 0,127 0,145 0,161 0,180 0,193
8 0,358 0,410 0,454 0,506 0,542 70 0,126 0,144 0,160 0,179 0,192
9 0,339 0,387 0,430 0,480 0,513 71 0,125 0,143 0,159 0,177 0,190
10 0,323 0,369 0,409 0,457 0,489 72 0,124 0,142 0,158 0,176 0,189
11 0,308 0,352 0,391 0,437 0,468 73 0,123 0,141 0,156 0,175 0,188
12 0,296 0,338 0,375 0,419 0,449 74 0,122 0,140 0,155 0,174 0,186
13 0,285 0,325 0,351 0,404 0,432 75 0,122 0,139 0,154 0,173 0,185
14 0,275 0,314 0,349 0,390 0,418 76 0,121 0,138 0,153 0,172 0,184
15 0,266 0,304 0,338 0,377 0,404 77 0,120 0,137 0,152 0,110 0,183
16 0,256 0,295 0,327 0,366 0,392 78 0,119 0,136 0,151 0,169 0,162
17 0,250 0,286 0,318 0,355 0,381 79 0,119 0,136 0,150 0,168 0,181
18 0,244 0,276 0,309 0,346 0,371 80 0,118 0,135 0,150 0,167 0,179
19 0,237 0,271 0,301 0,337 0,361 81 0,117 0,134 0,149 0,166 0,178
20 0,232 0,265 0,294 0,329 0,352 82 0,116 0,133 0,148 0,165 0,177
21 0,226 0,258 0,267 0,321 0,344 83 0,116 0,132 0,141 0,164 0,176
22 0,221 0,253 0,281 0,314 0,337 84 0,115 0,131 0,146 0,163 0,175
23 0,216 0,247 0,275 0,307 0,330 85 0,114 0,131 0,145 0,162 0,174
24 0,212 0,242 0,269 0,301 0,323 86 0,114 0,130 0,144 0,161 0,173
25 0,208 0,238 0,264 0,295 0,316 87 0,113 0,129 0,144 0,160 0,172
26 0,204 0,233 0,259 0,290 0,311 88 0,112 0,128 0,143 0,160 0,171
27 0,200 0,229 0,254 0,284 0,305 89 0,112 0,128 0,142 0,159 0,170
28 0,197 0,225 0,250 0,279 0,300 90 0,111 0,127 0,141 0,158 0,169
29 0,193 0,221 0,246 0,275 0,295 91 0,111 0,126 0,140 0,157 0,168
30 0,190 0,218 0,242 0,270 0,290 92 0,110 0,126 0,140 0,156 0,168
31 0,187 0,214 0,238 0,266 0,285 93 0,109 0,125 0,139 0,155 0,167
32 0,184 0,211 0,234 0,262 0,281 94 0,109 0,124 0,138 0,154 0,166
33 0,182 0,208 0,231 0,258 0,277 95 0,108 0,124 0,137 0,154 0,165
34 0,179 0,205 0,227 0,254 0,273 96 0,108 0,123 0,131 0,153 0,164
35 0,176 0,202 0,224 0,251 0,269 97 0,107 0,122 0,136 0,152 0,163
36 0,174 0,199 0,221 0,247 0,265 98 0,107 0,122 0,135 0,151 0,162
37 0,172 0,196 0,218 0,244 0,262 99 0,106 0,121 0,135 0,151 0,162
38 0,170 0,194 0,215 0,241 0,258 100 0,106 0,121 0,134 0,150 0,161
39 0,168 0,191 0,213 0,238 0,255 > 100 1,06 1,21 1,35 1,51 1,62
40 0,165 0,189 0,210 0,235 0,252 n n n n n
41 0,163 0,187 0,208 0,232 0,249
42 0,162 0,185 0,206 0,229 0,246
43 0,160 0,183 0,203 0,227 0,243
44 0,158 0,180 0,200 0,224 0,241
45 0,156 0,178 0,198 0,222 0,238
46 0,154 0,177 0,196 0,219 0,235
47 0,153 0,175 0,194 0,217 0,233
48 0,151 0,173 0,192 0,215 0,231
49 0,150 0,171 0,190 0,213 0,228
50 0,148 0,170 0,188 0,211 0,226
51 0,147 0,168 0,186 0,209 0,224
52 0,146 0,166 0,185 0,207 0,222
53 0,144 0,165 0,183 0,205 0,220
54 0,143 0,163 0,181 0,203 0,218
55 0,142 0,162 0,180 0,201 0,216
56 0,140 0,160 0,178 0,199 0,214
57 0,139 0,159 0,177 0,198 0,212

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 89
Tabela 5 – Limites superiores (d) para o teste de Lilliefors.

P(D < d) =
n 0,20 0,15 0,10 0,05 0,01
4 0,300 0,319 0,352 0,381 0,417
5 0,285 0,299 0,315 0,337 0,405
6 0,265 0,277 0,294 0,319 0,364
7 0,247 0,258 0,276 0,300 0,348
8 0,233 0,244 0,261 0,285 0,331
9 0,223 0,233 0,249 0,271 0,311
10 0,215 0,224 0,239 0,258 0,294
11 0,206 0,217 0,230 0,249 0,284
12 0,199 0,212 0223 0,242 0,275
13 0,190 0,202 0,214 0,234 0,268
14 0,183 0,194 0,207 0,227 0,261
15 0,177 0,187 0,201 0,220 0,257
16 0,173 0,182 0,195 0,213 0,250
17 0,169 0,177 0,189 0,206 0,245
18 0,166 0,173 0,184 0,200 0,239
19 0,163 0,169 0,179 0,195 0,235
20 0,160 0,108 0,174 0,190 0,231
25 0,142 0,147 0,158 0,173 0,200
30 0,131 0,136 0,144 0,161 0,187
> 30 0,736/ n 0,768/ n 0,805/ n 0,886/ n 1,031/ n

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 92
Tabela 6 - Coeficientes an-i+1 para o teste de normalidade W de Shapiro-Wilk (para n= 2 a 20)

i/n 2 3 4 5 6 7 8 9 10
1 0,7071 0,7071 0,6872 0,6646 0,6431 0,6233 0,6052 0,5888 0,5739
2 0,0000 0,1677 0,2413 0,2806 0,3031 0,3164 0,3244 0,3291
3 0,0000 0,0876 0,1401 0,1743 0,1976 0,2141
4 0,0000 0,0561 0,0947 0,1224
5 0,0000 0,0399
i/n 11 12 13 14 15 16 17 18 19 20
1 0,5601 0,5475 0,5359 0,5251 0,5150 0,5066 0,4968 0,4886 0,4808 0,4734
2 0,3315 0,3325 0,3325 0,3318 0,3306 0,3290 0,3273 0,3253 0,3232 0,3211
3 0,2260 0,2347 0,2412 0,2460 0,2495 0,2631 0,2540 0,2553 0,2561 0,2565
4 0,1429 0,1586 0,1707 0,1802 0,1878 0,1939 0,1988 0,2027 0,2059 0,2085
5 0,0695 0,0922 0,1099 0,1240 0,1363 0,1447 0,1524 0,1687 0,1641 0,1686
6 0,0000 0,0303 0,0539 0,0727 0,0860 0,1005 0,1109 0,1197 0,1271 0,1334
7 0,0000 0,0240 0,0433 0,0593 0,0725 0,0837 0,0932 0,1013
8 0,0000 0,0196 0,0359 0,0496 0,0612 0,0711
9 0,0000 0,0163 0,0303 0,0422
10 0,0000 0,0140

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 93
Tabela 7 – Valores críticos da estatística Wt de Shapiro-Wilk

Nível  de significância
Tamanho da amostra 0,01 0,05 0,10
3 0,753 0,767 0,798
4 0,687 0,748 0,792
5 0,686 0,762 0,806
6 0,713 0,788 0,826
7 0,730 0,803 0,838
8 0,749 0,818 0,851
9 0,764 0,829 0,859
10 0,781 0,842 0,869
11 0,792 0,850 0,876
12 0,805 0,859 0,883
13 0,814 0,866 0,889
14 0,825 0,874 0,895
15 0,835 0,881 0,901
16 0,844 0,887 0,906
17 0,851 0,892 0,910
18 0,858 0,897 0,914
19 0,863 0,901 0,917
20 0,868 0,905 0,920
21 0,873 0,908 0,923
22 0,878 0,911 0,926
23 0,881 0,914 0,928
24 0,884 0,916 0,930
25 0,888 0,918 0,931
26 0,891 0,920 0,933
27 0,894 0,923 0,935
28 0,896 0,924 0,936
29 0,898 0,926 0,937
30 0,900 0,927 0,939

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 94
Tabela 8 – Distribuição do total de sequências (c) em amostras de tamanho m (classe A) e n (classe B), P[C  c] = 
(m,n) c=2 c=3 c=4 c=5 c=6 c=7 c=8 c=9 c=10 c=11 c=12 c=13 c=14 c=15 c=16 c=17 c=18 c=19
(2,3) 0,200 0,500 0,900 1,000
(2,4) 0,133 0,400 0,800 1,000
(2,5) 0,095 0,333 0,714 1,000
(2,6) 0,071 0,286 0,643 1,000
(2,7) 0,056 0,250 0,583 1,000
(2,8) 0,044 0,222 0,533 1,000
(2,9) 0,036 0,200 0,491 1,000
(2,10) 0,030 0,182 0,455 1,000
3,3) 0,100 0,300 0,700 0,900 1,000
(3,4) 0,057 0,200 0,543 0,800 0,971 1,000
(3,5) 0,036 0,143 0,429 0,714 0,929 1,000
(3,6) 0,024 0,107 0,345 0,643 0,881 1,000
(3,7) 0,017 0,083 0,283 0,583 0,833 1,000
(3,8) 0,012 0,067 0,236 0,533 0,788 1,000
(3,9) 0,009 0,055 0,200 0,491 0,745 1,000
(3,10) 0,007 0,045 0,171 0,455 0,706 1,000
(4,4) 0,029 0,114 0,371 0,629 0,886 0,971 1,000
(4,5) 0,016 0,071 0,262 0,500 0,786 0,929 0,992 1,000
(4,6) 0,010 0,048 0,190 0,405 0,690 0,881 0,976 1,000
(4,7) 0,006 0,033 0,142 0,333 0,606 0,833 0,954 1,000
(4,8) 0,004 0,024 0,109 0,279 0,533 0,788 0,929 1,000
(4,9) 0,003 0,018 0,085 0,236 0,471 0,745 0,902 1,000
(4,10) 0,002 0,014 0,068 0,203 0,419 0,706 0,874 1,000
(5,5) 0,008 0,040 0,167 0,357 0,643 0,833 0,960 0,992 1,000
(5,6) 0,004 0,024 0,110 0,262 0,522 0,738 0,911 0,976 0,998 1,000
(5,7) 0,003 0,015 0,076 0,197 0,424 0,652 0,854 0,955 0,992 1,000
(5,8) 0,002 0,010 0,054 0,152 0,347 0,576 0,793 0,929 0,984 1,000
(5,9) 0,001 0,007 0,039 0,119 0,287 0,510 0,734 0,902 0,972 1,000
(5,10) 0,001 0,005 0,029 0,095 0,239 0,455 0,678 0,874 0,958 1,000
(6,6) 0,002 0,013 0,067 0,175 0,392 0,608 0,825 0,933 0,987 0,998 1,000
(6,7) 0,001 0,008 0,043 0,121 0,296 0,500 0,733 0,879 0,966 0,992 0,999 1,000
(6,8) 0,001 0,005 0,028 0,086 0,226 0,413 0,646 0,821 0,937 0,984 0,998 1,000
(6,9) 0,000 0,003 0,019 0,063 0,175 0,343 0,566 0,762 0,902 0,972 0,994 1,000
(6,10) 0,000 0,002 0,013 0,047 0,137 0,288 0,497 0,706 0,864 0,958 0,990 1,000
(7,7) 0,001 0,004 0,025 0,078 0,209 0,383 0,617 0,791 0,922 0,975 0,996 0,999 1,000
(7,8) 0,000 0,002 0,015 0,051 0,149 0,296 0,514 0,704 0,867 0,949 0,988 0,998 1,000
(7,9) 0,000 0,001 0,010 0,035 0,108 0,231 0,427 0,622 0,806 0,916 0,975 0,994 0,999 1,000
(7,10) 0,000 0,001 0,006 0,024 0,080 0,182 0,355 0,549 0,743 0,879 0,957 0,990 0,998 1,000
(8,8) 0,000 0,001 0,009 0,032 0,100 0,214 0,405 0,595 0,786 0,900 0,968 0,991 0,999 1,000 1,000
(8,9) 0,000 0,001 0,005 0,020 0,069 0,157 0,319 0,500 0,702 0,843 0,939 0,980 0,996 0,999 1,000 1,000
(8,10) 0,000 0,000 0,003 0,013 0,048 0,117 0,251 0,419 0,621 0,782 0,903 0,964 0,990 0,998 1,000 1,000
(9,9) 0,000 0,000 0,003 0,012 0,044 0,109 0,238 0,399 0,601 0,762 0,891 0,956 0,988 0,997 1,000 1,000 1,000
(9,10) 0,000 0,000 0,002 0,008 0,029 0,077 0,179 0,319 0,510 0,681 0,834 0,923 0,974 0,992 0,999 1,000 1,000 1,000
(10,10) 0,000 0,000 0,001 0,004 0,019 0,051 0,128 0,242 0,414 0,586 0,758 0,872 0,949 0,981 0,996 0,999 1,000 1,000

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 95
Tabela 9 – Limites inferior (T) e superior (T1-) da distribuição de T nas ordens assinaladas.
P(TT) = P(TT1-) = 
n T T1 -   n T T1 -  
1 0 1 0,500 16 19 117 0,005
2 0 3 0,250 20 116 0,005
3 0 6 0,125 21 115 0,007
4 0 10 0,062 22 114 0,008
1 9 0,125 23 113 0,009
5 0 15 0,031 24 112 0,011
1 14 0,062 25 111 0,012
2 13 0,094 26 110 0,014
3 12 0,156 27 109 0,017
6 0 21 0,016 28 108 0,019
1 20 0,031 29 107 0,022
2 19 0,047 30 106 0,025
3 18 0,078 31 105 0,029
4 17 0,109 32 104 0,033
5 16 0,156 33 103 0,037
7 0 28 0,008 34 102 0,042
1 27 0,016 35 101 0,047
2 26 0,023 36 100 0,052
3 25 0,039 37 99 0,058
4 24 0,055 38 98 0,065
5 23 0,078 39 97 0,072
6 22 0,109 40 96 0,080
7 21 0,148 41 95 0,088
8 0 36 0,004 42 94 0,096
1 35 0,008 43 93 0,106
2 34 0,012 44 92 0,116
3 33 0,020 45 91 0,126
4 32 0,027 46 90 0,137
5 31 0,039 17 23 130 0,005
6 30 0,055 24 129 0,005
7 29 0,074 25 128 0,006
8 28 0,098 26 127 0,007
9 27 0,125 27 126 0,009
9 1 44 0,004 28 125 0,010
2 43 0,006 29 124 0,012
3 42 0,010 30 123 0,013
4 41 0,014 31 122 0,015
5 40 0,020 32 121 0,017
6 39 0,027 33 120 0,020
7 38 0,037 34 119 0,022
8 37 0,049 35 118 0,025
9 36 0,064 36 117 0,028
10 35 0,082 37 116 0,032
11 34 0,102 38 115 0,036
12 33 0,125 39 114 0,040
10 3 52 0,005 40 113 0,044
4 51 0,007 41 112 0,049
5 50 0,010 42 111 0,054
6 49 0,014 43 110 0,060
7 48 0,019 44 109 0,066
8 47 0,024 45 108 0,073
9 46 0,032 46 107 0,080
10 45 0,042 47 106 0,087
11 44 0,053 48 105 0,095
12 43 0,065 49 104 0,103
13 42 0,080 50 103 0,112

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 96
Tabela 9 – continuação
n T T1-   n T T1- 
10 14 41 0,097 17 51 102 0,122
15 40 0,116 52 101 0,132
16 39 0,138 18 27 144 0,004
11 5 61 0,005 28 143 0,005
6 60 0,007 29 142 0,006
7 59 0,009 30 141 0,007
8 58 0,012 31 140 0,008
9 57 0,016 32 139 0,009
10 56 0,021 33 138 0,010
11 55 0,027 34 137 0,012
12 54 0,034 35 136 0,013
13 53 0,042 36 135 0,015
14 52 0,051 37 134 0,017
15 51 0,062 38 133 0,019
16 50 0,074 39 132 0,022
17 49 0,087 40 131 0,024
18 48 0,103 41 130 0,027
19 47 0,120 42 129 0,030
20 46 0,139 43 128 0,033
12 7 71 0,005 44 127 0,037
8 70 0,006 45 126 0,041
9 69 0,008 46 125 0,045
10 68 0,010 47 124 0,049
11 67 0,013 48 123 0,054
12 66 0,017 49 122 0,059
13 65 0,021 50 121 0,065
14 64 0,026 51 120 0,071
15 63 0,032 52 119 0,077
16 62 0,039 53 118 0,084
17 61 0,046 54 117 0,091
18 60 0,055 55 116 0,098
19 59 0,065 56 115 0,106
20 58 0,076 57 114 0,114
21 57 0,088 58 113 0,123
22 56 0,102 59 112 0,132
23 55 0,117 19 32 158 0,005
24 54 0,133 33 157 0,005
13 9 82 0,004 34 156 0,006
10 81 0,005 35 155 0,007
11 80 0,007 36 154 0,008
12 79 0,009 37 153 0,009
13 78 0,011 38 152 0,010
14 77 0,013 39 151 0,011
15 76 0,016 40 150 0,013
16 75 0,020 41 149 0,014
17 74 0,024 42 148 0,016
18 73 0,029 43 147 0,018
19 72 0,034 44 146 0,020
20 71 0,040 45 145 0,022
21 70 0,047 46 144 0,025
22 69 0,055 47 143 0,027
23 68 0,064 48 142 0,030
24 67 0,073 49 141 0,033
25 66 0,084 50 140 0,036
26 65 0,095 51 139 0,040
27 64 0,108 52 138 0,044
28 63 0,122 53 137 0,048

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 97
Tabela 9 – continuação
n T T1-  n T T1- 
13 29 62 0,137 19 54 136 0,052
14 12 93 0,004 55 135 0,057
13 92 0,005 56 134 0,062
14 91 0,007 57 133 0,067
15 90 0,008 58 132 0,072
16 89 0,010 59 131 0,078
17 88 0,012 60 130 0,084
18 87 0,015 61 129 0,091
19 86 0,018 62 128 0,098
20 85 0,021 63 127 0,105
21 84 0,025 64 126 0,113
22 83 0,029 65 125 0,121
23 82 0,034 66 124 0,129
24 81 0,039 20 37 173 0,005
25 80 0,045 38 172 0,005
26 79 0,052 39 171 0,006
27 78 0,059 40 170 0,007
28 77 0,068 41 169 0,008
29 76 0,077 42 168 0,009
30 75 0,088 43 167 0,010
31 74 0,097 44 166 0,011
32 73 0,108 45 165 0,012
33 72 0,121 46 164 0,013
34 71 0,134 47 163 0,015
15 15 105 0,004 48 162 0,016
16 104 0,005 49 161 0,018
17 103 0,006 50 160 0,020
18 102 0,008 51 159 0,022
19 101 0,009 52 158 0,024
20 100 0,011 53 157 0,027
21 99 0,013 54 156 0,029
22 98 0,015 55 155 0,032
23 97 0,018 56 154 0,035
24 96 0,021 57 153 0,038
25 95 0,024 58 152 0,041
26 94 0,028 59 151 0,045
27 93 0,032 60 150 0,049
28 92 0,036 61 149 0,053
29 91 0,042 62 148 0,057
30 90 0,047 63 147 0,062
31 89 0,053 64 146 0,066
32 88 0,060 65 145 0,071
33 87 0,068 66 144 0,077
34 86 0,076 67 143 0,082
35 85 0,084 68 142 0,088
36 84 0,094 69 141 0,095
37 83 0,104 70 140 0,101
38 82 0,115 71 139 0,108
39 81 0,136 72 138 0,115
73 137 0,123

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 98
Tabela 10 – Limites inferior (W) e superior (W1-) da distribuição de W no teste da soma das ordens
(Wilcoxon). P(WW) = P (WW1-) = 

n m W W1-  n m W W1- 
1 2 1 3 0,333 6 6 21 57 0,001
1 3 1 4 0,250 24 54 0,008
1 4 1 5 0,200 25 53 0,013
1 5 1 6 0,167 26 52 0,021
1 6 1 7 0,143 28 50 0,047
1 7 1 8 0,125 29 49 0,066
2 7 0,250 30 48 0,090
1 8 1 9 0,111 31 47 0,120
2 7 0,222 32 46 0,155
1 9 1 10 0,100 33 45 0,197
2 9 0,200 6 7 22 62 0,001
1 10 1 11 0,091 25 59 0,007
2 10 0,182 26 58 0,011
2 2 3 7 0,167 28 56 0,026
2 3 3 9 0,100 29 55 0,037
4 8 0,200 30 54 0,051
2 4 3 11 0,067 32 52 0,090
4 10 0,133 33 51 0,117
2 5 3 13 0,047 34 50 0,147
4 12 0,095 35 49 0,183
5 11 0,190 6 8 23 67 0,001
2 6 3 15 0,036 27 63 0,010
4 14 0,071 29 61 0,021
5 13 0,143 31 59 0,041
6 12 0,214 32 58 0,054
2 7 3 17 0,028 34 56 0,091
4 16 0,056 35 55 0,114
5 15 0,111 36 54 0,141
6 14 0,167 37 53 0,172
2 8 3 19 0,022 6 9 24 72 0,001
4 18 0,044 28 68 0,009
5 17 0,089 29 67 0,013
6 16 0,133 31 65 0,025
7 15 0,200 33 63 0,044
2 9 3 21 0,018 34 62 0,057
4 20 0,036 36 60 0,091
5 19 0,073 37 59 0,112
6 18 0,109 38 58 0,136
7 17 0,164 39 57 0,164
8 16 0,218 40 56 0,194
2 10 3 23 0,015 6 10 25 77 0,001
4 22 0,030 29 73 0,008
5 21 0,061 30 72 0,011
6 20 0,091 33 69 0,028
7 19 0,136 35 67 0,047
8 18 0,182 36 66 0,059
3 3 6 15 0,050 38 64 0,090
7 14 0,100 40 62 0,132
8 13 0,200 41 61 0,157
3 4 6 18 0,028 42 60 0,184
7 17 0,057 7 7 30 75 0,001
8 16 0,114 34 71 0,009
9 15 0,200 35 70 0,013
3 5 6 21 0,018 37 68 0,027

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 99
Tabela 10 – continuação
n m W W1-  n m W W1- 
3 5 7 20 0,036 7 7 39 66 0,049
8 19 0,071 40 65 0,064
9 18 0,125 41 64 0,082
10 17 0,196 42 63 0,104
3 6 6 24 0,012 43 62 0,130
7 23 0,024 44 61 0,159
8 22 0,048 45 60 0,191
9 21 0,083 7 8 31 81 0,001
10 20 0,131 36 76 0,010
11 19 0,190 39 73 0,027
3 7 6 27 0,008 41 71 0,047
7 26 0,017 42 70 0,060
8 25 0,033 44 68 0,095
9 24 0,058 45 67 0,116
10 23 0,092 46 66 0,140
11 22 0,133 47 65 0,168
12 21 0,192 48 64 0,198
3 8 7 29 0,012 7 9 32 87 0,001
8 28 0,024 37 82 0,008
9 27 0,042 38 81 0,011
10 26 0,067 41 78 0,027
11 25 0,097 43 76 0,045
12 24 0,139 44 75 0,057
13 23 0,188 46 73 0,087
3 9 6 33 0,005 47 72 0,105
7 32 0,009 48 71 0,126
8 31 0,018 49 70 0,150
10 29 0,050 50 69 0,175
11 28 0,073 7 10 34 92 0,001
12 27 0,105 39 87 0,009
13 26 0,141 40 86 0,012
14 25 0,186 43 83 0,026
3 10 6 36 0,003 45 81 0,044
7 35 0,007 46 80 0,054
8 34 0,014 49 77 0,097
9 33 0,024 50 76 0,115
10 32 0,038 51 75 0,135
11 31 0,056 53 73 0,182
12 30 0,080 8 8 41 95 0,001
13 29 0,108 46 90 0,010
14 28 0,143 49 87 0,025
15 27 0,185 51 85 0,041
4 4 10 26 0,014 52 84 0,052
11 25 0,029 55 81 0,097
12 24 0,057 56 80 0,117
13 23 0,100 57 79 0,139
14 22 0,171 58 78 0,164
4 5 10 30 0,008 59 77 0,191
11 29 0,016 8 9 42 102 0,001
12 28 0,032 48 96 0,010
13 27 0,056 51 93 0,023
14 26 0,095 54 90 0,046
15 25 0,143 55 89 0,057
16 24 0,206 58 86 0,100
4 6 10 34 0,005 60 84 0,138
11 33 0,010 61 83 0,161
12 32 0,019 62 82 0,185

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 100
Tabela 10 – continuação
n m W W1-  n m W W1- 
4 6 13 31 0,033 8 10 43 109 0,001
14 30 0,057 50 102 0,010
15 29 0,086 54 98 0,027
16 28 0,129 56 96 0,042
17 27 0,176 57 95 0,051
4 7 10 38 0,003 60 92 0,086
11 37 0,006 61 91 0,102
12 36 0,012 63 89 0,137
13 35 0,021 64 88 0,158
14 34 0,036 65 87 0,180
15 33 0,055 9 9 53 118 0,001
16 32 0,082 59 112 0,009
17 31 0,115 60 111 0,012
18 30 0,158 63 108 0,025
19 29 0,206 66 105 0,047
4 8 10 42 0,002 67 104 0,057
12 40 0,008 70 101 0,095
14 38 0,024 71 100 0,111
15 37 0,036 73 98 0,149
16 36 0,055 75 96 0,193
17 35 0,077 9 10 55 125 0,001
18 34 0,107 61 119 0,009
19 33 0,141 62 118 0,011
20 32 0,184 66 114 0,027
4 9 10 46 0,001 69 111 0,047
13 43 0,010 70 110 0,056
15 41 0,025 73 107 0,091
16 40 0,038 74 106 0,106
17 39 0,053 76 104 0,139
18 37 0,099 77 103 0,158
20 36 0,130 79 101 0,200
21 35 0,165 10 10 67 143 0,001
22 34 0,207 74 136 0,009
4 10 10 50 0,001 75 135 0,012
13 47 0,007 79 131 0,026
14 46 0,012 82 128 0,045
16 44 0,026 83 127 0,053
17 43 0,038 87 123 0,095
18 42 0,053 88 122 0,109
20 40 0,094 90 120 0,140
21 39 0,120 91 119 0,157
22 38 0,152 92 118 0,176
23 37 0,187 93 117 0,197
5 5 15 40 0,004
16 39 0,008
17 38 0,016
18 37 0,028
19 36 0,048
20 35 0,075
21 34 0,111
22 33 0,155
5 6 15 45 0,002
17 43 0,009
18 42 0,015
19 41 0,026
20 40 0,041
21 39 0,063

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 101
Tabela 10 – continuação
n m W W1- 
5 6 22 38 0,089
23 37 0,123
24 36 0,165
5 7 15 50 0,001
18 47 0,009
19 46 0,015
20 45 0,024
21 44 0,037
22 43 0,053
23 42 0,074
24 41 0,101
25 40 0,134
26 39 0,172
5 8 15 55 0,001
19 51 0,009
20 50 0,015
21 49 0,023
23 47 0,047
24 46 0,064
25 45 0,085
26 44 0,111
27 43 0,142
28 42 0,177
5 9 16 59 0,001
20 55 0,009
21 54 0,014
22 53 0,021
24 51 0,041
25 50 0,056
27 48 0,095
28 47 0,120
29 46 0,149
30 45 0,182
5 10 16 64 0,001
21 59 0,010
24 56 0,028
26 54 0,050
28 52 0,082
29 51 0,103
31 49 0,155
32 48 0,185

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 102
Tabela 11 – Valores críticos de d, no teste de Kolmogorov-Smirnov de duas amostras.
Pequenas amostras (N < 40)
Unilateral Bilateral
N 0,05 0,01 0,05 0,01
3 3
4 4 4
5 4 5 5 6
6 5 6 5 6
7 5 6 6 6
8 5 6 6 7
9 6 7 6 7
10 6 7 7 8
11 6 8 7 8
12 6 8 7 8
13 7 8 7 9
14 7 8 8 9
15 7 9 8 9
16 7 9 8 10
17 8 9 8 10
18 8 10 9 10
19 8 10 9 10
20 8 10 9 11
21 8 10 9 11
22 9 11 9 11
23 9 11 10 11
24 9 11 10 12
25 9 11 10 12
26 9 11 10 12
27 9 12 10 12
28 10 12 11 13
29 10 12 11 13
30 10 12 11 13
35 11 13 12
40 11 14 13
Grandes amostras
0,05 0,01
n1  n 2 n1  n 2
1,73 1,95
n1n 2 n1n 2

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 103
Tabela 12 – Limites unilaterais de W no teste de Ansari-Bradley: Po (W  w) = 

m n w  m n w  m n w 
2 2 4 0,167 4 13 24 0,166 6 13 38 0,155
2 3 5 0,200 25 0,115 39 0,117
2 4 6 0,067 26 0,076 40 0,080
2 5 7 0,095 27 0,047 41 0,061
2 6 7 0,179 28 0,028 42 0,042
8 0,036 29 0,015 43 0,027
2 7 8 0,139 30 0,007 44 0,017
9 0,056 32 0,001 45 0,010
2 8 9 0,111 4 14 25 0,176 49 0,001
10 0,022 26 0,126 6 14 39 0,186
2 9 9 0,200 27 0,086 40 0,145
10 0,091 28 0,056 41 0,110
11 0,036 29 0,034 42 0,082
2 10 10 0,152 30 0,020 43 0,059
11 0,070 31 0,010 44 0,041
12 0,015 33 0,002 45 0,028
2 11 11 0,141 4 15 26 0,195 47 0,011
12 0,064 27 0,145 48 0,006
13 0,026 28 0,104 51 0,001
2 12 11 0,198 29 0,071 7 7 32 0,189
12 0,110 30 0,047 33 0,177
13 0,055 31 0,029 34 0,080
14 0,011 32 0,017 35 0,047
2 13 12 0,171 33 0,009 36 0,026
13 0,105 36 0,001 37 0,012
14 0,048 4 16 28 0,155 38 0,005
15 0,019 29 0,113 40 0,001
2 14 13 0,150 30 0,080 7 8 35 0,148
14 0,083 31 0,054 36 0,100
15 0,042 32 0,035 37 0,065
16 0,008 33 0,022 38 0,039
2 15 14 0,132 34 0,012 39 0,022
15 0,081 35 0,006 40 0,012
16 0,037 37 0,001 41 0,005
17 0,015 5 5 18 0,151 43 0,001
2 16 14 0,176 19 0,071 7 9 37 0,148
15 0,118 20 0,024 38 0,104
16 0,065 21 0,008 39 0,069
17 0,033 5 6 20 0,134 40 0,044
18 0,006 21 0,069 41 0,027
2 17 15 0,164 22 0,030 42 0,015
16 0,105 23 0,011 43 0,008
17 0,064 24 0,002 46 0,001
18 0,029 5 7 21 0,167 7 10 39 0,163
19 0,012 22 0,098 40 0,120
2 18 16 0,142 23 0,050 41 0,085
17 0,095 24 0,023 42 0,058
18 0,053 25 0,008 43 0,038
19 0,026 26 0,002 44 0,023
20 0,005 5 8 23 0,151 45 0,014
3 3 8 0,100 24 0,092 46 0,008
3 4 9 0,143 25 0,051 49 0,001
10 0,029 26 0,025 7 11 41 0,163
3 5 10 0,107 27 0,011 42 0,122
11 0,036 28 0,004 43 0,088
3 6 11 0,143 29 0,001 44 0,062
12 0,060 5 9 24 0,179 45 0,042

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 104
Tabela 12 - continuação...
m n w  m n w  m n w 
3 6 13 0,012 5 9 25 0,118 7 11 46 0,027
3 7 12 0,133 26 0,071 47 0,017
13 0,050 27 0,040 48 0,010
14 0,017 28 0,020 51 0,001
3 8 13 0,146 29 0,009 7 12 43 0,175
14 0,073 31 0,001 44 0,135
15 0,030 5 10 26 0,161 45 0,101
16 0,006 27 0,109 46 0,074
3 9 14 0,136 28 0,069 47 0,053
15 0,073 29 0,041 48 0,036
16 0,027 30 0,022 49 0,024
17 0,009 31 0,011 50 0,015
3 10 15 0,150 32 0,005 51 0,009
16 0,084 33 0,002 55 0,001
17 0,042 5 11 27 0,187 7 13 45 0,174
18 0,018 28 0,132 46 0,136
19 0,004 29 0,088 47 0,104
3 11 16 0,143 30 0,056 48 0,078
17 0,082 31 0,033 49 0,056
18 0,044 32 0,018 50 0,040
19 0,016 33 0,009 51 0,027
20 0,006 35 0,001 53 0,012
3 12 17 0,152 5 12 29 0,169 54 0,007
18 0,094 30 0,121 57 0,001
19 0,053 31 0,084 8 8 41 0,175
20 0,026 32 0,055 42 0,126
21 0,011 33 0,034 43 0,087
22 0,002 34 0,020 44 0,057
3 13 18 0,146 35 0,011 45 0,036
19 0,093 36 0,005 46 0,021
20 0,054 38 0,001 47 0,012
21 0,029 5 13 30 0,192 49 0,006
22 0,011 31 0,143 50 0,001
23 0,004 32 0,102 8 9 44 0,156
3 14 19 0,153 33 0,070 45 0,114
20 0,102 34 0,046 46 0,081
21 0,063 35 0,029 47 0,055
22 0,035 36 0,017 48 0,036
23 0,018 37 0,009 49 0,022
24 0,007 40 0,001 50 0,013
25 0,002 5 14 32 0,175 51 0,007
3 15 20 0,150 33 0,132 54 0,001
21 0,100 34 0,096 8 10 46 0,167
22 0,064 35 0,068 47 0,126
23 0,037 36 0,046 48 0,092
24 0,020 37 0,029 49 0,066
25 0,007 38 0,018 50 0,045
26 0,002 39 0,010 51 0,030
3 16 21 0,155 42 0,001 53 0,011
22 0,107 5 15 33 0,196 54 0,006
23 0,071 34 0,152 57 0,001
24 0,044 35 0,114 8 11 48 0,192
25 0,025 36 0,083 49 0,150
26 0,012 37 0,058 50 0,115
27 0,005 38 0,040 51 0,086
28 0,001 39 0,026 52 0,062
3 17 22 0,151 40 0,016 53 0,044
23 0,107 41 0,009 55 0,020

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 105
Tabela 12 - continuação...
m n w  m n w  m n w 
3 17 24 0,072 5 15 44 0,001 8 11 56 0,012
25 0,046 6 6 25 0,134 57 0,006
26 0,026 26 0,074 60 0,001
27 0,014 27 0,037 8 12 51 0,161
28 0,005 28 0,015 52 0,126
29 0,002 29 0,005 53 0,096
4 4 12 0,200 30 0,001 55 0,052
13 0,071 6 7 27 0,141 56 0,037
14 0,014 28 0,085 57 0,026
4 5 14 0,135 29 0,048 59 0,011
15 0,048 30 0,024 60 0,007
16 0,016 31 0,010 63 0,001
4 6 15 0,143 33 0,001 9 9 51 0,169
16 0,067 6 8 28 0,186 52 0,128
17 0,024 29 0,125 53 0,094
18 0,005 30 0,078 54 0,067
4 7 16 0,194 31 0,045 55 0,046
17 0,106 32 0,024 56 0,030
18 0,052 33 0,011 58 0,012
19 0,018 34 0,005 59 0,007
20 0,006 35 0,002 62 0,001
4 8 18 0,121 6 9 30 0,186 9 10 54 0,163
19 0,061 31 0,130 55 0,126
20 0,028 32 0,086 56 0,095
21 0,010 33 0,054 58 0,050
22 0,002 34 0,031 60 0,023
4 9 19 0,154 35 0,017 61 0,015
20 0,092 36 0,008 62 0,009
21 0,049 38 0,001 66 0,001
22 0,024 6 10 32 0,168 9 11 56 0,184
23 0,008 33 0,119 57 0,146
24 0,003 34 0,080 58 0,114
4 10 20 0,116 35 0,051 59 0,087
21 0,104 36 0,031 60 0,064
22 0,060 37 0,018 61 0,047
23 0,030 38 0,009 63 0,023
24 0,014 41 0,001 65 0,010
25 0,005 6 11 34 0,168 69 0,001
26 0,001 35 0,123 10 10 62 0,166
4 11 21 0,193 36 0,086 63 0,131
22 0,132 37 0,058 64 0,101
23 0,082 38 0,037 65 0,076
24 0,048 39 0,023 66 0,056
25 0,026 40 0,013 67 0,040
26 0,012 41 0,007 68 0,028
27 0,004 44 0,001 70 0,013
28 0,002 6 12 36 0,155 71 0,006
4 12 23 0,142 37 0,114 75 0,001
24 0,093 38 0,081
25 0,057 39 0,056
26 0,033 40 0,036
27 0,016 41 0,023
28 0,008 42 0,014
30 0,001 43 0,008
46 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 106
Tabela 13 – Limites unilaterais de w no teste de Ansari - Bradley, P(W  w) = 

m n w  m n w  m n w 
2 2 2 0,167 4 13 14 0,159 6 13 25 0,149
2 3 2 0,100 13 0,109 24 0,111
2 4 2 0,067 12 0,071 23 0,081
2 5 2 0,048 11 0,044 22 0,057
2 6 3 0,179 10 0,025 21 0,039
2 0,036 9 0,013 20 0,025
2 7 3 0,139 8 0,006 19 0,016
2 0,028 7 0,002 18 0,009
2 8 3 0,111 4 14 15 0,176 15 0,001
2 0,022 14 0,126 6 14 21 0,186
2 9 4 0,182 13 0,086 26 0,145
3 0,091 12 0,056 25 0,110
2 0,018 11 0,034 24 0,082
2 10 4 0,152 10 0,020 23 0,059
3 0,076 9 0,010 22 0,041
2 0,015 7 0,002 21 0,028
2 11 4 0,128 4 15 16 0,190 19 0,011
3 0,064 15 0,140 18 0,006
2 0,013 14 0,100 15 0,001
2 12 5 0,198 13 0,066 7 7 24 0,189
4 0,110 12 0,044 23 0,127
3 0,055 11 0,027 22 0,080
2 0,011 10 0,016 21 0,047
2 13 5 0,171 9 0,008 20 0,026
4 0,095 7 0,001 19 0,012
3 0,048 4 16 16 0,155 18 0,005
2 0,010 15 0,113 16 0,001
2 14 5 0,150 14 0,080 7 8 25 0,162
4 0,083 13 0,054 24 0,112
3 0,042 12 0,035 23 0,073
2 0,008 11 0,022 22 0,045
2 15 6 0,198 10 0,012 21 0,026
5 0,137 9 0,006 20 0,014
4 0,073 7 0,001 19 0,006
3 0,037 5 5 12 0,151 17 0,001
2 0,007 11 0,071 7 9 26 0,148
2 16 6 0,176 10 0,024 25 0,104
5 0,118 9 0,008 24 0,069
4 0,065 5 6 13 0,158 23 0,044
3 0,033 12 0,064 22 0,027
2 0,006 11 0,039 21 0,015
2 17 6 0,158 10 0,013 20 0,008
5 0,105 9 0,004 17 0,001
4 0,058 5 7 14 0,167 7 10 28 0,178
3 0,029 13 0,098 27 0,132
2 0,006 12 0,050 26 0,094
2 18 6 0,142 11 0,023 25 0,065
5 0,095 10 0,008 24 0,043
4 0,053 9 0,002 23 0,027
3 0,026 5 8 15 0,172 22 0,016
2 0,005 14 0,105 21 0,009
3 3 4 0,100 13 0,061 18 0,001
3 4 5 0,171 12 0,031 7 11 29 0,163
4 0,057 11 0,014 28 0,122
3 5 5 0,107 10 0,005 27 0,088
4 0,036 9 0,002 26 0,062
3 6 6 0,190 5 9 16 0,179 25 0,042
5 0,071 15 0,118 24 0,027

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 107
Tabela 13 – continuação
m n w  m n w  m n w 
3 6 4 0,024 5 9 14 0,071 7 11 23 0,017
3 7 6 0,133 13 0,040 22 0,010
5 0,050 12 0,020 19 0,001
4 0,017 11 0,009 7 12 31 0,389
3 8 7 0,192 9 0,001 30 0,147
6 0,097 5 10 17 0,187 29 0,111
5 0,036 16 0,124 28 0,082
4 0,012 15 0,080 27 0,058
3 9 7 0,136 14 0,038 26 0,040
6 0,073 13 0,027 25 0,021
5 0,027 12 0,013 23 0,011
4 0,009 11 0,005 22 0,006
3 10 8 0,182 9 0,001 19 0,001
7 0,105 5 11 18 0,187 7 13 32 0,174
6 0,056 17 0,132 31 0,136
5 0,021 16 0,088 30 0,104
4 0,007 15 0,056 29 0,078
3 11 8 0,143 14 0,033 28 0,056
7 0,082 13 0,018 27 0,040
6 0,044 12 0,009 26 0,027
5 0,016 10 0,001 24 0,012
4 0,006 5 12 19 0,188 23 0,007
3 12 9 0,180 10 0,137 20 0,001
8 0,114 17 0,095 8 8 31 0,175
7 0,066 16 0,063 30 0,126
6 0,035 15 0,040 29 0,087
5 0,013 14 0,023 28 0,057
4 0,004 13 0,013 27 0,036
3 13 9 0,146 12 0,006 26 0,021
8 0,093 10 0,001 25 0,012
7 0,054 5 13 20 0,192 24 0,006
6 0,029 19 0,143 22 0,001
5 0,011 18 0,102 8 9 33 0,193
4 0,004 17 0,070 32 0,145
3 14 9 0,121 16 0,046 31 0,105
8 0,076 15 0,029 30 0,074
7 0,054 14 0,017 29 0,050
6 0,024 13 0,009 27 0,020
5 0,009 10 0,001 26 0,011
4 0,003 5 14 21 0,193 25 0,006
3 15 10 0,150 20 0,147 23 0,001
9 0,100 19 0,108 8 10 34 0,167
8 0,064 18 0,076 33 0,126
7 0,037 17 0,052 32 0,092
6 0,020 16 0,034 31 0,066
5 0,007 15 0,021 30 0,045
4 0,002 14 0,012 29 0,030
3 16 11 0,178 13 0,007 27 0,011
10 0,126 11 0,002 26 0,006
9 0,086 5 15 22 0,196 23 0,001
8 0,054 21 0,152 8 11 36 0,183
7 0,031 20 0,114 35 0,142
6 0,016 19 0,083 34 0,112
5 0,006 18 0,058 33 0,080
4 0,002 17 0,040 32 0,058
3 17 11 0,151 16 0,026 31 0,040
10 0,107 15 0,016 30 0,027
9 0,072 14 0,009 28 0,011
8 0,046 11 0,001 27 0,007
7 0,026 6 6 17 0,134 24 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 108
Tabela 13 – continuação
m n w  m n w  m n w 
3 17 6 0,014 6 6 16 0,074 8 12 37 0,161
5 0,006 15 0,037 36 0,126
4 0,002 14 0,015 35 0,096
4 4 8 0,200 13 0,005 33 0,052
7 0,071 12 0,001 32 0,037
6 0,014 6 7 19 0,195 31 0,026
4 5 8 0,111 18 0,126 29 0,011
7 0,040 17 0,076 28 0,007
6 0,008 16 0,041 25 0,001
4 6 9 0,143 15 0,021 9 9 39 0,169
8 0,167 14 0,008 38 0,128
7 0,024 12 0,001 37 0,094
6 0,005 6 8 20 0,186 36 0,067
4 7 10 0,176 19 0,125 35 0,046
9 0,091 18 0,078 34 0,030
8 0,042 17 0,045 32 0,012
7 0,015 16 0,024 31 0,007
6 0,003 15 0,011 28 0,001
4 8 10 0,121 14 0,005 9 10 41 0,174
9 0,061 13 0,002 40 0,135
8 0,028 6 9 21 0,174 39 0,103
7 0,010 20 0,120 38 0,076
6 0,002 19 0,078 37 0,055
4 9 11 0,143 18 0,048 36 0,038
10 0,084 17 0,028 35 0,026
9 0,042 16 0,014 33 0,011
8 0,020 15 0,007 32 0,006
7 0,007 13 0,001 29 0,001
6 0,001 6 10 22 0,168 9 11 43 0,184
4 10 12 0,166 21 0,119 42 0,146
11 0,104 20 0,080 41 0,114
10 0,060 19 0,051 40 0,087
9 0,030 18 0,031 39 0,064
8 0,014 17 0,018 38 0,047
7 0,005 16 0,009 36 0,023
6 0,001 13 0,001 34 0,010
4 11 13 0,185 6 11 23 0,159 30 0,001
12 0,123 22 0,115 10 10 48 0,166
11 0,076 21 0,080 47 0,131
10 0,044 20 0,053 46 0,101
9 0,022 19 0,034 45 0,076
8 0,010 18 0,020 44 0,056
7 0,004 17 0,011 43 0,040
6 0,001 16 0,006 42 0,028
4 12 13 0,142 13 0,001 40 0,013
12 0,093 6 12 24 0,155 39 0,008
11 0,057 23 0,113 35 0,001
10 0,033 22 0,081
9 0,016 21 0,056
8 0,008 20 0,036
6 0,001 19 0,023
18 0,014
17 0,008
14 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 109
 n(n  1) 
Tabela 14 – Limites inferiores de K no teste de Kendall. P(K  K) = P(K  K) = P  K   K = 
 2 
n
K 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 0,167 0,042 0,008 0,001 0,000
1 0,500 0,167 0,042 0,008 0,001 0,000
2 0,375 0,117 0,028 0,005 0,001
3 0,625 0,242 0,068 0,015 0,003 0,000
4 0,408 0,136 0,035 0,007 0,001
5 0,592 0,235 0,068 0,016 0,003 0,000
6 0,360 0,119 0,031 0,006 0,001
7 0,500 0,191 0,054 0,012 0,002 0,000
8 0,281 0,089 0,022 0,005 0,001
9 0,386 0,138 0,038 0,008 0,002
10 0,500 0,199 0,060 0,014 0,003 0,000
11 0,274 0,090 0,023 0,005 0,001
12 0,360 0,130 0,036 0,008 0,002
13 0,452 0,179 0,054 0,013 0,003 0,000
14 0,548 0,238 0,078 0,020 0,004 0,001
15 0,306 0,108 0,030 0,007 0,001
16 0,381 0,146 0,043 0,010 0,002 0,000
17 0,460 0,190 0,060 0,016 0,003 0,001
18 0,540 0,242 0,082 0,022 0,005 0,001
19 0,300 0,109 0,031 0,007 0,002
20 0,364 0,141 0,043 0,011 0,002 0,000
21 0,431 0,179 0,058 0,015 0,003 0,001
22 0,500 0,223 0,076 0,021 0,005 0,001
23 0,271 0,098 0,029 0,007 0,001
24 0,324 0,125 0,038 0,010 0,002 0,000
25 0,381 0,155 0,050 0,013 0,003 0,001
26 0,440 0,190 0,064 0,018 0,004 0,001
27 0,500 0,230 0,082 0,024 0,006 0,001
28 0,273 0,102 0,031 0,008 0,002
29 0,319 0,126 0,040 0,010 0,002 0,000
30 0,369 0,153 0,050 0,014 0,003 0,001
31 0,420 0,184 0,063 0,018 0,004 0,001
32 0,473 0,218 0,079 0,023 0,006 0,001
33 0,527 0,255 0,096 0,029 0,008 0,002
34 0,295 0,117 0,037 0,010 0,002 0,000
35 0,338 0,140 0,046 0,013 0,003 0,001
36 0,383 0,165 0,057 0,016 0,004 0,001
37 0,429 0,194 0,070 0,021 0,005 0,001
38 0,476 0,225 0,084 0,026 0,007 0,001
39 0,524 0,259 0,101 0,032 0,009 0,002 0,000
40 0,295 0,120 0,039 0,011 0,003 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 110
Tabela 14 – continuação .......
n
K 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
41 0,334 0,141 0,048 0,014 0,003 0,001
42 0,374 0,164 0,058 0,017 0,004 0,001
43 0,415 0,190 0,070 0,021 0,005 0,001
44 0,457 0,218 0,083 0,026 0,007 0,002
45 0,500 0,248 0,097 0,032 0,009 0,002 0,000
46 0,279 0,114 0,038 0,011 0,003 0,001
47 0,313 0,133 0,046 0,013 0,003 0,001
48 0,349 0,153 0,054 0,016 0,004 0,001
49 0,385 0,175 0,064 0,020 0,005 0,001
50 0,423 0,199 0,076 0,024 0,006 0,002
51 0,461 0,225 0,088 0,029 0,008 0,002
52 0,500 0,253 0,102 0,034 0,010 0,002
53 0,282 0,118 0,041 0,012 0,003
54 0,313 0,135 0,048 0,014 0,004
55 0,345 0,154 0,056 0,017 0,005
56 0,378 0,174 0,066 0,021 0,006
57 0,412 0,196 0,076 0,025 0,007
58 0,447 0,220 0,088 0,029 0,008
59 0,482 0,245 0,100 0,034 0,010
60 0,518 0,271 0,115 0,040 0,012
61 0,299 0,130 0,047 0,014
62 0,328 0,147 0,054 0,017
63 0,358 0,165 0,062 0,020
64 0,388 0,184 0,072 0,023
65 0,420 0,205 0,082 0,027
66 0,452 0,227 0,093 0,032
67 0,484 0,250 0,105 0,037
68 0,516 0,275 0,119 0,043
69 0,300 0,133 0,049
70 0,327 0,149 0,056
71 0,354 0,166 0,064
72 0,383 0,184 0,073
73 0,411 0,203 0,082
74 0,441 0,223 0,093
75 0,470 0,245 0,104
76 0,500 0,267 0,117
77 0,290 0,130
78 0,314 0,144
79 0,339 0,159
80 0,365 0,176

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 111
Tabela 14 – continuação .......

n
K 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
81 0,391 0,193
82 0,418 0,211
83 0,445 0,230
84 0,473 0,250
85 0,500 0,271
86 0,293
87 0,315
88 0,339
89 0,362
90 0,387
91 0,411
92 0,436
93 0,462
94 0,487
95 0,513

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 112
Tabela 15 – Limites unilaterais de r no teste de correlação de Spearman.
P(r  ro) = 

n 0,10 0,05 0,025 0,010 0,005 0,001


4 0,800 0,800
5 0,700 0,800 0,900 0,900
6 0,600 0,771 0,829 0,886 0,943
7 0,536 0,679 0,745 0,847 0,893 0,964
8 0,500 0,619 0,714 0,810 0,857 0,929
9 0,467 0,583 0,683 0,767 0,817 0,900
10 0,442 0,512 0,636 0,733 0,782 0,867
11 0,418 0,527 0,609 0,700 0,746 0,836
12 0,399 0,497 0,580 0,671 0,727 0,818
13 0,379 0,478 0,555 0,643 0,698 0,791
14 0,363 0,459 0,534 0,622 0,675 0,767
15 0,350 0,443 0,518 0,600 0,654 0,746
16 0,338 0,427 0,500 0,582 0,632 0,127
17 0,326 0,412 0,485 0,564 0,615 0,708
18 0,315 0,399 0,472 0,548 0,598 0,690
19 0,307 0,390 0,458 0,533 0,583 0,674
20 0,298 0,379 0,445 0,520 0,568 0,659
21 0,291 0,369 0,435 0,508 0,555 0,646
22 0,283 0,360 0,424 0,496 0,543 0,632
23 0,277 0,352 0,415 0,485 0,531 0,619
24 0,270 0,344 0,406 0,475 0,520 0,607
25 0,265 0,336 0,398 0,465 0,510 0,596
26 0,259 0,330 0,389 0,456 0,500 0,586
27 0,254 0,324 0,382 0,448 0,492 0,576
28 0,249 0,318 0,375 0,440 0,483 0,566
29 0,244 0,311 0,369 0,432 0,474 0,557
30 0,240 0,306 0,362 0,425 0,467 0,548

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 113
Tabela 16 – Limites da distribuição de H no teste de Kruskal-Wallis (K=3), com n1  n2  n3  6.
P(H  h) = 
n1 n2 n3 h  n1 n2 n3 h  n1 n2 n3 h 
1 1 4 3,571 0,200 2 4 5 3,364 0,200 3 5 6 5,554 0,052
1 1 5 3,857 0,143 4,518 0,101 5,600 0,050
1 2 2 3,600 0,200 4,541 0,098 6,621 0,026
1 2 3 3,524 0,200 5,260 0,051 6,967 0,024
4,286 0,100 5,273 0,049 7,560 0,010
1 2 4 3,161 0,190 6,504 0,020 7,590 0,010
4,018 0,114 7,118 0,010 3 6 6 5,600 0,052
4,821 0,057 7,500 0,007 5,625 0,050
1 2 5 3,333 0,190 7,573 0,005 6,683 0,025
4,200 0,095 8,114 0,001 6,725 0,025
5,000 0,048 2 4 6 5,263 0,050 7,683 0,010
5,250 0,036 5,340 0,049 7,725 0,010
1 3 3 3,286 0,157 6,109 0,025 4 4 4 3,231 0,212
4,200 0,095 6,186 0,024 3,500 0,197
5,000 0,048 7,212 0,011 3,846 0,151
5,250 0,036 7,340 0,010 3,962 0,145
1 3 3 3,286 0,157 2 5 5 3,369 0,203 4,500 0,104
4,571 0,100 3,392 0,198 4,654 0,097
5,143 0,043 4,508 0,100 5,115 0,074
1 3 4 3,208 0,200 5,246 0,051 5,654 0,055
4,056 0,093 5,338 0,047 5,692 0,049
5,208 0,050 6,346 0,025 6,577 0,026
5,833 0,021 6,446 0,020 6,615 0,024
1 3 5 3,218 0,190 7,269 0,010 6,731 0,021
4,018 0,095 7,762 0,007 6,962 0,019
4,871 0,052 8,131 0,005 7,538 0,011
4,960 0,048 8,685 0,001 7,731 0,007
6,400 0,012 2 5 6 5,319 0,050 8,000 0,005
1 4 4 3,000 0,222 5,338 0,047 8,346 0,002
3,267 0,178 6,189 0,026 8,654 0,001
4,067 0,102 6,196 0,025 9,269 0,001
4,867 0,054 7,299 0,010 4 4 5 3,330 0,200
4,967 0,048 7,376 0,010 3,828 0,151
6,667 0,010 2 6 6 5,352 0,051 4,619 0,100
1 4 5 3,000 0,200 5,410 0,050 5,014 0,076
3,087 0,194 6,171 0,026 5,024 0,074
3,960 0,102 6,210 0,024 5,618 0,050
3,087 0,098 7,410 0,010 6,597 0,026
4,860 0,056 7,467 0,010 6,676 0,024
4,986 0,044 3 3 3 3,467 0,196 6,943 0,020
6,840 0,011 4,622 0,100 7,744 0,011
6,954 0,008 5,600 0,050 7,760 0,009
7,364 0,005 5,956 0,025 7,810 0,009
1 5 5 2,946 0,227 6,489 0,011 8,140 0,005
3,236 0,188 7,200 0,004 8,189 0,005
4,036 0,105 3 3 4 3,391 0,196 8,782 0,002
4,109 0,086 3,830 0,150 8,997 0,001
4,909 0,053 4,700 0,101 9,590 0,001
5,127 0,046 4,709 0,092 4 4 6 5,667 0,050
6,836 0,011 5,727 0,050 5,881 0,049
7,309 0,009 6,154 0,025 6,595 0,026
7,746 0,005 6,746 0,010 6,657 0,025
8,182 0,002 7,000 0,006 7,724 0,010
2 2 2 3,714 0,200 7,318 0,004 7,795 0,010
4,571 0,067 7,436 0,002 4 5 5 3,311 0,200

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 114
Tabela 16 – continuação .....
n1 n2 n3 h  n1 n2 n3 h  n1 n2 n3 h 
2 2 3 3,750 0,219 3 3 4 8,018 0,001 4 5 5 3,846 0,151
3,929 0,181 3 3 5 3,394 0,209 3,883 0,148
4,464 0,105 3,442 0,196 4,520 0,101
4,500 0,067 4,412 0,109 4,523 0,099
4,714 0,048 4,533 0,097 5,023 0,075
5,357 0,029 5,515 0,051 5,643 0,050
2 2 4 3,458 0,210 5,648 0,049 6,671 0,025
3,667 0,190 6,303 0,026 6,760 0,025
4,458 0,100 6,376 0,020 6,943 0,020
5,125 0,052 6,982 0,011 7,766 0,010
5,500 0,024 7,079 0,009 7,860 0,010
6,000 0,014 7,467 0,008 8,226 0,007
2 2 5 3,333 0,209 7,515 0,005 8,371 0,005
3,360 0,196 8,048 0,002 8,543 0,005
4,203 0,122 8,242 0,001 9,163 0,002
4,373 0,090 8,727 0,001 9,323 0,001
5,040 0,056 3 3 6 5,551 0,051 9,926 0,001
6,133 0,013 5,615 0,050 4 5 6 5,656 0,051
6,533 0,008 6,385 0,025 5,661 0,050
2 2 6 5,038 0,050 6,436 0,022 6,736 0,025
5,345 0,038 7,192 0,010 6,750 0,025
5,527 0,036 7,410 0,008 7,896 0,010
5,745 0,021 3 4 4 3,394 0,201 7,936 0,010
6,545 0,011 3,417 0,195 4 6 6 5,721 0,050
6,654 0,008 3,848 0,150 5,724 0,050
2 3 3 3,778 0,200 4,477 0,102 6,783 0,025
4,556 0,100 4,546 0,099 6,832 0,024
5,139 0,061 5,576 0,051 7,989 0,010
5,556 0,025 5,598 0,049 8,000 0,010
6,250 0,011 6,394 0,025 5 5 5 3,380 0,201
2 3 4 3,311 0,203 6,659 0,020 3,420 0,190
3,444 0,197 7,144 0,010 3,860 0,150
4,444 0,102 7,636 0,004 4,560 0,100
4,511 0,098 8,227 0,002 5,040 0,075
5,400 0,051 8,909 0,001 5,660 0,051
5,444 0,046 3 4 5 3,312 0,204 5,780 0,049
6,300 0,011 3,318 0,199 6,740 0,025
6,444 0,008 3,831 0,150 7,020 0,020
7,000 0,005 4,523 0,103 7,980 0,011
2 3 5 3,386 0,201 4,549 0,099 8,000 0,009
3,414 0,193 4,939 0,075 8,060 0,009
4,494 0,101 5,631 0,050 8,420 0,007
4,651 0,091 6,410 0,025 8,720 0,005
5,106 0,052 6,676 0,020 8,820 0,005
5,251 0,049 7,449 0,010 9,420 0,002
6,822 0,010 7,641 0,007 9,820 0,002
6,909 0,009 7,906 0,005 9,680 0,001
6,949 0,006 8,446 0,002 10,220 0,001
7,192 0,004 8,503 0,001 5 5 6 5,698 0,050
2 3 6 5,227 0,052 9,118 0,001 5,729 0,050
5,348 0,046 3 4 6 5,604 0,050 6,781 0,025
6,061 0,026 5,610 0,049 6,788 0,025
6,136 0,023 6,500 0,025 8,012 0,010
6,727 0,011 6,538 0,025 8,028 0,010
6,970 0,009 7,467 0,010 5 6 6 5,752 0,050
2 4 4 3,354 0,210 7,500 0,010 5,765 0,050
3,464 0,192 3 5 5 3,306 0,202 6,838 0,025

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 115
Tabela 16 – continuação .....
n1 n2 n3 h  n1 n2 n3 h  n1 n2 n3 h 
2 4 4 4,446 0,103 3 5 5 3,429 0,195 5 6 6 6,848 0,025
4,554 0,098 3,798 0,152 8,119 0,010
5,236 0,052 4,545 0,100 8,124 0,010
5,454 0,046 4,993 0,075 6 6 6 5,719 0,050
6,546 0,020 5,626 0,051 5,801 0,049
6,873 0,011 5,706 0,046 6,877 0,026
7,036 0,006 6,488 0,025 6,889 0,025
7,854 0,002 6,752 0,021 8,187 0,010
6,866 0,019 8,222 0,010
7,543 0,010
7,894 0,007
8,237 0,005
8,334 0,005
8,950 0,002
9,055 0,001
9,396 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 116
Tabela 17 – Diferenças mínima significativa () para as comparações múltiplas, baseadas no teste de
Kruskal-Wallis, envolvendo todos os pares (i, j) de tratamentos e com n 1 = n2 = , ..., nk =n.
K= número de tratamentos e n = número de repetições por tratamento.

P(|Ri – Rj|  ) = 
n   n  
K=3 K=9
2 8 0,067 2 29 0,063
3 15 0,064 30 0,031
16 0,029 31 0,012
17 0,011 K=10
4 24 0,045 2 33 0,050
25 0,031 34 0,025
27 0,011 35 0,009
5 33 0,048 K=11
35 0,031 2 37 0,040
39 0,009 38 0,020
6 43 0,049 39 0,008
51 0,011 K=12
K=4 2 40 0,062
2 12 0,029 41 0,033
3 22 0,043 43 0,006
23 0,023 K=13
24 0,012 2 44 0,052
4 34 0,049 45 0,028
36 0,026 46 0,014
38 0,012 K=14
K=5 2 48 0,044
2 15 0,048 49 0,024
16 0,016 50 0,012
3 28 0,060 K=15
30 0,023 2 52 0,038
32 0,007 54 0,010
4 44 0,056
46 0,033
50 0,010
K=6
2 19 0,030
20 0,010
3 35 0,055
37 0,024
39 0,009
K=7
2 22 0,056
23 0,021
24 0,007
3 42 0,054
44 0,026
46 0,012
K=8
2 26 0,041
28 0,005
3 49 0,055
51 0,029
54 0,010

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 117
Tabela 18 – Valores da amplitude Q a ser usada nas comparações múltiplas de Kruskal-Wallis e de Friedman,
no caso de grandes amostras, com n1 = n2 = .... nk = n e K = número de amostras.


K 0,20 0,10 0,05 0,01 0,001
2 1,812 2,326 2,772 3,643 4,654
3 2,424 2,902 3,314 4,120 5,063
4 2,784 3,240 3,633 4,493 5,309
5 3,037 3,478 3,858 4,603 5,484
6 3,232 3,661 4,030 4,757 5,619
7 3,389 3,808 4,170 4,882 5,730
8 3,520 3,931 4,286 4,987 5,823
9 3,632 4,037 4,386 5,078 5,903
l0 3,730 4,129 4,474 5,157 5,973
11 3,817 4,211 4,552 5,227 6,036
12 3,895 4,285 4,622 5,290 6,092
13 3,966 4,351 4,685 5,348 6,144
14 4,030 4,412 4,743 5,400 6,191
15 4,089 4,468 4,796 5,448 6,234
16 4,144 4,519 4,845 5,493 6,274
17 4,195 4,568 4,891 5,535 6,312
18 4,242 4,612 4,934 5,574 6,347
19 4,287 4,654 4,974 5,611 6,380
20 4,328 4,694 5,012 5,645 6,411
22 4,405 4,767 5,081 5,709 6,468
24 4,474 4,832 5,144 5,766 6,520
26 4,537 4,892 5,201 5,818 6,568
28 4,595 4,947 5,253 5,866 6,611
30 4,648 4,997 5,301 5,910 6,651
32 4,697 5,044 5,346 5,952 6,688
34 4,743 5,087 5,388 5,990 6,723
36 4,786 5,128 5,427 6,026 6,756
38 4,826 5,166 5,463 6,060 6,787
40 4,864 5,202 5,498 6,092 6,816
50 5,026 5,357 5,646 6,228 6,940
60 5,155 5,480 5,764 6,338 7,041
70 5,262 5,582 5,863 6,429 7,124
80 5,353 5,669 5,947 6,507 7,198
90 5,433 5,745 6,020 8,575 7,258
100 5,503 5,812 6,085 6,636 7,314

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 118
Tabela 19 – Limites da distribuição  r2 no teste de Friedman. P(|  r2   02 |) =  para K =
número de tratamentos e n =número de repetições por tratamento.
n  02  n  02  n  02 
K=3 11 5,64 0,062 5 5,16 0,162
2 4,00 0,167 6,54 0,043 6,12 0,107
3 4,67 0,194 7,09 0,027 6,36 0,093
6,00 0,028 8,91 0,011 7,32 0,055
4 4,50 0,125 9,46 0,007 7,80 0,044
6,00 0,069 12,18 0,001 8,76 0,023
6,50 0,042 12 3,50 0,191 9,72 0,012
8,00 0,005 4,67 0,108 9,96 0,009
5 3,60 0,182 5,17 0,080 12,12 0,001
4,80 0,124 6,17 0,050 6 4,80 0,197
5,20 0,093 7,17 0,028 6,20 0,110
6,40 0,039 8,67 0,011 6,40 0,089
7,60 0,024 9,50 0,008 7,40 0,056
8,40 0,008 12,50 0,001 7,60 0,043
10,00 0,001 13 3,85 0,165 8,80 0,023
6 4,00 0,184 4,31 0,129 10,00 0,010
4,33 0,142 4,77 0,098 12,60 0,001
5,33 0,072 6,00 0,050 7 4,89 0,195
6,33 0,052 7,54 0,025 6,26 0,100
7,00 0,029 8,77 0,012 7,63 0,052
8,33 0,012 9,38 0,008 7,80 0,041
9,00 0,008 12,15 0,001 9,00 0,023
10,33 0,002 14 3,57 0,188 10,37 0,010
7 3,71 0,192 4,43 0,117 13,11 0,001
4,57 0,112 5,14 0,089 8 4,80 0,193
5,43 0,085 5,57 0,063 6,30 0,100
6,00 0,051 6,14 0,049 7,50 0,051
7,14 0,027 7,43 0,023 7,65 0,049
8,00 0,016 9,00 0,010 8,85 0,025
8,86 0,008 13,00 0,001 10,35 0,011
11,14 0,001 15 3,60 0,189 10,50 0,009
8 4,00 0,149 4,80 0,106 13,35 0,001
4,75 0,120 4,93 0,096 K=5
5,25 0,079 5,73 0,059 3 6,40 0,172
6,25 0,047 6,40 0,047 7,20 0,117
7,00 0,030 7,60 0,022 7,47 0,096
9,00 0,010 8,93 0,010 8,27 0,056
12,00 0,001 12,40 0,001 8,53 0,045
9 3,56 0,187 K=4 9,87 0,015
4,67 0,107 2 5,40 0,167 10,13 0,008
5,56 0,069 6,00 0,042 11,47 0,001
6,00 0,057 3 5,40 0,175 4 6,20 0,197
6,22 0,048 5,80 0,148 7,40 0,113
6,89 0,031 6,60 0,075 7,60 0,095
8,67 0,010 7,00 0,054 8,60 0,060
11,56 0,001 7,40 0,033 8,80 0,049
10 3,80 0,187 8,20 0,017 9,80 0,025
4,20 0,135 9,00 0,002 11,00 0,010
5,00 0,092 4 4,80 0,200 13,00 0,001
5,60 0,066 6,00 0,105 5 6,08 0,195
6,20 0,046 6,30 0,094 7,52 0,107
7,40 0,026 7,50 0,052 7,68 0,094
8,60 0,012 7,80 0,036 8,80 0,056
9,60 0,007 8,40 0,019 8,96 0,049
12,20 0,001 9,30 0,012 10,08 0,026
11 3,82 0,163 9,60 0,007 11,52 0,010
4,91 0,100 11,10 0,001 14,08 0,001

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 119
Tabela 20 – Diferenças mínima significativa (1) para as comparações múltiplas, baseadas no teste de
Friedman, envolvendo todos os pares (i, j) de tratamentos. K = número de tratamentos, n =
número de repetições por tratamento.
P(|Ri – Rj|  1) = 
n 1  n 1  n 1 
K=3 K=8 K=12
3 6 0,028 2 14 0,018 2 21 0,038
4 7 0,042 3 17 0,067 22 0,008
8 0,005 18 0,027 3 27 0,053
5 8 0,039 19 0,009 28 0,027
9 0,008 4 21 0,036 29 0,012
6 9 0,029 23 0,007 4 32 0,055
10 0,009 5 23 0,057 33 0,033
7 9 0,051 24 0,034 35 0,011
10 0,023 26 0,009 5 37 0,042
11 0,008 6 26 0,045 38 0,027
8 10 0,039 27 0,027 40 0,011
11 0,018 29 0,009 6 40 0,059
12 0,007 7 28 0,048 42 0,028
9 10 0,048 29 0,032 45 0,008
11 0,026 31 0,012 7 44 0,050
12 0,013 8 30 0,046 46 0,026
10 11 0,037 31 0,033 49 0,009
12 0,019 34 0,009 8 47 0,050
13 0,010 9 32 0,043 49 0,030
11 11 0,049 33 0,032 52 0,011
12 0,028 36 0,010 9 50 0,048
14 0,008 10 34 0,040 52 0,032
12 12 0,038 35 0,031 56 0,010
13 0,022 38 0,010 10 53 0,047
14 0,012 11 35 0,048 55 0,032
13 12 0,049 37 0,028 59 0,010
13 0,030 40 0,010 11 56 0,043
15 0,009 12 37 0,042 58 0,029
14 13 0,038 39 0,026 62 0,011
14 0,023 42 0,010 12 58 0,048
16 0,007 13 39 0,039 61 0,027
15 13 0,047 40 0,030 65 0,011
14 0,028 44 0,009 13 61 0,043
16 0,010 14 40 0,042 63 0,030
K=4 42 0,027 68 0,010
2 6 0,083 45 0,012 14 63 0,046
3 8 0,049 15 42 0,037 66 0,077
9 0,007 43 0,030 71 0,009
4 10 0,026 47 0,011 15 66 0,040
11 0,005 K=9 68 0,028
5 11 0037 2 15 0,069 73 0,011
12 0,013 16 0,014 K=13
6 12 0,037 3 20 0,041 2 23 0,032
13 0,018 22 0,005 24 0,006
14 0,006 4 23 0,064 3 30 0,038
7 13 0,037 24 0,034 32 0,009
14 0,020 26 0,008 4 35 0,054
15 0,008 5 27 0,040 36 0,033
8 14 0,034 28 0,023 38 0,012
15 0,019 29 0,013 5 40 0,049
16 0,009 6 29 0,058 41 0,033

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 120
Tabela 20 – continuação ...
n 1  n 1  n 1 
K=4 K=9 K=13
9 15 0,032 6 30 0,038 5 44 0,009
17 0,010 33 0,008 6 44 0,054
10 15 0,046 7 32 0,046 46 0,027
16 0,029 33 0,032 49 0,009
18 0,010 36 0,008 7 48 0,051
11 16 0,041 8 34 0,049 50 0,028
17 0,026 36 0,026 53 0,010
19 0,009 38 0,012 8 52 0,046
12 17 0,038 9 36 0,050 53 0,035
18 0,023 38 0,030 57 0,010
20 0,008 41 0,010 9 55 0,048
13 18 0,032 10 38 0,050 57 0,030
19 0,021 40 0,031 61 0,010
21 0,008 43 0,011 10 58 0,047
14 18 0,042 11 40 0,048 60 0,032
19 0,028 42 0,030 65 0,009
21 0,011 46 0,009 11 61 0,046
15 19 0,037 12 42 0,046 63 0,032
20 0,024 44 0,029 68 0,010
22 0,010 48 0,009 12 64 0,045
K=5 13 44 0,042 66 0,032
2 8 0,050 46 0,027 71 0,010
3 10 0,067 50 0,009 13 67 0,041
11 0,018 14 46 0,041 69 0,030
12 0,002 48 0,026 74 0,011
4 12 0,054 52 0,009 14 69 0,046
13 0,020 15 47 0,046 72 0,028
14 0,006 50 0,025 77 0,010
5 14 0,040 54 0,009 15 72 0,040
16 0,006 K=10 74 0,030
6 15 0,049 2 17 0,056 80 0,010
16 0,028 18 0,011 K=14
17 0,013 3 22 0,057 2 25 0,027
7 16 0,052 23 0,026 26 0,005
17 0,033 24 0,010 3 32 0,052
19 0,009 4 26 0,060 33 0,028
8 18 0,036 27 0,033 35 0,006
19 0,022 29 0,009 4 38 0,053
20 0,012 5 30 0,047 39 0,034
9 19 0,037 31 0,029 41 0,013
20 0,024 33 0,010 5 43 0,057
22 0,008 8 33 0,051 45 0,027
10 20 0,038 34 0,033 47 0,012
21 0,025 37 0,008 6 48 0,050
23 0,009 7 36 0,047 50 0,026
11 21 0,038 37 0,033 53 0,009
22 0,025 40 0,010 7 52 0,053
24 0,010 8 38 0,052 54 0,030
12 22 0,038 40 0,031 57 0,012
23 0,025 43 0,010 8 56 0,051
25 0,011 9 41 0,046 58 0,031
13 23 0,035 43 0,027 62 0,010
24 0,024 46 0,009 9 60 0,047
26 0,011 10 43 0,047 62 0,029
14 24 0,034 45 0,030 66 0,010
25 0,024 49 0,009 10 63 0,048

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 121
Tabela 20 – continuação ...
n 1  n 1  n 1 
K=5 K=10 K=14
14 27 0,011 11 45 0,049 10 65 0,033
15 24 0,045 11 47 0,032 70 0,010
26 0,022 51 0,010 11 66 0,049
28 0,010 12 48 0,040 69 0,029
K=6 50 0,027 74 0,009
2 10 0,033 54 0,009 12 69 0,048
3 13 0,030 13 50 0,039 72 0,030
14 0,008 52 0,026 77 0,010
4 15 0,047 56 0,009 13 72 0,047
16 0,018 14 52 0,039 75 0,030
17 0,006 54 0,026 80 0,011
5 17 0,047 58 0,010 14 75 0,045
18 0,022 15 53 0,045 78 0,028
19 0,010 56 0,026 84 0,009
6 19 0,040 60 0,010 15 78 0,043
20 0,021 K=11 81 0,028
21 0,010 2 19 0,045 87 0,010
7 20 0,049 20 0,009 K=15
21 0,032 3 25 0,038 2 26 0,071
23 0,010 27 0,007 27 0,024
8 22 0,039 4 29 0,057 28 0,005
23 0,026 30 0,033 3 35 0,039
25 0,008 32 0,010 37 0,010
9 23 0,043 5 33 0,055 4 41 0,053
24 0,030 34 0,035 42 0,035
26 0,012 37 0,008 45 0,008
10 24 0,047 6 37 0,045 5 47 0,046
26 0,023 38 0,030 48 0,033
28 0,009 41 0,008 51 0,010
11 26 0,036 7 40 0,049 6 52 0,047
27 0,026 41 0,035 53 0,035
29 0,012 44 0,011 57 0,009
12 27 0,039 8 43 0,046 7 56 0,055
28 0,028 44 0,035 58 0,032
31 0,009 48 0,009 62 0,010
13 28 0,039 9 46 0,043 8 60 0,056
29 0,028 47 0,034 63 0,027
32 0,010 51 0,009 67 0,009
14 29 0,040 10 48 0,047 9 64 0,052
30 0,030 50 0,031 67 0,028
33 0,011 54 0,009 71 0,011
15 30 0,040 11 51 0,040 10 68 0,049
32 0,023 53 0,027 71 0,028
34 0,012 57 0,009 75 0,011
K=7 12 53 0,043 11 72 0,043
2 12 0,024 55 0,029 74 0,032
3 15 0,048 59 0,011 79 0,011
16 0,016 13 55 0,046 12 75 0,045
4 18 0,040 57 0,031 78 0,028
20 0,007 62 0,010 83 0,010
5 20 0,052 14 57 0,045 13 78 0,048
21 0,028 60 0,026 81 0,030
22 0,014 64 0,011 87 0,009
6 22 0,050 15 59 0,046 14 81 0,046
23 0,032 62 0,027 84 0,030
25 0,009 67 0,009 90 0,010

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 122
Tabela 20 – continuação ...
n 1  n 1  n 1 
K=7 K=15
7 24 0,047 15 84 0,043
25 0,032 87 0,029
27 0,011 94 0,009
8 26 0,041
27 0,030
29 0,011
9 27 0,050
29 0,026
31 0,011
10 29 0,042
30 0,031
33 0,010
11 30 0,049
32 0,027
35 0,009
12 32 0,040
33 0,030
36 0,011
13 33 0,043
35 0,025
38 0,009
14 34 0,047
36 0,028
39 0,011
15 36 0,038
37 0,030
41 0,009

Testes estatísticos não-paramétricos (Cargnelutti Filho, A.; Lúcio, A.D.; Lopes, S.J.; Storck, L.) 123
View publication stats

You might also like