Professional Documents
Culture Documents
Joo Gama
Jgama@liacc.up.pt
Sumario
rvores de deciso
Motivao
Construo de uma rvore de deciso
Critrios para seleccionar atributos
Entropia
Podar a rvore
Estimativas de erro
Extenses
rvores multivariadas
1
rvores de Deciso
Uma rvore de deciso utiliza uma estratgia de dividir-
para-conquistar:
Um problema complexo decomposto em sub-problemas mais
simples.
Recursivamente a mesma estratgia aplicada a cada sub-
problema.
A capacidade de discriminao de uma rvore vem da:
Diviso do espao definido pelos atributos em sub-espaos.
A cada sub-espao associada uma classe.
Crescente interesse
CART (Breiman, Friedman, et.al.)
C4.5 (Quinlan)
Splus, Statistica, SPSS , R
2
O que uma Arvore de Deciso?
Representao por rvores de deciso:
Cada n de deciso contem um teste
num atributo.
Cada ramo descendente corresponde a
um possvel valor deste atributo.
Cada Folha est associada a uma
classe.
Cada percurso na arvore (da raiz
folha) corresponde a uma regra de
classificao.
No espao definido pelos atributos:
Cada folha corresponde a uma regio
Hiper-rectngulo
A interseco dos hiper-rectngulos
vazio
A unio dos hiper-rectngulos o
espao completa.
Representao
Uma rvore de deciso representa a disjuno de conjunes
de restries nos valores dos atributos
Cada ramo na rvore uma conjuno de condies
O conjunto de ramos na rvore so disjuntos
DNF (disjuntive normal form)
3
Construo de uma rvore de deciso
A ideia base:
1. Escolher um atributo.
2. Estender a rvore adicionando um ramo para cada valor do
atributo.
3. Passar os exemplos para as folhas (tendo em conta o valor do
atributo escolhido)
4. Para cada folha
1. Se todos os exemplos so da mesma classe, associar essa classe folha
2. Seno repetir os passos 1 a 4
1. Exerccios:
1. Representar Or, Xor
2. ( A B ) (C D)
4
Exemplos:
O conjunto de dados original: Selecciona um atributo:
5/5 5/5 10 / 0 0 / 10
5
Caracterizao das medidas de partio
Entropia
Entropia uma medida da aleatoridade de uma varivel.
A entropia de uma varivel nominal X que pode tomar i valores:
entropia ( X ) = p i * log 2 pi
i
6
Ganho de Informao
No contexto das rvores de deciso a entropia usada para estimar a
aleatoridade da varivel a prever: classe.
Dado um conjunto de exemplos, que atributo escolher para teste?
Os valores de um atributo definem parties do conjunto de exemplos.
O ganho de informao mede a reduo da entropia causada pela partio dos
exemplos de acordo com os valores do atributo.
# Exs
ganho (Exs , Atri ) = entropia ( Exs )
# Exs
(
v entropia Exs
v
)
7
Calculo do Ganho para Atributos numricos
Um teste num atributo numrico produz uma partio binria do
conjunto de exemplos:
Exemplos onde valor_do_atributo < ponto_referncia
Exemplos onde valor_do_atributo >= ponto_referncia
Escolha do ponto de referncia:
Ordenar os exemplos por ordem crescente dos valores do atributo numrico.
Qualquer ponto intermdio entre dois valores diferentes e consecutivos dos
valores observados no conjunto de treino pode ser utilizado como possvel ponto
de referncia.
usual considerar o valor mdio entre dois valores diferentes e consecutivos.
Fayyard e Irani (1993) mostram que de todos os possveis pontos de referncia
aqueles que maximizam o ganho de informao separam dois exemplos de
classes diferentes.
85 No
2002 Joo Gama 16
8
Repetir o processo
9
Critrios de paragem
Quando parar a diviso dos exemplos?
Todos os exemplos pertencem mesma classe.
Todos os exemplos tm os mesmos valores dos atributos (mas
diferentes classes).
O nmero de exemplos inferior a um certo limite.
(?) O mrito de todos os possveis testes de partio dos exemplos
muito baixo.
10
Regularizao em rvores de Deciso
Sobre-ajustamento
O algoritmo de partio recursiva do conjunto de dados gera
estruturas que podem obter um ajuste aos exemplos de
treino perfeito.
Em domnios sem rudo o nr. de erros no conjunto de treino pode
ser 0.
Em problemas com rudo esta capacidade problemtica:
A partir de uma certa profundidade as decises tomadas so
baseadas em pequenos conjuntos de exemplos.
A capacidade de generalizao para exemplos no utilizados no
crescimento da arvore diminui.
11
Variao do erro com o nr. de ns
40
35
30
25
Erro (%)
Treino
20
Test
15
10
5
0
1 5 10 20 30 40 50 60 70 80 90 100
Nr. de Nos da Arvore
Sobre-ajustamento (overfitting)
Definio:
Uma arvore de deciso d faz sobre-ajustamento aos dados se
existir uma arvore d tal que:
d tem menor erro que d no conjunto de treino
mas d tem menor erro na populao.
Como pode acontecer:
Rudo nos dados
Excesso de procura
O numero de parmetros de uma rvore de deciso cresce
linearmente com o numero de exemplos.
Uma rvore de deciso pode obter um ajuste perfeito aos dados de
treino.
12
Sobre-ajustamento
Occams razor: preferncia pela hiptese mais simples.
Existem menos hipteses simples do que complexas.
Se uma hiptese simples explica os dados pouco provvel que
seja uma coincidncia.
Uma hiptese complexa pode explicar os dados apenas por
coincidncia.
A avaliao de uma hiptese deve ter em conta o processo
de construo da hiptese.
Simplificar a arvore
Duas possibilidades:
Parar o crescimento da arvore mais cedo (pre-pruning).
Crescer uma arvore completa e podar a arvore (pos-pruning).
Growing and pruning is slower but more reliable
Quinlan, 1988
O problema do Xor
Requer olhar em frente mais que um nvel.
13
Critrios
Critrios:
Obter estimativas fiveis do erro a partir do conjunto de treino.
Optimizar o erro num conjunto de validao independente do
utilizado para construir a arvore.
Minimizar:
erro no treino + dimenso da arvore
Cost Complexity pruning (Cart)
dimenso da arvore + dimenso dos exemplos mal classificados
MDL pruning (Quinlan)
Estimativas de Erro
O problema fundamental do algoritmo de poda a estimativa de erro
num determinado n.
O erro estimado a partir do conjunto de treino no um estimador fivel.
O reduced error pruning
consiste em obter estimativas de erro a partir de um conjunto de validao
independente do conjunto de treino.
Reduz o volume de informao disponvel para crescer a arvore.
O Cost complexity pruning, Breiman, 1984
Podar com base na estimativa do erro e complexidade da arvore.
Cart (Breiman et al.)
O Error based pruning,
Podar com base numa estimativa do erro no conjunto de treino.
Assume uma distribuio Binomial para os exemplos de um n.
Usado no C5.0
14
O Error based pruning
Um determinado n contem N exemplos.
Classificando estes exemplos utilizando a classe maioritria, vo ser mal
classificados E exemplos.
O erro neste n E/N.
Qual o verdadeiro erro p neste n ?
Assumindo que:
Os exemplos de um n constituem uma amostra de uma populao que segue
uma distribuio binomial.
A varincia do erro neste n dada por:
P * (1 - P) / N
P o erro na populao (desconhecido).
f p Erros
p[ >= z ] = c onde f =
p (1 p ) / N N
z2 f f2 z2 z2
p=(f + + z + ) /( 1 + )
2N N N 4N 2 N
15
Um algoritmo de poda
Percorre a rvore em profundidade
Para cada n de deciso calcula:
Uma estimativa pessimista do erro no n
Soma pesada das estimativas pessimistas dos erros nos ns
descendentes
O peso a probabilidade de um exemplo seguir o ramo correspondente.
Se a estimativa do erro no n menor ou igual soma das
estimativas de erros dos ns descendentes o n
transformado em folha.
4+ 1+ 4+
Exerccio:
2-- 1-- 2-- Qual a deciso para o n A ?
0.47 0.72 0.47
16
Valores Desconhecidos
Pr-Processados
Substituir o valor desconhecido pelo valor mais provvel
Atributos numricos: mdia.
Atributos nominais: mediana.
Na construo do modelo
Assumir que um atributo tem como possvel valor o valor
desconhecido.
Atribuir um peso a cada exemplo.
Nos exemplos em que o atributo de teste toma um valor desconhecido, o
exemplo passado para todos os ns descendentes com um peso
proporcional probabilidade de um exemplo seguir o ramo.
Extenses
17
Algumas Ideias:
rvores com funes nas folhas
NBTree usa Nave Bayes nas Folhas
rvores com funes nos ns
Multivariate Trees
rvores com funes nos ns e nas folhas
Functional Trees
rvores Incrementais
Hoeffding Trees
Florestas de rvores
.
2002 Joo Gama 35
Arvores Multivariadas
Motivao
Discriminante linear
Superfcies de deciso obliquas em relao aos eixos definidos pelos
atributos.
rvores de Deciso
Partio do espao dos atributos.
Superfcies de deciso: hiper-rectangulos.
rvores multivariadas:
Combinao de superfcies de deciso obliquas com partio do espao dos
atributos:
18
Arvores Multivariadas
Discriminantes Recursivos
QUEST
Em cada n constri um discriminante linear.
Arvores Multivariadas
LMDT
Em cada n constri uma Maquina Linear que usada como teste neste
n.
LTREE
Em cada n constri um discriminante linear
Todos os exemplos neste n so estendidos com novos atributos
Cada novo atributo a probabilidade de o exemplo estar num lado do hiper-
plano.
A capacidade de discriminao de um novo atributo estimada em
competio com os atributos originais.
2002 Joo Gama 37
Anlise
(em geito de concluso)
19
Vantagens das Arvores de deciso
Mtodo no-paramtrico
No assume nenhuma distribuio particular para os dados.
Pode construir modelos para qualquer funo desde que o numero de exemplos
de treino seja suficiente.
A estrutura da rvore de deciso independente da escala das
variveis.
Transformaes montonas das variveis (log x, 2*x, ...) no alteram a estrutura
da arvore.
Elevado grau de interpretabilidade
Uma deciso complexa (prever o valor da classe) decomposto numa sucesso
de decises elementares.
eficiente na construo de modelos:
Complexidade mdia O(n log n)
Robusto presena de pontos extremos e atributos redundantes ou
irrelevantes.
Mecanismo de seleco de atributos.
2002 Joo Gama 39
20
O espao de Hipteses
O espao de hipteses
completo
Qualquer funo pode ser
representada por uma rvore
de deciso.
No reconsidera opes
tomadas
Mnimos locais
Escolhas com suporte
estatstico
Robusto ao rudo
Preferncia por rvores
mais pequenas
2002 Joo Gama 41
Bibliografia Adicional
Online:
http://www.Recursive-Partitioning.com/
Tom Mitchell
Machine Learning (chap.3)
MacGrawHill, 1997
Quinlan, R.
C4.5 Programs for Machine Learning
Morgan Kaufmann Publishers, 1993
L.Breiman, J.Friedman, R.Olshen, C.Stone
Classification and Regression Trees
Wadsworth, 1984
21
Exerccios
Considere um problema de duas classes, definido por 4 atributos
binrios x1,x2,x3,x4.
Represente sob a forma de uma rvore o conceito
(x1 e x2 e x3) ou x4
(x1 e x2) ou (x3 e x4)
Utilizando ferramentas computacionais, calculo o atributo para a raiz
de uma rvore de deciso nos problemas
Iris
Balance-scale
Utilizando ferramentas computacionais, indique uma rvore qualquer
(a escolha do atributo a usar em cada n pode ser aleatria) para o
problema Iris
Qual a taxa de erro da rvore no dataset de treino?
Aplique o algoritmo de poda rvore.
22