Professional Documents
Culture Documents
Introducere :
O form dat (pattern) poate fi descris printr-un vector adic un set de entiti
caracteristice exprimate prin numere reale (bii) XF=(x1,.xn), unde ndimensiunea
spaiului de intrare, care
imagini). Algoritmii de clasificare Bayes fac parte din metodele statistice de clasificare i
recunoastere a formelor.
Baz teoretic :
Definiia 1 : Vectorul-medie al unui vector aleator n-dimensional X= (1, , n)T este vectorul coloan
X = ( 1, , n )T = ( E 1, , E n )T not E (X)
Definiia 2 : Matricea de covarian X Rn x n este matricea ptratic de ordin n, asociat lui X (un vector
aleator n-dimensional X= (1, , n)T (cu componente ce au media i dispersia )), definit ca:
X= E ( ( X E ( X ) ) ( X E ( X ) )T) = E ( X XT ) E (X) E ( XT ). Deci X=
unde ij=cov(i, j)=covariana, ii=Var(i, i)=i2 (i2 = variana / dispersia /
i = abaterea medie ptratic)
11
...
n1
...
...
...
1n
...
nn
Definiie 3 : Un vector aleator n-dimensional X= (1, , n)T (cu componente ce au media i dispersia ) este
repartizat normal (sau gasussian, notat f (x) N (, )), dac matricea de covarian = X
este pozitiv definit i are funcia de densitate de probabilitate f(x)=
(2 )
n/2
1
1
exp(- (x )T -1
1/ 2
2
(det )
cunoscute din determinri statistice probabilitile apriori P ( i ) ale claselor i (pentru i=1M),
i se presupune c P( i ) > 0 i
P( i ) = 1
i =1
Pentru a deduce regula Bayes se poate pleca de la mai multe puncte de vedere .
1.1. Regula lui Bayes de clasificare (ipoteza binar, adic M=2 clase) dedus
plecnd de la maximizarea probabilitii aposteriori
n cazul a dou clase de forme 1, 2 (M=2), o form nou de intrare X (vector aleator ndimensional de caracteristici) poate fi clasificat (teoretic) prin compararea probabilitilor
aposteriori dup regula :
P ( 1 | X ) < P ( 2 | X ) => X { 1
>
(1)
unde:
i=1,2:
>
P ( 1 | X ) <P ( 2 | X )
p ( x | 1 ) P(1 ) > p ( x | 2 ) P( 2 )
<
p( x)
p ( x)
p ( x | 1 )
(al claselor 1, 2, relative la forma X), unde
p( x | 2 )
P( 2 )
P(1 )
i notm cu h = ln L
Relaia lui Bayes devine :
<
h( x ) > ln
P (1 )
X{ 1
P ( 2 )
2
(2)
Testul de clasificare Bayes poate duce la situaii de ambiguitate, n cazul egalitii membrului
stng. De aceea se evalueaz performana testului prin calcularea probabilitii erorii de
clasificare. La egalitate se obine ecuaia suprafeei de separaie:
L (x) =
1.2. Deducerea algoritmului Bayes plecnd de la minimizarea erorii de clasificare
Se mparte spaiul Rn n dou regiuni
R1 : L (x) i R2: L (x) <
Eroarea de clasificare a vectorului X apare cnd se atribuie X regiunii R2 cnd n realitate X R1
sau dac X se atribuie lui R1 cnd n realitate X R2
Probabilitatea erorii de clasificare este :
= P (X R2|1) P (1)+ P (X R1|2) P (2) = P (1) R 2 p ( x | 1 )dx + P (2)
R1 p ( x | 2 )dx
Din R1 R2 = Rn
Deci se obine :
= P (1) +
R1
P (2) p ( x | 2 ) P (1) p ( x | 1) dx
(2a)
Pentru minimizarea lui trebuie ca termenul integral din relaia (2a) s fie negativ:
P (2) p ( x | 2 ) P (1) p( x | 1) 0
Deci R1 e definit prin
P (2) p( x | 2 ) P (1) p ( x | 1) relaie identic cu relaia (2)
Deci rezultatul final de la acest paragrtaf (1.2) este identic cu cel de la 1.1. (maximizarea
probabilitii aposteriori).
1.3. Particularizarea
algoritmului
multidimensionale
n ipoteza c densitile de probabilitate condiionate p( x | 1 ) i p ( x | 2 ) sunt normal
distribuite, avnd vectorii medie 1 i 2, i matricile de covarian 1 i 2 se poate scrie relaia
echivalent :
(x 1)T 1-1 (x 1) (x 2)T 2-1 (x 2) + ln
det 1
det 2
<
> 2 ln
P (1 )
X { 1
P ( 2 )
2
(3)
Demonstraie:
P (1 )
p( x | 2 ) <
,
> ln
p ( x | 1 )
P ( 2 )
nlocuind p ( x | 1 ) =
(2 )
n/2
1
1
exp(- (x 1)T 1-1 (x 1)) (vezi def. 3) i
1/ 2
2
(det 1 )
det 1
det 2
<
> 2 ln
P (1 )
(q.e.d.)
P ( 2 )
1.4. Algoritmul lui Bayes pentru risc minim (extinde algoritmul cu eroare minim de
clasificare)
Notm cu cij costul clasificarii eronate a vectorului
j =1
i =1
Rj
cij P( i ) p (x | i) dx.
Se obine relaia :
p( x | 1 ) > c 21 c 22 P ( 2 )
X{ 1
<
p( x | 2 )
c12 c11 P (1 )
2
(4)
Pentru cazul cnd c12-c11=c21-c22 (ex. cazul particular c11=c22=0 si c12=c21) din relaia de
calcul al algoritmului de risc minim (4) se obine relaia algoritmului Bayes cu eroare minim de
clasificare (2).
Dac n membrul stng al ecuaiilor (1) i (4) apare o situaie de egalitate nu se poate
trage nici o concluzie. n consecin se poate atribui forma uneia dintre clase, sau se rafineaz
testul prin adugarea de noi caracteristici, sau se aplic alt algoritm.
Odat ce clasificatorul a fost proiectat i antrenat, n situaia n care densitile de
probabilitate condiionate ale vectorilor caracteristicilor selectate sunt cunoscute pentru fiecare
clas sau pot fi estimate precis dintr-un set de eantioane (set de antrenare), se aplic regula de
clasificare Bayes, care minimizeaz probabilitile de recunoatere eronat sau riscul mediu. n
situaia, mai des ntlnit, cnd acestea nu sunt cunoscute se utilizeaz fie funciile discriminant,
fie metode neparametrice de clasificare.
P ( i | X ) <P ( j | X ) => X {
i
, pentru j j
(5)
ceea ce e echivalent cu
>
i
, pentru j j
(6)
unde :
i, j =1M, cu M > 2
j =1
i =1
Rj
cij P( i ) f (x | i) dx
(7)
unde :
iar cij este costul deciziei eronate X j cnd clasa adevrat este i
Algoritmul Bayes de risc minim poate fi scris pentru cazul a M clase de forme:
M
i =1
cik P( i ) p (x | i),
i =1
pentru k j X j, 2 i,j,k .M
(8)
n cazul particular cii = 0 i cij=1 pentru i j algoritmul capt forma de la punctul (a)
C
o
(9)
Cnd inegalitatea din inecuaia (9) nu este strict se ajunge la ambiguitatea deciziei, caz n care
clasificarea nu poate fi decis. Soluia: fie se alege oricare din cele dou clase i, j fie se alege
un algoritm mai puternic.
Ex: Se poate alege setul de funcii discriminant de forma:
a) n cazul algoritmului Bayes cu eroare minim de clasificare
gk (x) = ln P (k) + ln p (x | k ),
gk (x) =
cik P( i ) f (x | i)
i =1
p ( x, i ) N (i, i), 1 i M
Lum n considerare un clasificator Bayes cu eroare minim de clasificare pentru M
clase, cu funciile discriminant :
gk (x) = ln P (k) + ln p (x | k ), pentru 1 k M
se obine pentru vectori repartizai normal relaia:
gk (x) = (x k)T
1
k
(x k)
1
n
ln 2 ln (det
2
2
) + ln P(k)
(10)
Cazuri particulare:
a) Pentru
relaia:
gk (x) =
1
2 2
|| x k||2 + ln P(k), 1 k M
(11)
gk (x) = || x k||2
(12)
(13)
1
2 2
k, i wk0 =
(14)
1
2
kT k+ ln P(k), pentru 1 k M
x1
repartizate normal.
x2
2
3
4
3
clasa 1 {A= , B= , C= , D= },
0
1
0
1
x2
2
3
4
3
, F= , G= , H= },
clasa 2 {E=
0
1
0
1
C
x1
Se cere:
a) Calculai probabilitile apriori (P(1), P(2)), vectorii medie (1, 2) i matricile de covarian
(1, 2).
b) Ecuaia suprafeei de separaie
c) Reprezentarea grafic
d) Regula de decizie
2
0
1
1
1
3
, J4=
0
3