You are on page 1of 3

Mquinas de Soporte Sectorial (SVM)

Las mquinas de soporte vectorial son un algoritmo de


clasificacin binaria que ofrece solucin a los problemas de: crear
modelos computacionales de clasificacin Clasificadores que
asignen muestras dentro dos o ms clases y agrupar muestras en
varios clsteres basados en su similitud.
Son importantes por razones tericas: son robustas a un nmero
muy grande variables y muestras pequeas, pueden aprender
modelos de clasificacin simples y complejos y sus principios
matemticos estn fuertemente sustentados de tal forma que
evitan sobreajuste.
Si tenemos muestras que estn representadas en un espacio Rn
, estas muestras estn siendo representadas geomtricamente
como vectores donde la idea fundamental es encontrar una
superficie de decisin lineal o un hiperplano que pueda separar a
estos vectores puntos en sus respectivas clases y que tengan
la mayor distancia margen, abertura, espacio entre las lneas
limite o de frontera vectores de soporte .
Si tal superficie de decisin no existe en la dimensin actual, los
datos son mapeados hacia otro espacio de dimensin mayor o
mucho mayor espacio de caractersticas donde la
superficie/hiperplano pueda ser encontrada. El espacio de
caractersticas se construye a travs de una proyeccin
matemtica llamada kernel que se abordar ms adelante.
Las muestras entonces se representan a travs de vectores en
n
n
R , donde cada una de ellas esta descrita por
caractersticas o variables, donde una vez ya representados
geomtricamente estos pueden ser separados por un hiperplano
que los divida en dos grupos.
Antes de continuar, ser necesario establecer los elementos
matemticos fundamentales necesarios:
Operaciones bsicas sobre vectores

Multiplicacin de un vector por un escalar.


Suma de vectores.
Resta de vectores.
Longitud euclidiana o norma de un vector

Producto punto de dos vectores. Algunas de sus


propiedades:
o Cuando el producto punto de dos vectores es cero,
estos son perpendiculares (el ngulo formado por ellos
es de 90 ).
o El producto punto de un vector consigo mismo es igual
a su norma al cuadrado -- a2

y=
w x +b , la
Nota 1: En la ecuacin de regresin clsica
variable de respuesta y es el producto punto del vector que
w que
representa las caractersticas x con el vector de pesos
es comn a todas las muestras tomadas ms un offset b .
Continuando con la idea superficie de decisin lineal, un
hiperplano entonces divide el espacio en dos partes. Es entonces
posible observar que un hiperplano es un clasificador binario.
La ecuacin de un hiperplano queda definida por un vector normal
w y un punto cualquiera P=( x1 , x 2 , , x n) . Podemos decir que

el punto P es un vector debido a que a este va desde el origen


hacia P . Llamemos O al punto en el origen en Rn definido
como O=(0, 0, , 0 n) .
Si vamos desde O hacia P tenemos entonces un vector

OP=( x 10 , x 20 , , x n0)
x
definiendo entonces un vector
P
teniendo como componentes al punto
, de tal forma que
x =( x 1 , x 2 , , x n ) .
Por lo tanto, la ecuacin del hiperplano queda definida por
w x =b , para cualquier punto en el plano desde el origen.

Decimos que
es normal, debido a que es ortogonal a
cualquier vector sobre el plano. Si se define un vector sobre el
P0 P1 es
plano que vaya desde P0 a P1 , el vector resultante
w , lo que permite definir lo siguiente:
ortogonal a
-

P0 P1
Debido a que el vector
es la resultante de la

x 1
x 0 , se establece que
w (

x 1
x 0 )=0 . Lo
diferencia
anterior tiene la propiedad de ser distributivo y se tiene
w

x1
w
x0 =0 , definiendo as
b=
w
x0
y quedando
w

x
+b=0
establecida la ecuacin
solo para
Rn con
1
n>3

Sin perder de vista lo anterior, siendo que b establece como se


w , se pueden
mueve el hiperplano sobre a lo largo del vector

x1 +b=0 , en la forma
tener diferentes planos paralelos a
w

x1 +b 1=0 ,
w
x1 +b 2=0 , ,
w
x1 +b n=0 . Es posible entonces
establecer una distancia entre los planos paralelos en la forma:
D=

|b 1b2|

Hasta este punto lo importante es que las muestras son


representadas como vectores y que es necesario definir una
superficie de decisin lineal o hiperplano que separe a estas
muestras en sus correspondientes clases. Es necesario tambin
saber cmo calcular eficientemente un hiperplano que separe a
las dos clases con el mayor margen posible, para lo cual es
necesario saber los fundamentos de la teora de optimizacin ms
relevantes.

You might also like