Professional Documents
Culture Documents
Industriales
2. Aspectos básicos 5
5. El espacio de características 10
20. Clasificación 25
21. Clasificación II 26
22. Clasificación III 27
23. Clasificación IV 28
En este tema nos centraremos, por su mayor implantación en los sistemas de inspec-
ción industrial, en el reconocimiento estadístico y fundamentalmente en la aproxima-
ción inductiva.
Los objetos proceden de c fenómenos generativos diversos y pueden por tanto eti-
quetarse como pertenecientes c clases distintas, c > 1.
Los objetos de una misma clase se agrupan en zonas del espacio determinadas por
las densidades condicionales de clase.
Para que estas asunciones se cumplan en la mayor medida posible, es necesario que
la representación vectorial de los objetos responda a una serie de criterios básicos que
definen un buen conjunto de características y que estudiaremos enseguida.
3. El espacio primario de representación
En nuestro caso, los objetos suelen ser imágenes o elementos similares. Repasaremos
los aspectos básicos de captura de esos objetos.
Imágenes planas obtenidas de una cámara de superficie o lineal con barrido mecáni-
co.
• Binarias.
• En niveles de gris.
• En color (RGB, CIE-(XYZ), UCS, L*u*v*, L*a*b*, IHS, YIQ, HSL, etc.).
Imágenes tridimensionales obtenidas de un sistema estereoscópico o de otro tipo.
• Binarias.
• En niveles de gris.
• En color.
Otro tipo de señales relacionadas con la imagen (instrumentos médicos, radar, sonar,
interferometría, teledetección, etc.)
3.2. Preproceso y segmentación
Escalados y cuantificaciones.
Filtrados (en el dominio espacial o en el de una transformada).
Realces y modificaciones de histograma.
Transformaciones geométricas (cambios de coordenadas, correcciones de perspecti-
va, etc.).
Operaciones morfológicas.
Segmentación (global, local, adaptativa, etc.).
3.3. El espacio de representación primario
Representación Dimensión
(5,8,10,3,0,0,8,3,0,10,0,0,2,7,10,3) 16
4. Dimensión Física vs. Número de medidas
Dimensión Física: Dimensión del espacio de los objetos (Object Space Dimension)
Ejemplos:
• 1D - Sonido, sismografía, etc.
• 2D - Imágenes planas.
• 3D - Imágenes tridimensionales.
Número de medidas: Dimensión del espacio de los patrones (Pattern Space Dimen-
sion).
Ejemplos:
• Imagen de grises de tamaño a × b : Vector de a · b dimensiones.
• Representación 3D en color de tamaño a × b × c : Vector de 3 · a · b · c dimensiones.
• Representación textural con 6 parámetros: Vector de 6 dimensiones.
5. El espacio de características
Mapa de bits
(5,8,10,3,0,0,8,3,0,10,0,0,2,7,10,3)
8. Tipos de características. Ejemplos II
Espacios (pseudo)métricos.
• Muestra más centrada (centroide).
• Dimensionalidad intrínseca.
• Desigualdad triangular - holgura.
Espacios vectoriales.
• Subespacios lineales.
• Distancias.
• Maldición de la dimensionalidad. Para altas dimensionalidades:
◦ Densidad de puntos dada – No de puntos crece exponencialmente.
◦ Distancias entre los puntos grandes y similares.
◦ Vecindades con pocos puntos – grandes radios.
◦ ...
13. La maldición de la dimensionalidad I
Los criterios de estimación del error de clasificación más importantes, que nos pueden
servir para elegir la mejor combinación son:
Ejemplos:
10 caract. de 20 medidas = 184756 combinaciones
10 caract. de 100 medidas 1013 combinaciones
No supervisados.
Por ejemplo, Extracción de componentes principales (Principal Component Analysis,
PCA, o Expansión de Karhunen-Loeve:
19. Métodos de transformación de características II
Supervisados.
Por ejemplo, Análisis Discriminante Lineal (Linear Discriminant Analysis, LDA)
20. Clasificación
Aproximación Paramétrica: Asumimos una forma funcional para las distribuciones con-
dicionales de clase y consideramos como incógnitas ciertos parámetros de esas fun-
ciones. Por ejemplo, asumimos distribuciones normales y consideramos como pará-
metros el vector media y la matriz de covarianzas. Ejemplos: Clasificador Gaussiano,
Mezcla de Gaussianas.
El proceso de toma de decisión consiste en: dado un objeto x = x1, x2, ..., xd, asígne-
sele una de les c clases w1, w2, ..., wc.
Se asume que los objetos se distribuyen de acuerdo a una distribución de probabilidad
en forma de funciones condicionadas a las clases (“class conditional densities”).
Una regla de decisión da lugar a una partición del espacio de características en c regio-
nes. Las fronteras que separan estas regiones son las fronteras de decisión.
Si asumiéramos que no disponemos de información que relacione la clase con las ca-
racterísticas de los objetos, entonces la probabilidad de que un objeto cualquiera perte-
nezca a la clase i es lo que conocemos como probabilidad a priori de esa clase P (w i).
Suele estimarse por conteo. La regla de decisión más adecuada sería entonces asignar
la clase j de máxima probabilidad a priori:
Pero la utilidad de esta regla es muy limitada. Nuestro interés es emplear la información
presente en las características para estimar las probabilidades condicionales o proba-
bilidades a posteriori P (wi|x) de que un objeto x pertenezca a la clase i.
22. Clasificación III
p(x|wi)P (wi)
P (wi|x) = ,
p(x)
23. Clasificación IV
X
c
R(wi|x) = L(wi, wj )P (wj |x)
j=1
24. Entrenamiento de clasificadores
Como hemos dicho, cada clasificador estima las funciones de densidad de probabilidad
condicionales de las clases de un modo diferente. Repasemos los clasificadores más
conocidos:
Clasificadores Paramétricos
Gausiano Una gausiana por clase.
Mezcla de gausianas Varias gausianas por clase.
Clasificadores No Paramétricos
Ventanas de Parzen Cuenta los objetos en la vecindad del punto de prueba. Es el
caso más sencillo de los clasificadores basados en núcleos.
K vecinos más cercanos Miden el tamaño de la vecindad del punto de prueba que
contiene K vecinos de cada clase (o el número de vecinos de cada clase entre los
K más cercanos al punto de prueba)
Funciones Discriminantes Lineales Construyen directamente la frontera de deci-
sión entre cada par de clases.
Redes Neuronales Ajustan los pesos de una red de unidades no lineales para maxi-
mizar la salida correspondiente a la clase del objeto presentado a la entrada.