Professional Documents
Culture Documents
DIRECTOR
ING. PEDRO RAÚL VIZCAYA GUARÍN Ph.D
pág.
1. INTRODUCCIÓN 1
2. MARCO TEÓRICO 3
2.1. MARCO DE REFERENCIA 3
2.1.1. Flujo Vehicular. 3
2.1.1.1. Clasificación de modelos de Flujo Vehicular. 3
2.1.2. Variables Flujo Vehicular. 4
2.1.2.1. Tasa de flujo (q). 4
2.1.2.2. Velocidad (v). 4
2.1.2.3. La densidad o concentración (k). 4
2.2. VISIÓN ARTIFICIAL 4
2.2.1. Procesamiento Digital de Imágenes. 4
2.2.1.1. Filtrado espacial. 4
2.2.1.2. Operaciones Morfológicas. 5
2.2.1.2.1. Dilatación y Erosión. 5
i
pág.
5. ANÁLISIS DE RESULTADOS 24
5.1. TIEMPO REAL 24
5.2. CONTEO 24
5.3. CÁLCULO DE ERROR EN CONTEO 26
5.3.1. Falsos Positivos y Falsos Negativos. 28
5.3.2. Comparación resultados del trabajo de grado, con resultados de desarrollos anteriores. 31
5.3.3. Limitaciones del algoritmo. 32
6. CONCLUSIONES 33
7. BIBLIOGRAFÍA 35
LISTA DE TABLAS v
LISTA DE ANEXOS vi
ii
LISTA DE FIGURAS
pág.
iii
Figura 21. Porcentaje de Falsos positivos Vs. Falsos negativos con región
de valor estándar < 2< σ 30
Figura 22. Errores de conteo trabajo “Conteo Automático de vehículos” 31
iv
LISTA DE TABLAS
pág.
v
LISTA DE ANEXOS
vi
1. INTRODUCCIÓN
La Visión Artificial cada vez adquiere más importancia por sus múltiples aplicaciones a nivel
industrial, científico, médico, de seguridad, control de calidad, automatización de procesos
obtención, reconocimiento y clasificación de objetos por su tamaño, reconocimiento de rostros,
huellas dactilares, entre muchos otros.
Los sistemas de visión artificial utilizan de manera conjunta un amplio número de técnicas
diferentes y complementarias, tales como el análisis y procesamiento de imágenes, seguimiento
de múltiples objetos deformables, reconocimiento de patrones, etc.1, nos permite transformar la
imagen visual de un objeto en un conjunto de datos digitalizados que pueden ser procesados; la
extracción de información de secuencias de imágenes es clave en muchos sistemas de visión
artificial para la solución de problemas como la obtención de datos que nos permiten calcular
desplazamiento y velocidad de objetos, la modelización tridimensional del entorno, la
restauración de imágenes, etc.2 Es así como el seguimiento y caracterización dinámica de
objetos en movimiento permite la utilización de la visión artificial en aplicaciones como el
control de tráfico vehicular, pues, nos permite estimar la densidad vehicular el volumen de
tráfico y la velocidad que son los tres parámetros principales que describen el flujo vehicular.
El conteo vehicular es uno de los aspectos que componen un sistema de gestión de tráfico pero
es un elemento importante en los procesos de planeación y diseño de la construcción,
ampliación y modernización de la infraestructura. Este proyecto presenta un sistema automático
de conteo vehicular en tiempo real utilizando franjas de interés, y pretende cumplir con los
siguientes objetivos
1
Sistemas de visión artificial en tareas de video-vigilancia del tráfico grupo de Investigación Gavab-Capo,
de la Universidad Rey Juan Carlos (URJC) consultado marzo de 20010
En.: http://www.madrimasd.org/informacionidi/noticias/noticia.asp?id=42633.
2
ZULOAGA, Izaguirre Aitzol. Visión Artificial Dinámica Determinación de Movimiento a Partir de
Secuencias de Imágenes Doctorado en Tecnologías de la Información Bilbao, septiembre 98,
consultado abril de 2010.En.: http://reocities.com/capecanaveral/8482/docu003.pdf.
1
Recientemente en la Pontificia Universidad Javeriana se están desarrollando diversos trabajos
en el área de visión artificial, enmarcados en diferentes disciplinas como la medicina, la
seguridad, el tráfico, la Bioingeniería y la robótica. En el área de seguridad se destacan trabajos
como el de “Detección e identificación de rostros empleando SVM y color”3 e identificación de
huellas dactilares, como es “Detección de Detalles en Huellas Dactilares Usando Redes
Neuronales”4, el grupo BASPI viene desarrollando trabajos en las, áreas Análisis de señales
electroencefalográficas basado en un modelo dinámico del cerebro, Aprendizaje de máquinas,
estadístico, Audio, Presiones plantares, Prótesis y órtesis combinado con análisis de imágenes
2D-3D, Síntesis de voz en el idioma español, Tecnologías de apoyo a discapacitados,
Verificación de identidad empleando biomedidas, Voz.
3
DUARTE, M., HIDALGO, M., PINILLA, O.. Detección e identificación de rostros utilizando SVM y
color., Memorias STSIVA 2008.
4
HERRERA, S Fabian, URIBE, K. Leonardo Detección de detalles en huellas dactilares usando redes
neuronales, 2005.
5
CALDERON, B Francisco, URREGO, N. Germán, Conteo automático de vehículos. Trabajo de grado.
Pontificia universidad javeriana, Noviembre de 2008.
6
MAHECHA, N. Viviane, QUIROGA, Sepúlveda Julián. Sistema de reconocimiento y lectura de placas
de vehículos en movimiento, Memorias STSIVA 2008.
2
2. MARCO TEÓRICO
2.1.1. Flujo Vehicular. La teoría de flujo del tránsito se basa en el desarrollo de las
relaciones matemáticas entre los elementos primarios del flujo vehicular tales como flujo,
densidad y velocidad. Mediante el análisis del flujo vehicular se pueden entender las
características y el comportamiento del tránsito y se describe la forma como circulan los
vehículos en cualquier sistema vial.7
Los estudios sobre el flujo vehicular tienen sus comienzos en la década de los 30 con la
aplicación de la probabilidad para la descripción de éste, Greenshield realizó estudios
modelando el comportamiento de una línea de tráfico, proponiendo una relación lineal entre
velocidad y densidad después de la segunda guerra mundial con el aumento en el número de
vehículos surgen modelos como Car-Following, teoría de ondas de tráfico y teoría de colas para
la descripción del flujo vehicular. Se desarrollan trabajos muy importantes como los de
Reuschel (1950) Wardrop (1952), Pipes (1953), Lighthill y Whitman (1955), Newell (1955),
Richards (1956), Webster (1957), Eddie y Foote (1958). 8
En 1992 los científicos Kai Nagel y Michael Schreckenberg crearon un modelo de flujo de
tránsito vehicular con un autómata celular, donde cada célula del autómata equivale ya sea a un
vehículo en movimiento con cierta velocidad o a un espacio vacío de la avenida donde se
encuentran los vehículos. Algunos de estos modelos fueron desarrollados pensando en la
realización de las simulaciones a través de computadoras, el proyecto AISUM es un software
comercial para la simulación de tráfico y utiliza como modelo para sus simulaciones al “modelo
de Gipps de vehículo siguiente” (Peter Gipps) publicado en 1981.
7
CAL, Rafael, CÁRDENAS, Grisales James. Ingeniería de tránsito fundamentos y aplicaciones 7ª edición
editorial Alfa omega.
8
GARBER, Nicholas J./HOEL, Lester A. Ingeniería de Tránsito y Carreteras 3ª.Ed. México,2002 p.1999.
9
SERGE P,. Hoogendoorn and Piet H.L] State-of-the-art of Vehicular Traffic Flow Modeling,. Bov,
Special Issue on Road Traffic Modeling and Control of the Journal of Systems and Control
Engineering. En.: http://perseo.cs.buap.mx/bellatrix/tesis/TES1116.pdf p. 7.
3
En general todos los modelos deben ser regidos por las mismas variables fundamentales
velocidad, densidad y flujo, y por relaciones o ecuaciones entre dichas variables, similares en su
forma.10
2.1.2.1. Tasa de flujo (q). Se define el flujo como la frecuencia o número de vehículos que
pasa por un punto o sección transversal dada, de un carril o una calzada, durante un periodo
determinado, se expresa como: = n/t
Donde:
- q = Número de vehículos que pasan por unidad de tiempo (vehículos por periodo)
- n = Número total de vehículos que pasan (vehículos)
- t = periodo determinado (unidad de tiempo)
2.1.2.2. Velocidad (v). La velocidad del tráfico es la distancia recorrida por un vehículo
durante una unidad de tiempo regularmente se expresa en kilómetros por hora (km/h).
Estas tres variables están relacionadas mediante la ecuación fundamental del flujo vehicular
vehículos/tiempo =
“La visión por computador es la transformación de datos de una imagen o una video-cámara en
una decisión o una nueva representación. Todas estas transformaciones se realizan para lograr
un objetivo particular.”12
10
GONZÁLEZ, Juan Manuel et al. ¿Cómo mejorar el flujo vehicular por medio de la simulación?.
Saltillo Coahuila, México Escuela Nacional de Optimización y Análisis Numérico, 2003. p 2.
11
CAL, M. Rafael, CÁRDENAS, Grisales James Op. Cit.
12
.BRADSKY, Gary, KAEHLER, Adrián. Learning OpenCv. p.2.
4
2.2.1.2. Operaciones Morfológicas. Como lo expresa Zoluaga.13 Las operaciones
morfológicas a imágenes se definen como procedimientos en los cuales cada nuevo pixel de la
imagen resultante es obtenido de una operación no lineal entre un conjunto de puntos de la
imagen original F [x, y ] y un conjunto de puntos conocido con el nombre de elemento
estructurante S [x, y ] . Este elemento estructurante recorre toda la imagen para obtener todos los
puntos de la nueva imagen, sin cambiar el tamaño de la imagen de salida. (ver figura 1).
Figura 1 Operación morfológica de un elemento estructurante S[u,v] sobre un área de la imagen F[x,y] para obtener
una imagen G[x,y]. tomada de 14.
13
Zoluaga Op. Cit En http://reocities.com/capecanaveral/8482/docu003.pdf.
14
Ibid.
5
3. DESCRIPCIÓN GENERAL DEL PROCESO
El algoritmo propuesto realiza conteo vehicular en tiempo real, esta ventaja se consigue
procesando únicamente unas franjas de interés; adicionalmente se calcula la velocidad y
densidad de tráfico.
3.1. ESPECIFICACIONES
- Cámara de video
- Compilador C++ (Software libre)
- Windows XP
- Codecs de Video (Software libre)
- Librería de OpenCV (Software libre)
6
3.3. ENTRADAS Y SALIDAS DEL SISTEMA
7
3.4. DIAGRAMA EN BLOQUES DEL SISTEMA
CAPTURA Y SELECCIÓN DE
REGIONES DE ÍNTERES
UMBRALIZACIÓN
CRITERIO OTSU
SEGMENTACIÓN Y CERRAMIENTO
DETECCIÓN DE BLOBS
CONTEO FLUJO
ÓPTICO
FILTRO POR
AREA, LONGITUD Y
ANCHO
Figura 2. Diagrama general en bloques del desarrollo del algoritmo para conteo vehicular en tiempo real
8
4. DESCRIPCIÓN DETALLADA DEL SISTEMA
Las condiciones que deben cumplir los videos a procesar en el algoritmo son:
- De luminosidad. Se deben tomar con luz día, ya que al anochecer hay pérdida de color y no
se pueden identificar los objetos.
- De ángulo de la cámara. La cámara debe colocarse perpendicular a la vía para que no se
presente solapamiento de vehículos.
- Nitidez. Ésta debe ser suficiente para identificar los contornos de los vehículos.
- Resolución. 480 x 620 pixeles, a pesar de que no se requiere detalles de los vehículos,
simplemente detectar su presencia.
Los videos trabajados en este proyecto se tomaron del Banco de videos del Proyecto SIRP de la
Pontificia Universidad Javeriana. .
En este modulo se le permite al usuario que iniciará el sistema crear las franjas de interés y línea
de conteo, como el algoritmo se procesa más eficientemente si el flujo vehicular es horizontal,
el usuario debe ingresar la dirección del flujo y en caso de ser vertical se utiliza una matriz de
transformación sobre la imagen para obtener su representación horizontal. Esta configuración
puede guardarse en un archivo de texto, para posteriores comparaciones.
Las franjas deben definirse sobre la región del video donde se necesite considerar el flujo
vehicular; el algoritmo automáticamente las calibra garantizando que:
y1 = y3
y2 = y4
x2 − x1 = x4 − x3
9
1 2
y1
f1 f2
y2
x1 x2 x3 x4
Figura 4. Diagrama Franjas de interés y línea de conteo
En este modulo se desarrolló un filtro con memoria de primer orden, regido por un parámetro
α , que determina que tanto peso tiene la imagen de entrada con respecto a la imagen
acumulada del fondo, y se obtiene la imagen del frente en escala de grises (ver figuras 5, 6 y 7);
el comportamiento de el filtro esta dado por la siguiente ecuación
10
Y ( z ) = α . X ( z ) + Y ( z ).(1 − α ).z −1
Y (z) α
=
X ( z ) 1 − (1 − α ).z −1
donde:
FONDO
VIDEO α +
(1-α).Z-1
- IMAGEN
+ UMBRAL BINARIA
OTSU FRENTE
1 2
3 4
11
1 2
3 4
Figura 7. Detalle de la franja de interés 1. Entrada 2. Fondo,
3. Frente a color 4. Frente en escala de grises
La conversión de la imagen de frente en modelo de color RGB figura. 7-3 a escala de grises
figura. 7-4 se realiza con la siguiente fórmula y el propósito es poder realizar la segmentación.
4.4. SEGMENTACIÓN
4.4.1. Umbralización. Se requiere obtener una imagen binaria, que muestre los objetos
presentes en la franja de interés. La binarización se realiza únicamente sobre la imagen de frente
generada (ver figura 7.3, 7-4). Como la escena es cambiante en términos de iluminación y color
de los objetos (vehículos) con respecto al fondo, no es factible utilizar un valor fijo de umbral.
Un método robusto y ligero computacionalmente, es el método de OTSU, (ver anexo 2)
.Método de OTSU)) .éste asume que las imágenes están constituidas por dos clases de píxeles,
píxeles de frente y píxeles de fondo, después, elige el umbral óptimo que maximice la varianza
intra-clase, es decir el punto mínimo entre dos clases.
12
1 1 2
Figura 8. Umbralización Franja de interés
1.. Frente en escala de grises 2. Imagen Binaria
A partir de la imagen binaria del frente obtenida en el proceso de umbralización, (figura 8-2) se
genera una imagen completa por cada una de las franjas de interés, para ello se colocan las
franjas una detrás de la otra al inicio de la imagen a medida que van siendo procesadas. (ver
figura 9)
13
En la figura 9 se aprecia el proceso de formación de la imagen, se observa como se coloca una
franja detrás de la otra hasta obtener la imagen completa. Se obtiene una imagen por franja, que
representa el tránsito vehicular y a partir de ésta se realiza el conteo y el cálculo de los
parámetros de tráfico.
En este modulo se desarrolló un procedimiento para detectar los objetos en la imagen binaria
(figura. 10), basado en el planteamiento de marcado de componentes conexos desarrollado por
Matlab.
La creación de regiones se realiza únicamente sobre la franja de interés, para cada región nueva
se determina si esta es adyacente a alguna de las regiones existentes, de suceder este evento, la
región existente crece y actualiza sus límites con respecto a los de la región nueva y la región
nueva se borra, de lo contrario esta permanece. Las regiones existentes en la imagen se mueven
horizontalmente una distancia igual al ancho de la región y se itera sobre el procedimiento. Con
este algoritmo determinamos la conectividad de todos los objetos presentes en la secuencia de
imágenes, reduciendo drásticamente la cantidad de operaciones por trama.
14
4.7. CONTEO
Observamos que las regiones detectadas continúan moviéndose a la derecha a medida que la
región se actualiza, cuando el final de la región pasa por la línea de conteo se incrementa el
contador de vehículos si la región identificad cumple con los requisitos de área, ancho y largo.
4.7.1. Umbrales de Área, Ancho y Largo. Para calcular los umbrales de área, longitud
y ancho se desarrollo un filtro de primer orden con memoria, basado en el mismo concepto
utilizado para el cálculo de fondo.
Donde:
Las regiones que no cumplen con el umbral de área, longitud y ancho, se ignoran.
4.8.1. Cálculo del Centro Para obtener la trayectoria de los objetos se calculó el centro
de cada una de las regiones identificadas.
Donde c ( x, y ) es el centro de la región detectada y X y Y son las coordenadas de los puntos que
conforman la región, máximos y mínimos respectivamente.
15
4.8.2. Algoritmo de Lukas y Kanade Los algoritmos de flujo óptico buscan solucionar
el problema de encontrar el movimiento de los píxeles entre 2 imágenes. Por lo tanto el
problema consiste en encontrar una correspondencia entre los píxeles de la primera imagen con
los de la segunda.
16
Para realizar estos cálculos se deben tomar en cuenta 3 suposiciones fundamentales:
1. Constancia del color, para imágenes en escala de grises es constancia del brillo.
2. Movimientos pequeños
∂I ∂I ∂I
Ix = I, Iy = , It =
∂x t ∂y t ∂y x (t )
I xu + I y v + I t = 0
,
Para esta ecuación existen 2 incognitas para cada píxel, por lo tanto no se puede utilizar
para obtener una solución única para el movimiento bidimensional en un punto
17
Podemos observar el problema de apertura en el siguiente gráfico, que se presenta cuando la
ventana sobre la cual se presenta el algoritmo es muy pequeña.
A partir de este sistema se puede realizar una minimización por mínimos cuadrados
18
La solución a esta ecuación es:
Esta ecuación se puede resolver cuando (ATA) es invertible, es decir tiene rango completo.
Este algoritmo nos pide una imagen de entrada, una imagen de salida, 2 imágenes que se
utilizan como buffer para alojar la imagen de las pirámide, un conjunto de puntos donde se
encuentra el movimiento en la imagen de entrada, un contador de la cantidad de puntos donde
se encuentra movimiento, la ventana sobre la cual se va a calcular el movimiento coherente, un
criterio de terminación que le dice al algoritmo cuando terminar bien sea después de
determinado número de iteraciones o cuando el criterio de convergencia llegue a cierto valor.
En el algoritmo planteado para encontrar la relación entre los objetos presentes en la primera
franja y los objetos presentes en la segunda, se planteó un algoritmo de flujo óptico que
relacionará los centros de cada uno de los objetos identificados en la imagen respetando las 3
suposiciones anteriormente planteadas.
19
La primera imagen “Before 1”, es una imagen donde sobre un fondo blanco se dibujaron
círculos de 3 píxeles de radio que representan los centros de cada uno de los objetos presentes
en la imagen consolidada de la región 1 y se realiza la mismo para la segunda imagen “After
1”, con los puntos correspondientes a la franja 2, las posiciones de los puntos de entrada se
obtienen del arreglo de centros que se genera cuando se calcula la región.
3 4
Figura 16. L-K utilizado en el algoritmo
Imágenes de entrada para el algoritmo de flujo óptico, círculos verdes y rojos se utilizaron
únicamente con el propósito de señalar los centros de los objetos en las imágenes, no formaron
parte del procesamiento del algoritmo de flujo óptico.
20
4.9. MEDICIONES DE TRÁFICO VEHICULAR
n
q=
t
N= Número de vehículos obtenidos del conteo automático en un período de tiempo t.
f
t=
fps
Remplazando en
,
n × fps
q=
f
4.9.2. Velocidad.
d
v=
t
Franjas
v=
t
En el manejo de franjas observamos que la imagen se traslada a una velocidad de una franja por
trama; utilizando flujo óptico obtenemos el desplazamiento de un objeto entre franjas, la
distancia entre las franjas es calculada por el algoritmo. La velocidad se calcula en términos de
Franjas / tiempo. Entonces:
d
t= ,
fps
dFr
v= ,
t
dFr × fps
v=
d
21
Donde
d= distancia encontrada por el algoritmo de flujo óptico.
dFr = distancia entre franjas
q = k ×v
q
k=
v
Para evaluar los parámetros óptimos de entrada, como ángulo de toma de la cámara, calidad del
video y luminosidad se realizaron pruebas con los videos relacionados en la tabla 1.
(suministrados por el grupo SIRP de la Pontificia Universidad Javeriana), con diferentes
localizaciones y tamaños de las franjas de interés.
VIDEOS
Dirección Tiempo
Num Tipo Características
muestra
1 Vertical 3 min Entrenamiento Ángulo de toma 60º sobre la vía
2 Horizontal 5 min Entrenamiento Ángulo de toma 90º sobre la vía
3 Vertical 5 min Prueba Ángulo de toma 90º sobre la vía
4 Horizontal 3 min Entrenamiento Ángulo agudo de toma
Ángulo de toma 90º sobre la vía,
5 Vertical 4:30 min Entrenamiento intersección, sombras únicamente sobre
uno de los carriles.
Ángulo de toma 60º
6 Vertical 5 min Prueba
No se presenta oclusión de vehículos
Escena lluviosa, se observan sombras de
7 Vertical 5 min Entrenamiento los carros, Ángulo de toma 60º sobre la
vía, escena difuminada
8 Vertical 7 min Entrenamiento Ángulo de toma 60º sobre la vía
Movimiento de la cámara, Ángulo de
9 Vertical 7 min Descartado
toma 60º sobre la vía
10 Vertical 1:20 min Descartado Sobrelapamiento de vehículos
11 Vertical 3:00 min Descartado Sobrelapamiento de vehículos
12 Vertical 1:00 min Descartado Video recortado
22
Realizadas las pruebas, con la información obtenida de los videos, se clasificaron en tres
categorías de entrenamiento, de pruebas y descartados.
- Videos de prueba. Éstos cumplen las características óptimas para ejecución del algoritmo
Se utilizaron como referencia para obtener información (conteo, flujo vehicular).
- Videos descartados. Realizadas las pruebas se obtuvo que los videos 9 10, 11, 12 no son
aptos para la ejecución del algoritmo por diferentes razones:
23
5. ANÁLISIS DE RESULTADOS
Para evaluar el desempeño del modelo se realizaron pruebas orientadas a medir diferentes
aspectos del algoritmo, tiempo de ejecución, conteo y cálculo de parámetros de tráfico.
5.2. CONTEO
Se trabajó con el promedio del conteo manual de cada uno de los videos, registrando muestras
cada 30 segundos, empezando la toma de datos en el segundo 30, tiempo aproximado que utiliza
el algoritmo para estabilizar el filtro de fondo. Se ejecutó el sistema en modo depuración,
deteniendo la ejecución cada vez que éste realizaba un conteo, procedimiento con el cual se
clasificó fácilmente el conteo en tres grupos distintos:
24
Los resultados del conteo manual, automático, falsos positivos y falsos negativos se muestran en
la tabla 3.
Manual 92 13 48 11 27 42 45 39 20
Automático 85 14 47 11 24 45 45 38 16
60
Falsos Positivos 2 3 0 0 2 4 2 0
Falsos Negativos 9 1 1 0 5 1 4 1
Manual 138 37 54 32 49 56 60 69 26
Automático 128 39 51 32 43 58 58 63 20
90
Falsos Positivos 2 4 0 2 2 5 2 0
Falsos Negativos 13 2 3 2 8 3 4 3
Manual 190 47 63 45 72 75 82 87 38
Automático 176 51 60 47 66 77 81 84 33
120
Falsos Positivos 3 7 0 4 4 6 4 0
Falsos Negativos 17 3 3 2 10 4 5 3
25
RELACION DE CONTEOS -MANUAL - AUTOMATICO -
FALSOS POSITIVOS Y NEGATIVOS POR VIDEO
TIEMPO VIDEOS
CONTEO
Seg 1 2 3 4 5 6 7 8 9
Manual 93 168 180 239 220 113
Automático 108 161 181 232 204 110
300
Falsos Positivos 20 0 18 19 0
Falsos Negativos 5 8 10 26 16
Manual 324
Automático 324
420
Falsos Positivos 28
Falsos Negativos 28
Tabla 3. Relación de Conteos –Manual, Automático, Falsos Positivos y Negativos por Video
Se tomó como total de la muestra el promedio obtenido del conteo manual, el porcentaje de
error por video se calculó utilizando la siguiente expresión
CM − C A
× 100%
CM
En las figuras 12 y 13 se observan las diferencias de conteo total manual y automático para cada
video, y su correspondiente porcentaje de error.
26
CONTEO TOTAL POR VIDEO MANUAL Y AUTOMATICO
27
El video 2 se tomó con un ángulo de 90° sobre la vía, sin embargo presenta 2 condiciones que
generan falsos positivos, al estar cerca de un semáforo. Los peatones que recorren las franjas de
interés de manera transversal dan la apariencia de ser un vehículo; adicionalmente cuando un
vehículo se detiene estando sobre una franja, el algoritmo detecta como positivo la porción del
vehículo que pasó y lo vuelve a detectar, cuando el vehículo sale, generando un falso positivo.
(ver figura 14)
La tabla 4 muestra los lo porcentajes de falsos positivos Vs. los falsos negativos, los valores
estándar del conjunto de datos
28
FP = 4,75 FN = 4,24
σFP = 4,53 σFP = 4,53
x−x
Z=
σ
Por medio del valor estándar podemos inferir la distribución probabilística del
porcentaje de fp y los fn como se muestra en la Figura 16.
29
Figura 21. Porcentaje de Falsos positivos Vs. Falsos negativos con región de valor estándar < 2< σ
Donde la elipse corresponde al conjunto de puntos que están a una distancia menor de 2 × σ de
la media, región que según la desigualdad de Chebyshev, alberga el 75 % de los datos de una
muestra probabilística.
Analizando la gráfica encontramos que a pesar de las diferentes características de los videos el
algoritmo los procesa correctamente.
FP = FN → 0
Si los falsos positivos y falsos negativos son iguales se anulan minimizando el error de conteo,
sin embargo la situación ideal corresponde a FP = FN = 0 donde el error sería de 0%.
30
5.3.2. Comparación resultados del trabajo de grado, con resultados de desarrollos
anteriores
Los resultados del trabajo de grado son comparables a los resultados del trabajo desarrollado
por Francisco Carlos Calderon B. y German Enrique Urrego N. Conteo Automático de
Vehículos. En este trabajo de grado se planteó un sistema de conteo de vehículos procesando
sobre la imagen completa, utilizando un modelo gaussiano para procesar el fondo.
Nuestro trabajo analizó los resultados obtenidos, mediante verdaderos positivos, falsos
positivos y falsos negativos. Una comparación del conteo total entregado por el algoritmo vs el
conteo realizado manualmente, en ciertos casos puede mostrar resultados falsos acerca de la
calidad del algoritmo. Un algoritmo con 0% de error parece perfecto pero puede ser causado
por la cancelación de falsos positivos con falsos negativos.
El anterior trabajo presenta los resultados en términos del error total, por lo cual no podemos
realizar una comparación directa con los resultados obtenidos por nuestro algoritmo, ya que
nuestro cálculo de error esta discriminado en falsos positivos y falsos negativos. Para poder
realizar una comparación entre los modelos deberíamos contar con la curva característica, que
nos permitiera realizar una comparación directa bajo iguales condiciones de prueba.
Por lo tanto tenemos que el 54 % de los errores detectados son errores debido a falsos positivos
y 46 % son errores debido a falsos negativos, pero dado que estos resultados son un
consolidado total de los errores en todos los videos no podemos sacar conclusiones
relacionadas al desempeño de los 2 modelos.
31
5.3.3. Limitaciones del algoritmo
El algoritmo procesa óptimamente los videos cuando el ángulo de la cámara es de 90º sobre la
vía, para ángulos menores se presentan oclusiones que producirán falsos negativos en la
ejecución por sobrelapamiento de objetos.
Cuando un vehículo se detiene estando sobre una franja, el algoritmo detecta como positivo la
porción del vehículo que pasó y lo vuelve a detectar, cuando el vehículo sale, generando un
falso positivo. El parámetro del fondo puede actualizarse en función de la velocidad calculada
por el algoritmo, con lo cual se obtiene una retro-alimentación directa de los datos obtenidos, y
mediante el cual se mitiga el efecto del conteo doble, cuando un vehículo se estaciona sobre
una franja de interés.
El modelo presenta inconvenientes con respecto a la distinción de las sombras de los objetos lo
cual se ve reflejado en falsos negativos ya que puede generar que vehículos distintos se
conecten entre sí. Es posible realizar un modelo que tenga en cuenta la información de color,
obteniendo mayor información de los objetos mediante la cual se podría eliminar la fuente de
error generada por las sombras mejorando así el proceso de detección de los objetos.
32
6. CONCLUSIONES
La aparición de unidades de procesamiento más potentes y a precios más bajos permite que se
desarrollen algoritmos, autónomos y robustos, con tiempos de procesamiento considerablemente
menores. A medida que los recursos tanto tecnológicos como de conocimiento para desarrollar
aplicaciones de visión artificial se han vuelto asequibles, a la comunidad académica, se presenta
una oportunidad de desarrollo y actualización en un ámbito de gran pujanza e innovación.
Abriéndose un panorama favorable para la implantación de nuevas tecnologías y la creación de
nuevas industrias en el país.
El presente trabajo plantea un algoritmo que permite realizar conteo vehicular en tiempo real,
para su procesamiento se utiliza un computador con prestaciones comunes y se obtiene un alto
grado de desempeño. Se estableció que no era necesario realizar un procesamiento sobre toda la
imagen debido a la presencia de información redundante en ésta, el algoritmo obtiene la
información procesando únicamente sobre franjas de interés del video
Este desarrollo sirve como base a otros proyectos que quieran expandir su funcionalidad, por
ejemplo la implementación del algoritmo sobre intersecciones o glorietas. La extracción de
información acerca del tamaño y espaciamiento de vehículos.
33
El tiempo de procesamiento se puede reducir aún más si se utilizan técnicas de programación
multi-hilo en donde se puede generar un hilo de procesamiento por cada región procesada y así
aprovechar al máximo las capacidades del procesador. El desarrollo requiere sincronizar las
diferentes variables utilizadas, para evitar problemas de concurrencia y paralelismo. No es un
problema simple debido a que C++ no provee un método de sincronización de variables de una
manera natural como otros lenguajes, como Java.
Se exploraron técnicas de seguimiento de trayectoria, para calcular la velocidad media del flujo
vehicular, logrando simplificar los parámetros de entrada y de procesamiento teniendo siempre
como meta la optimización del tiempo de ejecución del algoritmo con el fin de procesar en
tiempo real.
34
7. BIBLIOGRAFÍA
GONZÁLEZ, Juan Manuel et al. ¿Cómo mejorar el flujo vehicular por medio de la
simulación?. Saltillo Coahuila, México Escuela Nacional de Optimización y Análisis
Numérico, 2003. p 2.
GONZALEZ, Rafael C., WOODS, Richard E., EDDINS, Steven L. Digital Image Using Matlab
Processing. Pearson. Prentice Hall. 2004.
CHAO, Lincoln L. Estadística para las Ciencias Administrativas. McGRAW-HILL 2ª. ed.1978
P.471
FUENTES ELECTRÓNICAS
GAVAB, grupo de Investigación - Capo, de la Universidad Rey Juan Carlos (URJC). Sistemas
de visión artificial en tareas de video-vigilancia del tráfico consultado marzo de 20010
En http://www.madrimasd.org/informacionidi/noticias/ noticia.asp?id=42633.
MERY, Domingo, RUEDA, Luis. Advances in Image and Video Technology. Second Pacific
Rim Symposium PSIVT, Procceding. 2007 [en línea](consultado en 2009) En.
http://books.google.com.co/books?id=vkNfw8SsU3oC&pg=PA138&source=gbs_select
ed_pages&cad=4#v=onepage&q&f=false
35
ZULOAGA, Izaguirre Aitzol. Visión Artificial Dinámica Determinación de Movimiento a Partir
de Secuencias de Imágenes Doctorado en Tecnologías de la Información Bilbao,
septiembre 98, consultado abril de 2010.En
. : http://reocities.com/capecanaveral/8482/docu003.pdf
http://iaci.unq.edu.ar/Materias/vision/archivos/apuntes/Segmentaci%C3%B3n%20por%20umbr
alizaci%C3%B3n%20-%20M%C3%A9todo%20de%20Otsu.pdf.
36