You are on page 1of 11

Redes Neuronales Artificiales para el Reconocimiento de

Patrones
A. Blanco
Armando_jadb
@hotmail.com

E. Salazar
Ernesto_sj23@
hotmail.com

A. Cuadras
Nanes.cg@hot
mail.com

S. Ramrez
thecrimes@hot
mail.com

A. Beltrn
alonsoa_bv@ho
tmail.com

Tecnolgico Nacional de Mxico


Instituto Tecnolgico de Culiacn Departamento de Metal Mecnica
AbstractArtificial neural networks models have been
develop for many years achieving huge advances in face
and speech recognition. In this paper five types of ANNs
are reviewed in order to select the appropriate for
different applications according to the pattern involved.
The main purpose of this research is to describe these
neural networks in the pattern recognition field to
support the student and engineering research and
technology developments.
KeywordsArtificial Intelligence, Artificial Neural
Network, Pattern Recognition.

I.

INTRODUCCIN

Para abordar el concepto de inteligencia artificial, tal vez


cabra plantearse primero la siguiente pregunta: qu es la
inteligencia? Sin duda, se trata de una pregunta difcil
cuya respuesta an no ha sido resuelta totalmente, la cual
sigue desconcertando tanto a los bilogos como a los
psiclogos y filsofos de nuestra poca. No obstante la
intencin del artculo es implementar el uso de redes
neuronales para el reconocimiento de patrones que nos
ayuden a identificar ciertas caractersticas distintivas de la
denominada inteligencia artificial (IA). Se podra objetar
que algunas propiedades generales que presenta la
inteligencia humana, como por ejemplo la habilidad de
enfrentar nuevas situaciones, la habilidad de resolver
problemas, de responder preguntas, elaborar planes, etc.
Se plantea como hiptesis que una red neuronal de las
estudiadas a continuacin servir para el desarrollo e
implementacin en aplicaciones industriales. A travs de la
experimentacin y puesta a prueba de estas redes
neuronales se busca validar esta suposicin.
Desde sus inicios, el hombre se represent el mundo real
mediante smbolos, los cuales constituyen la base del
lenguaje humano. Del mismo modo, se podra considerar a

la IA como un dialecto simblico constituido por cadenas


de caracteres que representan conceptos del mundo real. De
hecho, los procesos simblicos son una caracterstica
esencial de la IA. En otras palabras es posible formular una
definicin ms aproximada de nuestro objeto de estudio: la
IA es una rama de las ciencias computacionales que se
ocupa de los smbolos y mtodos no algortmicos para la
resolucin de problemas.
Por otra parte la tecnologa neural trata de reproducir el
proceso de solucin de problemas del cerebro. As como
los humanos aplican el conocimiento ganado con la
experiencia a nuevos problemas o situaciones, una red
neural toma como ejemplos problemas resueltos para
construir un sistema que toma decisiones y realiza
clasificaciones. Los problemas adecuados para la solucin
neural son aquellos que no tienen solucin computacional
precisa o que requieren algoritmos muy extensos como en
el caso del reconocimiento de imgenes.
Por todo esto nuestro trabajo de investigacin podamos
llegar a identificar el mtodo ms ptimo en el
reconocimiento de patrones por medio de redes neuronales.
Es probable que al cuestionarnos sobre los distintos tipos
de redes neuronales y su aplicacin en el reconocimiento
se logre adaptar el mejor mtodo para la aplicacin que
deseamos, cualquiera que esta sea. Pongamos por caso las
Redes Hopfield, redes Hamming, son algunas de los tipos
que nos dimos a la tarea de investigar para hacer de esta
investigacin un trabajo satisfactorio y con resultados
reales que en un futuro puedan ser aplicados.
Como se ha dicho este trabajo ser realizado con el fin de
enfocar nuestra atencin a las redes neuronales y su
aplicacin, centrando nuestra atencin a los tipos de redes
y como es que funciona cada una y la aplicacin que
podemos darle. En conclusin es probable que toda esta
investigacin sea aplicada en un futuro, por eso es
necesario seguir aportando informacin y buen

conocimiento de esta rea de la inteligencia artificial, por


lo pronto podemos plantear como hiptesis que al finalizar
esta investigacin esperamos concluir cual es la red
neuronal que mayor eficacia y funcionalidad nos puede
aportar a la rama de reconocimiento de patrones, as como
tambin sealar las aplicaciones posibles que se les puede
dar. De manera que no solo vayamos a destacar una sola
red neuronal, sino tambin buscar conocer y trabajar con
los diferentes tipos de redes neuronales, sin importar que
no estn aplicadas al reconocimiento de patrones.

II.

REDES NEURONALES ARTIFICIALES

El principal propsito de todos los sistemas neuronales es


el control centralizado de varias funciones biolgicas,
algunas de ellas responsables del abastecimiento de
energa, pues el sistema de neuronal est conectado al
metabolismo, control cardiovascular y la respiracin. Hay
mecanismos neuronales para los ritmos biolgicos,
funciones de emergencia, etc.
Las funciones anteriores son comunes en la mayora de los
animales, por otro lado en los animales superiores, la
mayor capacidad del sistema nervioso central est
relacionada con el comportamiento. Es decir, el control del
estado del organismo con respecto a su entorno.
Las redes neuronales definen una nueva forman de
computacin inspirada en sistemas biolgicos.
Son redes interconectadas masivamente en paralelo de
elementos simples (usualmente adaptativos) y con
organizacin jerrquica, las cuales intentan interactuar con
los objetos del mundo real del mismo modo que lo hace el
sistema nervioso biolgico.
En las redes neuronales biolgicas, las clulas neuronales
(neuronas) corresponden a los elementos de procesos
anteriores. Las interconexiones (sinapsis) con otras
neuronas. Las redes neuronales son sistemas de simples
elementos de proceso muy interconectados. Como se puede
validar en [1].
Existen cuatro aspectos que caracterizan a una red
neuronal: su topologa, el mecanismo de aprendizaje, tipo
de asociacin realizada entre la informacin de entrada y
salida, y por ltimo, la forma de representacin de estas
informaciones. En este artculo se analizan las
caractersticas aplicadas a algunos modelos de redes
neuronales.
La topologa o arquitectura de las redes neuronales consiste
en la organizacin y disposicin de las neuronas en la red
formando capas o agrupaciones de neuronas ms o menos
alejadas de la entrada y salida de la red. En este sentido, los
parmetros fundamentales de la red son: el nmero de

capas, el nmero de neuronas por capa, el grado de


conectividad y el tipo de conexiones entre neuronas.
El aprendizaje es el proceso por el cual una red neuronal
modifica sus pesos en respuesta a una informacin de
entrada. Los cambios que se producen durante el proceso
de aprendizaje se reducen a la destruccin, modificacin y
creacin de conexiones entre las neuronas.
Las redes neuronales son sistemas que almacenan cierta
informacin aprendida; esta informacin se registra de
forma distribuida en los pesos asociados a las conexiones
entre neuronas. Por tanto, puede imaginarse una red como
cierto tipo de memoria que almacena unos datos de forma
estable, datos que se grabarn en dicha memoria como
consecuencia del aprendizaje de la red y que podrn ser
ledos a la salida como respuesta a cierta informacin de
entrada, comportndose como memoria asociativa; es
decir, cuando se aplica un estmulo a la red responde con
una salida asociada a dicha informacin de entrada.
Las redes neuronales pueden tambin clasificarse en
funcin de la forma en que se representan la informacin
de entrada y las respuestas o datos de salida.

A. Redes Hopfield
Una red Hopfield es una red neuronal artificial monocapa
donde sus neuronas estn interconectadas [2].

Caractersticas de una red neuronal de Hopfield:


i.
ii.
iii.
iv.
v.
vi.
vii.

Es una red monocapa.


Se usa para resolver problemas de memoria
asociativa.
Usa el mtodo de aprendizaje no supervisado.
Los datos de entrada y salida son binarios (0,1) o
bipolares (1,-1).
Los lazos wii = 0, i, ninguna unidad tiene relacin
consigo misma.,
Los lazos wij = wji, i, j, tienen conexiones
simtricas.
Poseen un valor escalar asociado a cada estado de
la red conocido como energa (E) de la red.
1

= , w +
2

(1)

E: Energa.
W: es la fuerza del peso de la conexin de la unidad.
(Peso de conexin).
S: Estado de la unidad.
:Teta: umbral de la unidad.

Las redes de Hopfield tiene como funcin buscar que los


estados de las neuronas lleguen a un estado estable, los

puntos estables corresponden con mnimos de la funcin de


la energa. Tal como se menciona en [3].

sinapsis

X1

Wi1

Procesamiento
Estado 1
Unidad 1

X2

CUERPO CELULAR

Wi2
Wij

XJ

axn

F( )

yi
Salida

Win

Xn

Entradas
Procesamiento
Unidad 2
Estado 1

Procesamiento
Unidad 4
Estado 0

-1
dendritas

Fig. 2 Representacin grfica de una neurona

B. Red Backpropagation

Procesamiento
Unidad 3
Estado 0

Fig. 1 Estructura de red Hopfield


En la fase de almacenamiento se determinan los valores
que tendrn los pesos para almacenar un conjunto de
patrones. La fase de recuperacin es el mecanismo para
recuperar la informacin almacenada a parir de
informacin incompleta.
Se introduce el patrn de la prueba diferente de los patrones
almacenados y la red debe recuperar el patrn almacenado
ms parecido al patrn de prueba.
Puede ocurrir que en la fase de recuperacin la red converja
a estados de estables que no correspondan con los patrones
almacenados, normalmente esto ocurre por almacenar un
excesivo nmero de patrones.
Tiene un nmero de entradas, si se desea almacena
demasiada informacin durante su funcionamiento la red
puede converger valores no deseados, salidas diferentes de
los aprendidos
Las informaciones almacenadas tienen que ser
suficientemente diferentes entre s, pues si no puede ocurrir
que ante una entrada la red no haga una asociacin correcta
y genera una salida errnea.
Un ejemplo de la aplicacin de esta red se menciona en:
[4].

La invencin del algoritmo Backpropagation ha


desempeado un papel vital en el resurgimiento del inters
de las redes neuronales artificiales. Backpropagation es un
mtodo de entrenamiento de redes multicapa. Su potencia
reside en su capacidad de entrenar capas ocultas y de este
modo supera las posibilidades restringidas de las redes de
una nica capa. Como podemos observar en [5].
El concepto bsico de Backpropagation fue presentado en
1974 por Paul Werbos e independientemente reinventado
por David Parker en 1982, y tambin presentado en 1986
por Rumelhart, Hinton y Willians.
La unidad procesadora bsica de la red Backpropagation se
representa en la siguiente figura. Las entradas se muestran
a la izquierda, y a la derecha se encuentran unidades que
reciben la salida de la unidad procesadora situada en el
centro de la figura. La unidad procesadora se caracteriza
por realizar una suma ponderada de las entradas llamada
Sj, presentar una salida aj y tener un valor j asociado que
se utilizar en el proceso de ajuste de los pesos. El peso
asociado a la conexin desde la unidad i a la unidad j se
representa por wji, y es modificado durante el proceso de
aprendizaje [6].

k=Valor de Error
Wi1

Wi2

Win

S1: Suma de Pesos


F(S1)= Salida

Fig. 3 Unidad Procesador Bsica Backpropagation

Normalmente, la Backpropagation utiliza tres o ms capas


de unidades procesadoras. La capa inferior es la capa de
entrada, y se caracteriza por ser la nica capa cuyas
unidades procesadoras reciben entradas desde el exterior.
Sirven como puntos distribuidores, no realizan ninguna
operacin de clculo. Las unidades procesadoras de las
dems capas procesan las seales. La siguiente capa
superior es la capa oculta, y todas sus unidades
procesadoras estn interconectadas con la capa inferior y
con la capa superior. La capa superior es la capa de salida
que presenta la respuesta de la red.
PATRONES DE
SALIDA

UNIDADES DE SALIDA

UNIDADES
ESCONDIDAS

UNIDADES DE
ENTRADA

PATRONES DE
ENTRADA

Fig. 4 Red Backpropagation completamente


interconectada.
Las redes Backpropagation han demostrado su capacidad
de trabajar con xito en un amplio rango de aplicaciones
incluyendo clasificacin de imgenes [7] [8], sntesis de
voz, clasificacin de ecos de sonar, sistemas de base de
conocimiento, codificacin de informacin y muchos otros
problemas de clasificacin y problemas de percepcin [9].
Algunos ejemplos y estudios de aplicaciones de la
Backpropagation son los siguientes:
En Japn NEC ha anunciado la utilizacin de una red
backpropagation en un sistema de reconocimiento ptico
de caracteres, obteniendo una exactitud superior al 99%.
Esta mejora ha sido conseguida mediante la combinacin
de algoritmos convencionales y una backpropagation que
provee una verificacin adicional. Otra aplicacin de la red
backpropagation es el reconocimiento de formas de dos
dimensiones. Este tipo de sistemas es muy til en
aplicaciones de identificacin de nmeros escritos a mano,
lectura de caracteres escritos a mano, ordenamiento de

partes en una produccin industrial, inspeccin automtica


de defectos y procesado de imgenes mdicas (Dayhoff
1988).

C. Mapas Auto Organizados de Kohonen o


SOM (Self-Organizing Maps)
Este tipo de red neuronal, mediante un aprendizaje no
supervisado, puede ser de gran utilidad en el campo del
anlisis exploratorio de datos, debido a que son sistemas
capaces de realizar anlisis de clster, representar
densidades de probabilidad y proyectar un espacio de alta
dimensin sobre otro de dimensin mucho menor, se
caracteriza por poseer un aprendizaje no supervisado
competitivo.
A diferencia de lo que sucede en el aprendizaje
supervisado, en el no supervisado (o autoorganizado) no
existe ningn maestro externo que indique si la red
neuronal est operando correcta o incorrectamente, pues no
se dispone de ninguna salida objetivo hacia la cual la red
neuronal deba tender. As, durante el proceso de
aprendizaje la red autoorganizada debe descubrir por s
misma rasgos comunes, regularidades, correlaciones o
categoras en los datos de entrada, e incorporarlos a su
estructura interna de conexiones. Tal como se menciona en
[10].
El objetivo de este aprendizaje es categorizar (clusterizar)
los datos que se introducen en la red. De esta forma, las
informaciones similares son clasificadas formando parte de
la misma categora y, por tanto, deben activar la misma
neurona de salida. Las clases o categoras deben ser creadas
por la propia red, puesto que se trata de un aprendizaje no
supervisado, a travs de las correlaciones entre los datos de
entrada. Algunas aplicaciones del mismo aparecen en los
artculos [11] [12] y otra con el reconocimiento de acciones
mencionado en: [13].
Un modelo SOM est compuesto por dos capas de
neuronas. La capa de entrada (formada por N neuronas, una
por cada variable de entrada) se encarga de recibir y
transmitir a la capa de salida la informacin procedente del
exterior. La capa de salida (formada por M neuronas) es la
encargada de procesar la informacin y formar el mapa de
rasgos.

vencedora), ||Xp-Wj|| representa una medida de similitud


entre el vector o patrn de entrada Xp: xp1,..., xpi,...,xpN y
el vector de pesos Wj: wj1,..., wji,...wjN, de las conexiones
entre cada una de las neuronas de entrada y la neurona de
salida j.

CAPA DE SALIDA M

D. Redes ANFIS
CAPA DE
ENTRADA
N

Wn

Fig. 5 Arquitectura del SOM


Las conexiones entre las dos capas que forman la red son
siempre hacia delante, es decir, la informacin se propaga
desde la capa de entrada hacia la capa de salida. Cada
neurona de entrada i est conectada con cada una de las
neuronas de salida j mediante un peso wji. De esta forma,
las neuronas de salida tienen asociado un vector de pesos
Wj llamado vector de referencia (o codebook), debido a
que constituye el vector prototipo (o promedio) de la
categora representada por la neurona de salida j. Como se
puede validar en [14].
Entre las neuronas de la capa de salida, puede decirse que
existen conexiones laterales de excitacin e inhibicin
implcitas, pues aunque no estn conectadas, cada una de
estas neuronas va a tener cierta influencia sobre sus
vecinas.
Cuando se presenta un patrn p de entrada Xp: xp1,...,
xpi,...,xpN, ste se transmite directamente desde la capa de
entrada hacia la capa de salida. En esta capa, cada neurona
calcula la similitud entre el vector de entrada Xp y su
propio vector de pesos Wj o vector de referencia segn una
cierta medida de distancia o criterio de similitud
establecido. Se declara vencedora la neurona cuyo vector
de pesos es el ms similar al de entrada.
La siguiente expresin matemtica representa cul de las
M neuronas se activar al presentar el patrn de entrada Xp:
1 min Xp Wj
ypj = {
0 resto

(2)

YP: Salida o grado de activacin de las neuronas.


Xp: Medida de similitud vector de entrada.
Wj: Vector de pesos de las conexiones entre cada una de
las neuronas.
Donde ypj representa la salida o el grado de activacin de
las neuronas de salida en funcin del resultado de la
competicin (1 = neurona vencedora, 0 = neurona no

El modelo ANFIS (Adaptive Network- based in Fuzzy


Inference Systems) fue desarrollado por J.R. Jang en 1993
[5]. Las capacidades adaptativas de las redes ANFIS las
hacen directamente aplicables a una gran cantidad de reas
[15] como control adaptativo, procesamiento y filtrado de
seales y series de tiempo, clasificacin de datos y
extraccin de caractersticas a partir de ejemplos [16]. Una
propiedad interesante del modelo es que el conjunto de
parmetros puede descomponerse para utilizar una regla de
aprendizaje. Como se menciona en [17].
Para crear modelos ANFIS se pueden utilizar reglas difusas
generadas por medio de dos metodologas: una es de
manera automtica, con la cual se generan reglas de tipo
Takagi-Sugeno; la otra es con el algoritmo Wang - Mendel,
con el que se construyen reglas de tipo Mandani. Sin
embargo, esta ltima genera un error de pronstico muy
alto [3], lo que hace a la primera metodologa ms
recomendable para esta investigacin.
Las reglas difusas del tipo Takagi-Sugeno utilizadas en el
modelo ANFIS se representan de la siguiente forma [18]:
Regla n: Si X es An y Y es Bn, entonces fn = pnX + qnY +
rn, Donde An y Bn son los conjuntos difusos de entrada y
pn, qn y rn son constantes. Para este caso pn y qn son cero,
obteniendo un modelo Takagi-Sugeno de orden cero. Las
salidas individuales de cada regla son obtenidas como una
combinacin lineal entre los parmetros del antecedente de
cada regla: fn = pnX + qnY + rn, n= 1,2,....
En concreto, la colaboracin entre las Redes Neuronales
Artificiales y la Lgica Difusa puede ser utilizado para
mejorar o resolver algunas de las limitaciones que
presentan cada una de ellas; estos nuevos sistemas hbridos,
llamados sistemas neuro-difusos [19], desarrollan las
propiedades y ventajas propias de cada tecnologa en
beneficio de la otra tecnologa complementaria, obteniendo
una mejora importante en el comportamiento global del
sistema. Tal como se puede observar en [20].
En los sistemas de control basados en lgica difusa no es
imprescindible partir de un modelo matemtico del mismo,
sino que como se ha indicado anteriormente un
conocimiento bsico de cmo funciona el sistema puede
ser suficiente. No obstante la tarea de explicitar este

conocimiento mediante un conjunto de reglas tipo IFTHEN no siempre resulta sencilla, ya que la definicin
precisa de las funciones de pertenencia y de las relaciones
entre las variables del sistema conlleva cierta dificultad.
Las Redes Neuronales Artificiales por su propia naturaleza
y comportamiento son incapaces de expresar de forma
explcita el conocimiento adquirido; pero por el contrario
presentan la capacidad de aprender y relacionar las
variables del sistema a partir de datos obtenidos en
experiencias anteriores.

Fig. 6 Sistema Neuro-Difuso.


La cooperacin de ambas tecnologas se realiza en los
siguientes pasos:
a) A partir del conocimiento que tienen los expertos del
sistema a controlar se infieren las funciones de pertenencia
y las reglas borrosas que definen el modelo borroso del
sistema objeto de estudio.
b) Se establecen las conexiones y el valor inicial de los
pesos de la red neuronal de acuerdo con el modelo borroso.
c) Se aplica dicha Red Neuronal al sistema objeto de
estudio.
d) La red neuronal es entrenada con los datos obtenidos
para mejorar su precisin.
e) Despus del entrenamiento, las conexiones y los pesos
de la red neuronal son interpretados como funciones de
pertenencia y reglas difusas. De esta manera queda
explicitado el conocimiento adquirido por la red neuronal
y el modelo borroso del sistema representa con mayor
precisin al sistema real.
Las principales aplicaciones de los cada vez ms
numerosos sistemas hbridos neurodifusos se pueden
clasificar en los siguientes grupos:
- Mejorar la precisin del Modelo Difuso a partir del
aprendizaje de las redes neuronales artificiales.
- Interpretar el conocimiento adquirido por la red neuronal
artificial en el formato del modelo difuso.
- Extraccin automtica de reglas difusas utilizando
arquitecturas especiales de redes neuronales artificiales.

E. Redes neuronales estocsticas


Una buena alternativa a las redes neuronales y sus modelos
son las redes estocsticas (probabilsticas), con neuronas
que tienen funcin de activacin no determinista, cuya
salida se obtiene de forma probabilstica y con mecanismos
tambin estocsticos, basados en la idea de seleccionar de
formar aleatoria valores para los pesos de las conexiones y
comprobar su efecto en la salida de la red. En una red
neuronal estocstica, las neuronas podran asociarse a las
partculas individuales con un comportamiento individual
estocstico, es decir, inestable.
La red neuronal ms conocida que responde a este tipo de
funcionamiento estocstico es la denominada mquina de
Boltzmann, est es capaz de realizar tareas de auto y
heteroasociacin de patrones utilizando, en algunos casos,
una combinacin del aprendizaje hebbiano y un temple
simulado, y en otros, su combinacin con un aprendizaje
de tipo supervisado.
Las Mquinas de Boltzmann son redes neuronales
estocsticas con un aprendizaje y funcionamiento basados
en la tcnica de temple simulado [21]. La mquina de
Boltzmann puede tener una arquitectura similar a la red
Hopfield, en la que, a diferencia del modelo de Hopfield,
(Boltzmann completion network) se distingue entre
neuronas visibles y ocultas, estas ltimas con salida no
accesible hacia el exterior. Las conexiones entre neuronas
en esta red se establecen en ambos sentidos, siendo sus
pesos simtricos, cumplindose =
Otro tipo de arquitectura denominada Boltzmann InputOutput Network considera las neuronas visibles
estructuradas en dos capas, una de entrada y otra de salida,
con las neuronas ocultas en una capa intermedia,
existiend9o conexiones hacia adelante (feedforward),
laterales y en los dos sentidos. En resumen la mquina de
Boltzmann son redes neuronales con funcionamiento y
aprendizaje estocstico, sus neuronas son binarias con solo
dos valores de salida posibles. La salida es funcin
probabilstica de su entrada neta. Es decir, a partir de la
entrada neta solo se puede estimar la probabilidad de
activacin de la salida (probabilidad de que salga 1 o de
que salga 0).
( = 1) =

1
1+ 2

(3)

Pnet: Peso neto.


Donde es el factor de ganancia que establece la forma de
la pendiente de la funcin de probabilidad.

informacin, o conversiones, solo por mencionar algunas


en el amplio campo de las redes neuronales.

Mquina de
Boltzmann

III.

Escondida

EJEMPLO DE ALGORITMO DE UNA


RED NEURONAL DE RETRO
PROPAGACIN
Inicio

Iniciar los pesos con


pequeo valor
aleatorio

Visible

Adquirir prximo
valor de
entrenamiento

Fig. 7 Estructura Maquina de Boltzmann

Paso para el frente. Ejecutar la red para valores en la


capa de salida

La mquina de Cauchy constituye una versin mejorada de


la mquina de Boltzmann que, si bien presenta una
arquitectura y funcionamiento idnticos, excepto en lo que
concierne a la funcin de probabilidad y la funcin de
temperatura que establece el plan de templado o
enfriamiento de la red. Como su nombre indica, la
probabilidad de activacin de las neuronas tiene en este
caso la forma de la distribucin de Cauchy, llegando as a
esta ecuacin:
1

( = 1) = +

arctan (

Paso para atrs. Adaptar los pasos usando


retropropagacin de la diferencia de los
pesos

Fin de las
pocas?
S

No
Error
tolerable?

Pas el mximo
de iteraciones?

(4)

xito. Grabar los pesos


entrenados.

Pnet: peso neto.


Y: estado de la unidad.
J: unidad.
Con estas modificaciones con respecto sl modelo original
de la mquina de Boltzmann se consigue, en el caso de la
distribucin de probabilidad, que las neuronas se activen
con mayor frecuencia.
Entre las principales aplicaciones de las redes neuronales
estocsticas se encuentran el reconocimiento de patrones
[22], procesamiento de voz, procesamiento de imgenes,
procesamiento de conocimiento, procesamiento para
resolver problemas de optimizacin. Clasificacin,
compresin y descompresin de datos. Control de sistemas,
prediccin,
codificacin,
transformacin
de
la

No

S
Error. Red no converge con este
nmero de iteraciones.

Fin

IV.

APLICACIONES EN RECONOCIMIENTO
DE PATRONES

Los sistemas de reconocimiento de patrones tienen diversas


aplicaciones segn la necesidad el problema que se
requiera resolver. Las ms relevantes son previsin
metrolgica, reconocimiento de caracteres, reconocimiento
de voz, reconocimiento de huellas dactilares
reconocimiento de caras, reconocimiento de msica entre
muchos otros y todo con ayuda de los diferentes tipo de
redes neuronales ya mencionadas anteriormente. Uno de
los campos ms importantes para utilizar el reconocimiento

de patrones es en la medicina que sirven como nuevos


modelos de cirugas asistida por computadoras sobre
tecnologa con imgenes que se puede aplicar en las reas
ms difciles de analizar del cuerpo humano que son en
arterias, venas pulmonares, esfago, estmago y prstata.

V.

CONCLUSIONES

Esta resea proporciona una introduccin a un campo de


gran inters en la comunidad cientfica y en constante
desarrollo. Las cinco redes descritas son utilizadas para
resolver problema de optimizacin y reconocimiento de
patrones. Existen y muchos tipos de aplicaciones en la
actualidad para cada una de ellas. Por ello es importante
conocer cada una de ellas al momento de seleccionar una
red neuronal artificial en nuestro experimento. Algunas de
stas estrategias de implementacin se encuentran en [23]
[14]. Existen muchas demostraciones para algoritmos de
reconocimiento de rostros [24], imgenes, figuras, firmas,
sonidos, etc.
Las investigaciones actuales han atrado a investigadores,
ingenieros y estudiantes, que utilizan software
especializado como Matlab y LabVIEW para
desarrollar diferentes algoritmos de redes neuronales. Los
avances en sta rea han llevado a sistemas de redes
neuronales de tiempo real que deben ser aprovechados
[25].

AGRADECIMIENTOS
Los autores quieren agradecer al Departamento de MetalMecnica del Tecnolgico Nacional de Mxico Instituto
Tecnolgico de Culiacn por prestar sus instalaciones y
recursos para realizar sta investigacin, es especial al
profesor a cargo de la revisin de ste artculo Cesar Ivn
Abrajan Barraza.

REFERENCIAS
[1] D. M. S. James A. Freeman, "Redes neuronales."
Algoritmos, aplicaciones y modelos., USA:
Alfaomega , 1993.
[2] J. R. Vallejo y E. B. Corrochano, Clifford Hopfield
Neural Nectworks, de International Joint
Conference on Neural Networks, 2008.
[3] K. Tirdad y A. Sadeghian, Hopfield Neural
Networks as Pseudo Random Number Generators,
Ryerson University, Toronto, Canada, 2010.

[4] L. C. Chen y J.-Y. Fan, A High Speed Modified


Hopfield Neural Network and a Design of Character
Recognition System, 1991, pp. 308-314.
[5] R. Hong, L. Meizhu y F. Mingfu, Equipment
Diagnosis Method Based on Hopfield Neural
Networks, de Conference on avanced computer
theory and engineering, Province, 2008.
[6] C. Kaensar, Analysis on the Parameter of Back
Propagation Algorithm with Three Weight
Adjustment Structure for Hand Written Digit
Recognition, Thailand, 2008.
[7] Z. Huang, C. Weng, K. Li, Y. Cheng y C. Lee,
Deeplearning Vector Quantization for Acoustic
Information Retrieval, de International Conference
on Acoustic, Speech and Signal Processing, Atlanta,
USA, 2014.
[8] J. Jiang, J. Zhang, G. Yang, D. Zhang y L. Zhang,
Application of Back Propagation Neural Network
in the Classification of High Resolution Remote
Sensing Image, Beijing, China, 2002.
[9] Y. lin, C. Dong y E. Lu, RECURSIVE
ULTRASONIC TOMOGRAPHIC IMAGING
USING
PROPAGATION
AND
BACKPROPAGATION METHOD, Shanghai, 2007.
[10] T. Kohonen, Learning Vector Quantization, de
Self-Organizing maps, Berlin, Springer-Verlag,
1995, pp. 175-189.
[11] K. Horio, A. Aikawa y T. Yamakawa, Pattern
Recognition Based on Relative Position of Local
Features Using Self-Organizing MapUsing SelfOrganizing Map, Japan, 2000.
[12] W.-Y. Chang, Application of Self Organizing Map
Approach for Partial Discharge Pattern Recognition
of Insulators, de Proceedings of the 9th
International Conference on Properties and
Applications of Dielectric Materials, Harbin, China,
2009.
[13] B. Miriam, D. Haris y J. Magnus, Recognizing
Actions with the Associative Self-Organizing Map,
de XXIV International Conference on Information,
Communication and Automation Technologies
(ICAT), Bosnia; Herzegovina, 2013.
[14] T. Kohonen, The Self-organizing Map,
PROCEEDINGS OF THE IEE, vol. 78, n 9, pp.
1464-1480, 1990.

[15] A. Soualhi, Prognosis of Bearing Failures using


Hidden Markov Models and the Adaptive NeuroFuzzy Inference System, 2013.

International
Conference
on
Infonnation
Technology, Computer and Electrical Engineering,
Indonesia, 2014.

[16] S. Alhusain, S. Coupland y R. John, Design Pattern


Recognition by Using Adaptive Neuro Fuzzy
Inference System, de 25th International
Conference on Tools with Artificial Intelligence,
Nottingham, United Kingdom, 2013.

[21] T. H. R. Prager y F. Fallside, Boltzmann machines


for speech recognition, Cambridge University
Engineerhlg Department, 1986.

[17] J. Roger, Adaptive-Network-Based Fuzzy,


Transactions on systems, Man, Cybernetics, vol. 23,
n 3, pp. 665-685, 1993.
[18] X. Hou, Research of Model of Learning Vector
Quantization Neural Network, de International
Conference on Electronic and Mechanical
Engineering and Information Technology, china,
2011.
[19] S. Benaicha, H. Zermane, H. Mouss y F. Bencherif,
Developement of an Industrial Application with
Neuro-Fuzzy Systems, Batna, Algeria, 2010.
[20] H. Hendarto, Munadi y J. Setiawan, Application for
Calculating Inverse Kinematics of Programmable
Universal Machine for Assambly Robot, de 1st

[22] H. Ma, Pattern recognition using Boltzmann


machine, de In Southeastcon'95. Visualize the
Future., Proceedings., Raleigh, NC, 1995.
[23] M.-J. Seow y V. Asari, High Storage Capacity
Architecture for Pattern Recognition Using an Array
of Hopfield Neural Networks, 2001, pp. 169-174.
[24] K. Ricanek, L. Lebby y K. Haywood, Hopfield Like
Networks for Pattern Recognition with Application
to Face, North Carolina A&T State University,
Greensboro, 1999.
[25] P. Vuorimaa, Use of the fuzzy self-organizing map
in pattern recognition, Finland, 2002.

VI.

Anexos

Reconocimiento de Patrones
Es estudiado
por
Programacin
De Software

Se estudia
mediante

Ciencias de la
Computacin

Filosofa

Lgica
Se estudia
mediante

Evolicion en

Teoremas en el
reconocimiento
de patrones

Inteligencia
Artificial

Matemticas
Se estudia
mediante

Se estudia
mediante
Diagramas de
flujo y bases de
datos

Modelos
Matematicos

Su Clasificacin Incluye
Lgica
Difusa

Redes
Neuronales

Algoritmos
Genticos

Redes
Bayesianas

Sistemas
Expertos

Se Divide en

Redes
Instar

Redes
Outstar

Redes
Competitivas

Redes
Recurrentes

Sus tipos
son

De las cuales se
derivan
Redes
Hamming

Redes
Kohonen

Redes
Hopfield
Tiene Dos
Variantes

Mapas de
Autoorganizacin

Learning
Vector
Quatization

Redes
ANFIS

Back
Propagation

Redes
Estocsticas

Recursive ultrasonic tomographic using propagation and


back-propagation method

Analysis on the Parameter of Back Propagation

Mquina de
Boltzman

Mquina de
Cauchy

Redes
Neuronales

Competitivas

Self Organizing
Maps

Learning Vector
Quantization

Boltzmann Machines for Speech Recognition

Pattern Recognition using Boltzmann Machine

Speech Recognition using Neural Networks (Doctoral Dissertation,


Siemens AG)
Nonlinear Neural Networks: Principles, Mechanisms, and Architectures

Self Organizing Maps

Variants of Self-organizing Maps

Research of Model of Learning Vector Quantization Neural Network

Deeplearning Vector Quantization for Acoustic Information Retrieval

Recurrentes

Hopfield

ANFIS

Neural Networks for Nonlinear Programming

ANFIS : Adap tive-Ne twork-Based Fuzzy Inference System


ANFIS Application for Calculating Inverse Kinematics of Programmable Universal
Machine for Assembly (PUMA) Robot
Design Pattern Recognition by Using Adaptive Neuro Fuzzy Inference System

You might also like