You are on page 1of 22

0

1. 1.1. 2.

Contenidos

INTRODUCCIN ............................................................................................................. 2 ACERCA DE LAS REDES NEURONALES............................................................... 2

OBJETIVOS ..................................................................................................................... 4 2.1. 2.2. OBJETIVO GENERAL................................................................................................ 4 OBJETIVOS ESPECFICOS ...................................................................................... 4

3. 4.

RESEA HISTRICA ...................................................................................................... 5 GENERALIDADES .......................................................................................................... 7 4.1. 4.2. DEFINICIONES DE UNA RED NEURONAL. ............................................................ 7 VENTAJAS QUE OFRECEN LAS RED NEURONAL............................................... 7

5.

ELEMENTOS BSICOS .................................................................................................. 8 5.1. 5.2. 5.3. 5.4. ELEMENTOS BSICOS QUE COMPONEN UNA RED NEURONAL. .................... 8 FUNCIN DE ENTRADA (INPUT FUNCTION). ........................................................ 9 FUNCIN DE ACTIVACIN (ACTIVATION FUNCTION). ...................................... 10 FUNCIN DE SALIDA (OUTPUT FUNCTION). ...................................................... 10

6.

PRINCIPALES TOPOLOGAS ...................................................................................... 11 6.1. 6.2. 6.3. 6.4. 6.5. TOPOLOGA DE LAS REDES NEURONALES. ..................................................... 11 REDES MONOCAPA. ............................................................................................... 11 REDES MULTICAPA. ............................................................................................... 11 CONEXIN ENTRE NEURONAS. ........................................................................... 12 REDES DE PROPAGACIN HACIA ATRS (BACKPROPAGATION). ............... 12

7. 8. 9.

ENTRENAMIENTO ........................................................................................................ 13 TECNOLOGIA Y SOFTWARE ...................................................................................... 15 APLICACIONES............................................................................................................. 16 9.1. 9.2. APLICACIONES DE LAS REDES NEURONALES. ............................................... 16 CASOS CONCRETOS DE APLICACIN................................................................ 17

10. 11. 12.

EJEMPLOS .................................................................................................................... 19 CONCLUSION................................................................................................................ 21 BIBLIOGRAFIA .............................................................................................................. 22

1.
1.1. Acerca de las redes neuronales.

Introduccin

El hombre se ha caracterizado siempre por su bsqueda constante de nuevas vas para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como por ejemplo, a la construccin de mquinas calculadoras que ayuden a resolver de forma automtica y rpida determinadas operaciones que resultan tediosas cuando se realizan a mano. Los desarrollos actuales de los cientficos se dirigen al estudio de las capacidades humanas como una fuente de nuevas ideas para el diseo de las nuevas mquinas. As, la inteligencia artificial es un intento por descubrir y describir aspectos de la inteligencia humana que pueden ser simulados mediante mquinas. Esta disciplina se ha desarrollado fuertemente en los ltimos aos teniendo aplicacin en algunos campos como visin artificial, demostracin de teoremas, procesamiento de informacin expresada mediante lenguajes humanos... etc. Las redes neuronales son ms que otra forma de emular ciertas caractersticas propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atencin aquellos problemas que no pueden expresarse a travs de un algoritmo, se observar que todos ellos tienen una caracterstica en comn: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. As, parece claro que una forma de aproximarse al problema consista en la construccin de sistemas que sean capaces de reproducir esta caracterstica humana. En definitiva, las redes neuronales no son ms que un modelo artificial y simplificado del cerebro humano, que es el ejemplo ms perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a travs de la experiencia. Una red neuronal es un nuevo sistema para el tratamiento de la informacin, cuya unidad bsica de procesamiento est inspirada en la clula fundamental del sistema nervioso humano: la neurona.

Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen muy poderosas. Lo que bsicamente ocurre en una neurona biolgica es lo siguiente: la neurona es estimulada o excitada a travs de sus entradas (inputs) y cuando se alcanza un cierto umbral, la neurona se dispara o activa, pasando una seal hacia el axon. Posteriores investigaciones condujeron al descubrimiento de que estos procesos son el resultado de eventos electroqumicos. Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de billones de neuronas interconectadas. As, el secreto de la inteligencia -sin importar como se defina- se sita dentro de estas neuronas interconectadas y de su interaccin. Tambin, es bien conocido que los humanos son capaces de aprender. Aprendizaje significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser resueltos despus de obtener ms informacin acerca del problema. Por lo tanto, las Redes Neuronales:

Figura 1: Sistema global de proceso de una red neuronal Consisten de unidades de procesamiento que intercambian datos o informacin. Se utilizan para reconocer patrones, incluyendo imgenes, manuscritos y secuencias de tiempo (por ejemplo: tendencias financieras). Tienen capacidad de aprender y mejorar su funcionamiento. Una primera clasificacin de los modelos de redes neuronales podra ser, atendiendo a su similitud con la realidad biolgica: 1) El modelo de tipo biolgico. Este comprende las redes que tratan de simular los sistemas neuronales biolgicos, as como las funciones auditivas o algunas funciones bsicas de la visin.

2) El modelo dirigido a aplicacin. Este modelo no tiene por qu guardar similitud con los sistemas biolgicos. Su arquitectura est fuertemente ligada a las necesidades de las aplicaciones para la que es diseada.

Figura 2: Red neuronal standard

2.
2.1.

Objetivos
Objetivo General Estudiar las redes neuronales en su desenvolvimiento en la inteligencia artificia Objetivos especficos Estudiar las generalidades de las redes neuronales Estudiar la tipologa de RN Estudiar los componentes bsicos los cuales lo conforman Estudiar las aplicaciones principales de RN Estudiar el software usado para la aplicacin de RN Estudiar la manera de entrenamiento y aprendizaje de RN Ejemplificar las RN

2.2.

3.
3.1.

Resea Histrica
HISTORIA DE LAS REDES NEURONALES.

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computacin. Sin embargo, los primeros tericos que concibieron los fundamentos de la computacin neuronal fueron Warren McCulloch, un neurofisilogo, y Walter Pitts, un matemtico, quienes, en 1943, lanzaron una teora acerca de la forma de trabajar de las neuronas (Un Clculo Lgico de la Inminente Idea de la Actividad Nerviosa - Boletn de Matemtica Biofsica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos elctricos. 1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el elemento bsico de la inteligencia humana) desde un punto de vista psicolgico, desarrollando una regla de como el aprendizaje ocurra. Aun hoy, este es el fundamento de la mayora de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurra cuando ciertos cambios en una neurona eran activados. Tambin intent encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teora de las Redes Neuronales. 1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no era almacenada en forma centralizada en el cerebro sino era distribuida encima de l. 1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial. 1957 - Frank Rosenblatt. Comenz el desarrollo del Perceptron. Esta es la red neuronal ms antigua; utilizndose hoy en da para aplicacin como identificador de patrones. Este modelo era capaz de generalizar, es decir, despus de haber aprendido una serie de patrones poda reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tena una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la funcin OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente. 1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm que, bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un estado finito (Teorema de Convergencia del Perceptron). 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las lneas telefnicas) que se ha utilizado comercialmente durante varias dcadas. 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones tcnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte abrupta de las Redes Neuronales; ya que Minsky y Papert probaron (matemticamente) que el Perceptrons no era capaz de resolver problemas relativamente fciles, tales como el aprendizaje de una funcin no-lineal. Esto demostr que el Perceptron era muy dbil, dado que las funciones no-lineales son extensamente empleadas en computacin y en los problemas del mundo real. 1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente aclarado en 1985. 1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las dems previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo. 1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su libro: Computacin neuronal de decisiones en problemas de optimizacin. 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagacin hacia atrs (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada ao, las aplicaciones nuevas que surgen (sobretodo en el rea de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulacin).

Figura 3: Red neuronal artificial perceptrn multicapa con n neuronas de entrada, m neuronas en su capa oculta y una neurona de escape.

4.
4.1. DEFINICIONES DE UNA RED NEURONAL.

Generalidades

Existen numerosas formas de definir a las redes neuronales; desde las definiciones cortas y genricas hasta las que intentan explicar ms detalladamente qu son las redes neuronales. Por ejemplo: 1) Una nueva forma de computacin, inspirada en modelos biolgicos. 2) Un modelo matemtico compuesto por un gran nmero de elementos procesales organizados en niveles. 3) Un sistema de computacin compuesto por un gran nmero de elementos simples, elementos de procesos muy interconectados, los cuales procesan informacin por medio de su estado dinmico como respuesta a entradas externas. 4) Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organizacin jerrquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biolgico. 4.2. VENTAJAS QUE OFRECEN LAS RED NEURONAL.

Debido a su constitucin y a sus fundamentos, las redes neuronales artificiales presentan un gran nmero de caractersticas semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer caractersticas esenciales a partir de entradas que representan informacin irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnologa se est aplicando en mltiples reas. Entre las ventajas se incluyen: Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial. Auto-organizacin. Una red neuronal puede crear su propia organizacin o representacin de la informacin que recibe mediante una etapa de aprendizaje. Tolerancia a fallos. La destruccin parcial de una red conduce a una degradacin de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran dao. Operacin en tiempo real. Los cmputos neuronales pueden ser realizados en paralelo; para esto se disean y fabrican mquinas con hardware especial. Fcil insercin dentro de la tecnologa existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas.

5.
5.1.

Elementos Bsicos
ELEMENTOS BSICOS QUE COMPONEN UNA RED NEURONAL.

A continuacin se puede ver, en la Figura 1, un esquema de una red neuronal:


I1 En radas I2 O1

Salidas

O2

In

On

Capa de entrada

Capas ocultas

Capa de salida

Figura 3: Ejemplo de una red neuronal totalmente conectada. La misma est constituida por neuronas interconectadas y arregladas en tres capas (esto ltimo puede variar). Los datos ingresan por medio de la capa de entrada, pasan a travs de la capa oculta y salen por la capa de salida. Cabe mencionar que la capa oculta puede estar constituida por varias capas. Antes de comenzar el estudio sobre las redes neuronales, se debe aprender algo sobre las neuronas y de cmo ellas son utilizadas por una red neuronal. En la Figura 2 se compara una neurona biolgica con una neurona artificial. En la misma se pueden observar las similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas).

Dendritas (entradas) Sinapsis (pesos) Axon (salidas)

Figura 4: comparacin entre una neurona biolgica (izquierda) y una artificial (derecha). Mientras una neurona es muy pequea en s misma, cuando se combinan cientos, miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo el cerebro humano se compone de billones de tales neuronas.

5.2.

FUNCIN DE ENTRADA (INPUT FUNCTION).

La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cmo se pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global, gini. Esto se logra a travs de la funcin de entrada, la cual se calcula a partir del vector entrada. La funcin de entrada puede describirse como sigue: inputi = (ini1 . wi1)* (ini2 . wi2)*... (inin . win) donde: * representa al operador apropiado (por ejemplo: mximo, sumatoria, productoria, etc.), n al nmero de entradas a la neurona Ni y wi al peso. Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona. Por consiguiente, los pesos que generalmente no estn restringidos cambian la medida de influencia que tienen los valores de entrada. Es decir, que permiten que un gran valor de entrada tenga solamente una pequea influencia, si estos son lo suficientemente pequeos.

Figura 5: ejemplo de una neurona con 2 entradas y 1 salida. La nomenclatura utilizada en la Figura 3 es la siguiente: ini1 = entrada nmero 1 a la neurona Ni; wi1 = peso correspondiente a ini1; ini2 = entrada nmero 2 a la neurona Ni; wi2 = peso correspondiente a ini2; y outi = salida de la neurona Ni. El conjunto de todas las n entradas ini = (ini1, ini2, ..., inin) es comnmente llamado vector entrada.

5.3.

FUNCIN DE ACTIVACIN (ACTIVATION FUNCTION).

Una neurona biolgica puede estar activa (excitada) o inactiva (no excitada); es decir, que tiene un estado de activacin. Las neuronas artificiales tambin tienen diferentes estados de activacin; algunas de ellas solamente dos, al igual que las biolgicas, pero otras pueden tomar cualquier valor dentro de un conjunto determinado. La funcin activacin calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral, i) en un valor (estado) de activacin, cuyo rango normalmente va de (0 a 1) o de (1 a 1). Esto es as, porque una neurona puede estar totalmente inactiva (0 o 1) o activa (1). La funcin activacin, es una funcin de la entrada global (gini) menos el umbral ( i). Para explicar porque se utilizan estas funciones de activacin se suele emplear la analoga a la aceleracin de un automvil. Cuando un auto inicia su movimiento necesita una potencia elevada para comenzar a acelerar. Pero al ir tomando velocidad, este demanda un menor incremento de dicha potencia para mantener la aceleracin. Al llegar a altas velocidades, nuevamente un amplio incremento en la potencia es necesario para obtener una pequea ganancia de velocidad. En resumen, en ambos extremos del rango de aceleracin de un automvil se demanda una mayor potencia para la aceleracin que en la mitad de dicho rango. 5.4. FUNCIN DE SALIDA (OUTPUT FUNCTION).

El ltimo componente que una neurona necesita es la funcin de salida. El valor resultante de esta funcin es la salida de la neurona i (outi); por ende, la funcin de salida determina que valor se transfiere a las neuronas vinculadas. Si la funcin de activacin est por debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de salida estn comprendidos en el rango [0, 1] o [-1, 1]. Tambin pueden ser binarios {0, 1} o {-1, 1}.

1 0

6.
6.1.

Principales Topologas
TOPOLOGA DE LAS REDES NEURONALES.

La topologa o arquitectura de una red neuronal consiste en la organizacin y disposicin de las neuronas en la misma, formando capas o agrupaciones de neuronas ms o menos alejadas de la entrada y salida de dicha red. En este sentido, los parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. 6.2. REDES MONOCAPA.

En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a la nica capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como autoasociacin (regenerar informacin de entrada que se presenta a la red de forma incompleta o distorsionada).

Figura 6: Red Monocapa 6.3. REDES MULTICAPA.

Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para distinguir la capa a la que pertenece una neurona, consistira en fijarse en el origen de las seales que recibe a la entrada y el destino de la seal de salida. Normalmente, todas las neuronas de una capa reciben seales de entrada desde otra capa anterior (la cual est ms cerca a la entrada de la red), y envan seales de salida a una capa posterior (que est ms cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia adelante o feedforward.

1 1

Figura 7: Redes Neuronales Multicapa Sin embargo, en un gran nmero de estas redes tambin existe la posibilidad de conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores; a estas conexiones se las denomina conexiones hacia atrs o feedback.

6.4.

CONEXIN ENTRE NEURONAS.

La conectividad entre los nodos de una red neuronal est relacionada con la forma en que las salidas de las neuronas estn canalizadas para convertirse en entradas de otras neuronas. La seal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso ser una entrada de s mismo (conexin autorrecurrente). Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles precedentes, la red se describe como de conexin hacia delante (ver Figura 1). Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluyndose ellas mismas, la red es de conexin hacia atrs. Las redes de propagacin hacia atrs que tienen lazos cerrados son llamadas: sistemas recurrentes. 6.5. Redes de propagacin hacia atrs (backpropagation).

El nombre de backpropagation resulta de la forma en que el error es propagado hacia atrs a travs de la red neuronal, en otras palabras el error se propaga hacia atrs desde la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas ubicadas en las capas ocultas cambien durante el entrenamiento. El cambio de los pesos en las conexiones de las neuronas adems de influir sobre la entrada global, influye en la activacin y por consiguiente en la salida de una neurona. Por lo tanto, es de gran utilidad considerar las variaciones de la funcin activacin al modificarse el valor de los pesos. Esto se llama sensibilidad de la funcin activacin, de acuerdo al cambio en los pesos.

1 2

7.

Entrenamiento

Una de las principales caractersticas de las ANN es su capacidad de aprendizaje. El entrenamiento de las ANN muestra algunos paralelismos con el desarrollo intelectual de los seres humanos. No obstante aun cuando parece que se ha conseguido entender el proceso de aprendizaje conviene ser moderado porque el aprendizaje de las ANN est limitado. El objetivo del entrenamiento de una ANN es conseguir que una aplicacin determinada, para un conjunto de entradas produzca el conjunto de salidas deseadas o mnimamente consistentes. El proceso de entrenamiento consiste en la aplicacin secuencial de diferentes conjuntos o vectores de entrada para que se ajusten los pesos de las interconexiones segn un procedimiento predeterminado. Durante la sesin de entrenamiento los pesos convergen gradualmente hacia los valores que hacen que cada entrada produzca el vector de salida deseado. Los algoritmos de entrenamiento o los procedimientos de ajuste de los valores de las conexiones de las ANN se pueden clasificar en dos grupos: Supervisado y No Supervisado. Entrenamiento Supervisado: estos algoritmos requieren el emparejamiento de cada vector de entrada con su correspondiente vector de salida. El entrenamiento consiste en presentar un vector de entrada a la red, calcular la salida de la red, compararla con la salida deseada, y el error o diferencia resultante se utiliza para realimentar la red y cambiar los pesos de acuerdo con un algoritmo que tiende a minimizar el error.

Figura 8: Entrenamiento Supervisado

1 3

Entrenamiento No Supervisado: los sistemas neuronales con entrenamiento supervisado han tenido xito en muchas aplicaciones y sin embargo tienen muchas crticas debido a que desde el punto de vista biolgico no son muy lgicos. Resulta difcil creer que existe un mecanismo en el cerebro que compare las salidas deseadas con las salidas reales. En el caso de que exista, de dnde provienen las salidas deseadas? Los sistemas no supervisados son modelos de aprendizaje ms lgicos en los sistemas biolgicos. Desarrollados por Kohonen (1984) y otros investigadores, estos sistemas de aprendizaje no supervisado no requieren de un vector de salidas deseadas y por tanto no se realizan comparaciones entre las salidas reales y salidas esperadas. El conjunto de vectores de entrenamiento consiste nicamente en vectores de entrada. El algoritmo de entrenamiento modifica los pesos de la red de forma que produzca vectores de salida consistentes. El proceso de entrenamiento extrae las propiedades estadsticas del conjunto de vectores de entrenamiento y agrupa en clases los vectores similares. Existe una gran variedad de algoritmos de entrenamiento hoy en da. La gran mayora de ellos han surgido de la evolucin del modelo de aprendizaje no supervisado que propuso Hebb (1949). El modelo propuesto por Hebb se caracteriza por incrementar el valor del peso de la conexin si las dos neuronas unidas son activadas o disparadas. La ley de Hebb se representa segn la ecuacin: wij (n + 1) = wij (n) + OUTi OUTj

Figura 8: Funcionamiento de un Perceptrn

1 4

8.

Tecnologia y Software

El resurgimiento de la computacin neuronal en los ltimos aos se ha producido por el desarrollo terico de nuevos modelos matemticos del comportamiento del cerebro y por el desarrollo de nuevas tecnologas que ya estn siendo utilizadas en una gran variedad de aplicaciones comerciales. Entre los avances o desarrollos tecnolgicos que permiten la realizacin de la computacin neuronal destacan los programas software de simulacin, los aceleradores hardware, los chips de silicio y los procesadores pticos. Simuladores Software: constituyen una de las formas ms verstiles con las que se pueden implementar redes neuronales. Estos programas constituyen todo un sistema de desarrollo y realizacin de prototipos de redes neuronales. Estos programas se utilizan para disear, construir, entrenar y probar redes neuronales artificiales resuelve problemas complejos y problemas del mundo real. Aceleradores Hardware: la naturaleza paralela de la computacin neuronal se presta a realizar diseos concretos y a medida de dispositivos fsicos, aceleradores hardware, que aceleren la ejecucin de los clculos. Los aceleradores hardware para los sistemas de computacin neuronal son dispositivos fsicos constituidos por diferentes procesadores interconectados que ayudan a la realizacin y ejecucin del comportamiento de las ANN. Una de las ventajas de los aceleradores hardware diseados especficamente para la computacin neuronal es el aumento de la velocidad de procesado. Esta caracterstica permite la utilizacin de las ANN en aplicaciones de tiempo real. Chips de Silicio: Otro de los campos de la investigacin en el mundo de las ANN al margen de los simuladores software y aceleradores hardware, es la integracin de todos los componentes de computacin neuronal en un chip de silicio. Un ejemplo concreto es el chip Electronic Neural Network (EEN) de la compaa AT&T que contiene 256 transistores-neuronas y ms de 100.000 resistencias-sinapsis. Actualmente este chip est siendo utilizado para aplicaciones de compresin del ancho de banda de imgenes de vdeo para poder ser transmitidas por una lnea telefnica. Existen muchas compaas y centros de investigacin que estn trabajando en el desarrollo de circuitos integrados que realizan computacin neuronal. La mayora de las aplicaciones de estos chips est siendo la simulacin de procesos sensitivos como la visin de imgenes y la audicin de sonidos.

1 5

9.
9.1.

Aplicaciones
APLICACIONES DE LAS REDES NEURONALES.

Las redes neuronales pueden utilizarse en un gran nmero y variedad de aplicaciones, tanto comerciales como militares. Se pueden desarrollar redes neuronales en un periodo de tiempo razonable, con la capacidad de realizar tareas concretas mejor que otras tecnologas. Cuando se implementan mediante hardware (redes neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y proporcionan un alto grado de paralelismo en el procesamiento de datos. Esto posibilita la insercin de redes neuronales de bajo coste en sistemas existentes y recientemente desarrollados. Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene una aplicacin particular ms apropiada. Algunas aplicaciones comerciales son: Biologa: Aprender ms acerca del cerebro y otros sistemas. Obtencin de modelos de la retina. Empresa: Evaluacin de probabilidad de formaciones geolgicas y petrolferas. Identificacin de candidatos para posiciones especficas. Explotacin de bases de datos. Optimizacin de plazas y horarios en lneas de vuelo. Optimizacin del flujo del trnsito controlando convenientemente la temporizacin de los semforos. Reconocimiento de caracteres escritos. Modelado de sistemas para automatizacin y control. Medio ambiente: Analizar tendencias y patrones. Previsin del tiempo. Finanzas: Previsin de la evolucin de los precios. Valoracin del riesgo de los crditos. Identificacin de falsificaciones. Interpretacin de firmas.

1 6

Manufacturacin: Robots automatizados y sistemas de control (visin artificial y sensores de presin, temperatura, gas, etc.). Control de produccin en lneas de procesos. Inspeccin de la calidad. Medicina: Analizadores del habla para ayudar en la audicin de sordos profundos. Diagnstico y tratamiento a partir de sntomas y/o de datos analticos (electrocardiograma, encefalogramas, anlisis sanguneo, etc.). Monitorizacin en cirugas. Prediccin de reacciones adversas en los medicamentos. Entendimiento de la causa de los ataques cardacos. Militares: Clasificacin de las seales de radar. Creacin de armas inteligentes. Optimizacin del uso de recursos escasos. Reconocimiento y seguimiento en el tiro al blanco. 9.2. CASOS CONCRETOS DE APLICACIN.

Procesado Natural del Lenguaje: incluye el estudio de cmo se construyen las reglas del lenguaje. Los cientficos del conocimiento Rumelhart y McClelland han integrado una red neuronal de proceso natural del lenguaje. El sistema realizado ha aprendido el tiempo verbal pass tense de los verbos en Ingls. Las caractersticas propias de la computacin neuronal como la capacidad de generalizar a partir de datos incompletos y la capacidad de abstraer, permiten al sistema generar buenos pronsticos para verbos nuevos o verbos desconocidos. Compresin de Imgenes: la compresin de imgenes es la transformacin de los datos de una imagen a una representacin diferente que requiera menos memoria o que se pueda reconstruir una imagen imperceptible. Cottrel y Zisper de la Universidad de San Diego y Pisttburgh han diseado un sistema de compresin de imgenes utilizando una red neuronal con un factor de compresin 8:1. Prediccin: en el mundo real existen muchos fenmenos de los que conocemos su comportamiento a travs de una serie temporal de datos o valores. Lapedes y Farber del Laboratorio de Investigacin de los lamos, han demostrado que la red backpropagation supera en un orden de magnitud a los mtodos de prediccin polinmicos y lineales convencionales para las series temporales caticas.

Modelado de Sistemas: los sistemas lineales son caracterizados por la funcin de transferencia que no es ms que una expresin analtica entre la variable de salida y una variable independiente y sus derivadas. Las ANN tambin son capaces de aprender una funcin de transferencia y comportarse correctamente como el sistema lineal que est modelando. Filtro de Ruido: las ANN tambin pueden ser utilizadas para eliminar el ruido de una seal. Estas redes son capaces de mantener en un alto grado las estructuras y valores de los filtros tradicionales. ServoControl: un problema difcil en el control de un complejo sistema de servomecanismo es encontrar un mtodo de clculo computacional aceptable para compensar las variaciones fsicas que se producen en el sistema. Entre los inconvenientes destaca la imposibilidad en algunos casos de medir con exactitud las variaciones producidas y el excesivo tiempo de clculo requerido para la obtencin de la solucin matemtica. Existen diferentes redes neuronales que han sido entrenadas para reproducir o predecir el error que se produce en la posicin final de un robot. Este error se combina con la posicin deseada para proveer una posicin adaptativa de correccin y mejorar la exactitud de la posicin final.

Figura 9: Desarrollo de modelos epidemiolgicos y diagnstico de enfermedades mediante sistemas inteligentes.

10.

Ejemplos

Experimentos Computacionales. A modo de ejemplo se incluyen dos experimentos (computacionales), ambos de clasificacin de letras. Para el primero, usamos las siguientes entradas:

Figura 10: Patrones de entrenamiento para el Experimento 1 Cada imagen es de 7 x 9 = 63 pxels, un pxel negro corresponde a un +1 y uno blanco a un -1, se us = 1. Las sinapsis se inicializaron con 0. Para construir el vector xi de entradas, simplemente ponemos una fila de la imagen despus de la otra. Despus del entrenamiento, algunos patrones que fueron clasificados correctamente fueron los siguientes:

Aqu observamos el funcionamiento de la red que se ha construido, que a pesar de ser muy simple, tiene Plasticidad y es capaz de Generalizer . A pesar de que nunca vio esos patrones con errores durante su entrenamiento, fue capaz de reconocer a qu letra correspondan. Para ampliar el experimento nos preguntamos: Se podr realizar con patrones ms grandes? y, Qu imagen podemos hacernos de cmo estn distribuidas las sinapsis? Para responder esas preguntas, construimos un perceptron que slo clasificara entre X, O e I, pero con entradas de una resolucin mucho mayor: 56 72 = 4032 pixeles. Trabajamos exactamente del mismo modo que con el ejemplo anterior. Los patrones de entrenamiento ahora son los siguientes:

Figura 11: Patrones de entrenamiento Se necesitaron slo tres pocas. correctamente, son: Algunos patrones que fueron clasificados

Nuevamente observamos la plasticidad. Pero, cmo se distribuyen las sinapsis?. Para verlo de un modo grfico, simplemente reordenamos en la misma forma de la imagen original a las sinapsis, obtenindose 3 grficas: Una para las sinapsis que se conectan con la neurona de la X, otra con la de la O y otra con la de la I.

Figura 12: Otras Sinapsis para X, O e I. Simplemente observando se puede entender cmo funcionan las sinapsis, y qu regiones son ms cruciales que otras al reconocer el patrn. Pero dijimos que las sinapsis no eran nicas. Si empezamos con valores iniciales aleatorios llegamos a otro tipo de conexiones sinpticas, como estas:

Figura 13: Otras Sinapsis para X, O e I.

11.

Conclusion

Este trabajo ha pretendido realizar una pequea introduccin a algunas caractersticas de neuroredes conocidas. De hecho, an los estudios ms avanzados que existen hoy da sobre el tema estn muy alejados de entender el funcionamiento del cerebro, que fue su motivacin inicial. El tema en realidad es muy vasto. Sin embargo, pese a que hemos visto una parte nfima del total, hemos podido apreciar algunas cualidades de este mecanismo de procesamiento de informacin. En primer debemos lugar destacar que es posible modelar el funcionamiento de una neurona en forma extremadamente simple, y sin embargo, posee una gran capacidad, vemos la sencillez y la complejidad unidas de un modo maravilloso. Por ejemplo, describi la posibilidad de procesar cantidades increbles de informacin en forma paralela, de un modo sencillo y natural. Al poder establecerse las funciones lgicas mediante la combinacin de neuronas vemos tambin la posibilidad de poder construir computadoras con ellas, por lo menos en principio. Otra caractersticas fundamentales que no podemos olvidar son la Robustez y la Capacidad de Aprendizaje. Las neuronas son capaces de imitar y predecir el comportamiento de sistemas dinmicos sin usar ningn modelo explcito, y capaces de reconocer patrones, aunque stos tengan errores. Adems de todo eso, son muy interesantes para la Fsica, tanto para procesar informacin como en s mismas. En cuanto a esto ltimo, se han descubierto interesantes reas que relacionan las neuroredes con la Teora de la Informacin, el Caos, la Mecnica Estadstica.

12.
12.1.

Bibliografia
Libros LACKES,R; Mack, D: Neuronal Networks: Basics and Applications , Verlag Berlin Heidelberg , CBT (Computer Based Training) Springer, 1998. Articulos GIARDINA, Daniel, Proyecto Final de la Carrera Ingeniera Electrnica , Inteligencia Artificial : Red Neuronal, Vol 5, N 2, 1995, pp 34-46. Paginas web BERNE, Fernando. Tutorial de Redes Neuronales. (2000) (www.gc.ssr.upm.es/inves/neuronal/ann2/.htm). Obtenido el 18 de mayo de 2013. GALLEGO, Alfredo. Introduccin a las redes neuronales artificiales (1994) (www.gui.uva.es). Obtenido el 18 de mayo de 2013. GARRIDO, Cristian F. Control de procesos mediante redes neuronales(2001) (http:\\melquiades.dic.udec.cl/cgarrido). Obtenido el 19 de mayo de 2013. Ruiz, Sonnet. Red Neuronal y aplicaciones http://vmq.tripod.com/ 15 de mayo de 2013. SAAVEDRA, Carlos. Redes Neuronales Artificiales(2009) http://www.uta.cl/charlas/volumen16/Indice/Ch-csaavedra.pdf Obtenido el 19 de mayo de 2013. SALAS, Rodrigo. Redes Neuronales Artificiales http://www.inf.utfsm.cl/~rsalas/Pagina_Investigacion/docs/Apuntes/Redes% 0Neuronales%20Artificiales.pdf Obtenido el 19 de mayo de 2013. VILLASANA, Minaya . Introduccin a las Redes Neuronales Artificiales http://prof.usb.ve/mvillasa/redes/Introduccion-vl.pdf Obtenido el 19 de mayo de 2013.

12.2.

12.3.

You might also like