You are on page 1of 26

Perceptron

Antecedentes En 1943, Warren McCulloc y Walter Pitts originaron el primer modelo de operacin neuronal, el cual fu mejorado en sus aspectos biolgicos por Donald Hebb en 1948. En 1962 Bernard Widrow propuso la regla de aprendizaje Widrow-Hoff, y Frank Rosenblatt desarroll una prueba de convergencia, y defini el rango de problemas para los que su algoritmo aseguraba una solucin. El propuso los 'Perceptrons' como herramienta computacional. Funcionamiento En la siguiente figura se representa una neurona "artificial", que intenta modelar el comportamiento de la neurona biolgica. Aqu el cuerpo de la neurona se representa como un sumador lineal de los estmulos externos zj, seguida de una funcin no lineal yj = f(zj). La funcin f(zj) es llamada la funcin de activacin, y es la funcin que utiliza la suma de estmulos para determinar la actividad de salida de la neurona.

Este modelo se conoce como perceptrn de McCulloch-Pitts, y es la base de la mayor parte de las arquitectura de las RNA que se interconectan entre s. Las neuronas emplean funciones de activacin diferentes segn la aplicacin,

algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sinptica se representa por factores de peso de interconeccin wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitacin) o negativos (inhibicin). Los pesos junto con las funciones f(z) dictan la operacin de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinpsis) que se aplica a los estmulos de la neurona. En un perceptrn, cada entrada es multiplicada por el peso W correspondiente, y los resultados son sumados, siendo evaluados contra el valor de umbral, si el resultado es mayor al mismo, el perceptrn se activa. Limitantes El perceptrn es capaz tan slo de resolver funciones definidas por un hiperplano (objeto de dimensin N-1 contenida en un espacio de dimensin N). que corte un espacio de dimensin N. Un ejemplo de una funcin que no puede ser resuelta es el operador lgico XOR. Una explicacin mas sencilla de un hiperplano sera, hablando en un plano de dos dimensiones, una lnea que separa a los elementos existentes en dos grupos. El perceptrn slo puede resolver una funcin, si todos los posibles resultados del problema pueden separarse de sta forma (en dos secciones) es decir, que no se combinen entre s. Entrenamiento El entrenamiento de un perceptrn es por medio de la regla de aprendizaje delta: Para cada peso W se realiza un ajuste dW segn la regla: dW = LR ( T - Y ) X Donde LR es la razn de aprendizaje, T el valor deseado, Y el valor obtenido, y X la entrada aplicada al perceptrn. Tipos de perceptrn El Perceptrn bsico de dos capas (entrada con neuronas lineales, analgicas, y la de salida con funcin de activacin de tipo escaln, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendra un hiperplano.

Un Perceptrn con tres niveles de neuronas puede formar cualquier regin convexa en este espacio. Las regiones convexas se forman mediante la inteleccin entre las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrn simple, activndose su salida para los patrones de un lado del hiperplano. Un Perceptrn con cuatro capas puede generar regiones de decisin arbitrariamente complejas. El proceso de separacin en clases que se lleva a cabo consiste en la particin de la regin deseada en pequeos hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el numero de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lgico de la salida de los nodos del nivel anterior. La salida de los nodos de este tercer nivel se activaran solo para las entradas de cada hipercubo. Los hipercubos se asignan a la regin de decisin adecuada mediante la conexin de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la regin de decisin en la que este comprendido el hipercubo llevndose a cabo una operacin lgica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos. En teora, el Perceptrn de 4 capas puede resuelve una gran variedad de problemas cuyas entradas sean analgicas, la salida sea digital y sea linealmente separable. El problema prctico radica en el numero de neuronas, en el numero idneo de capas ocultas, la extensin de la funcin de activacin, el tiempo de entrenamiento de la red, las implicaciones en la generacin de ruido (al tener un numero excesivo de neuronas) en contraparte con la ventaja de tener un sistema tolerante a fallas al tener un numero de neuronas redundante. Aplicaciones del perceptrn El rango de tareas que el Perceptrn puede manejar es mucho mayor que simples decisiones y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para formar el tiempo pasado de los verbos en ingles, leer texto en ingles y manuscrito. El Perceptrn multicapa (MLP) puede ser usado para la prediccin de una serie de datos en el tiempo; tal a sido su xito en la medicin de la demanda de gas y electricidad, adems de la prediccin de cambios en el valor de los instrumentos financieros. Prediccin de mercados financieros, diagnsticos mdicos, el Perceptrn como una red codificadora, el Perceptrn aprende a sumar enteros. NETtalk es un Perceptrn que es capaz de transformar texto en ingles en sonido individual (representaciones fonticas) y la pronunciacin con la

utilizacin de un sintetizador de voz; cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en la capa escondida) y 20,000 conexiones individuales.

Backpropagation
El perceptrn solo es el ejemplo ms elemental de una red neuronal, de hecho, no puede siquiera ser considerado una "red", puesto que no intervienen otros elementos. Si se combinan varios perceptrones en una "capa", y los estmulos de entrada despus se suman tendremos ya una red neuronal. Una red neuronal muy eficaz para resolver fundamentalmente problemas de reconocimiento de patrones es la red neuronal de propagacin hacia atrs, en ingls back propagation network.

En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre s. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa, esto es, cada neurona transmitir su seal de salida a cada neurona de la capa siguiente. La figura muestra un ejemplo esquemtico de la arquitectura de este tipo de redes neuronales. Algoritmo

El algoritmo de aprendizaje proporciona una forma de entrenar una red multicapa con alimentacin hacia adelante. Comienza alimentando los valores de la entrada de acuerdo a las siguientes ecuaciones:

donde A es el grupo de neuronas en una capa, y B e la otra. Oj es la activacion para la neurona J, y Wji son los pesos asignados a la conexin entre las neuronas j e i. En la ecuacin anterior, se toman los valores de salida y se alimentan a la siguiente capa a traves de los pesos. Esta operacin se realiza para cada neurona en la siguiente capa, produciendo un valor de red para el. Este valor es la suma de todos los valores de activacion en las neuronas de la capa anterior, y cada valor de red es aplicado ahora a la siguiente ecuacin, conocida como funcin de activacin, para producir la activacin de esa neurona.

Despues de que todas las neuronas tienen un valor de activacin asociado a un patrn de valores de entrada, el algoritmo sigue buscando errores en cada neurona que no es entrada. Los errores encontrados para las neuronas de salidas, son propagados hacia atrs, a la capa anterior para que puedan ser asignados a neuronas de las capas escondidas, sto se calcula por:

donde D es el gripo de neuronas en una capa que no es de entrada y E es el grupo de neuronas de la siguiente capa. Este clculo se repite para cada capa escondida en la red. Despus de que se ha encontrado la activacin y el error asociado a cada grupo de neuronas, los pesos se actualizan, primero encontrando el valor que cada peso debe modificarse, esto se logra calculando:

donde C, conocida como la razn de aprendizaje, es una constante que controla el valor del cambio de lso mesos y Wij es el cambio de los pesos entre la neurona i y j. El peso es cambiado evaluando:

Hopfield

Compara Productos, Tiendas y Precios

Introduccin
Las redes de Hopfield son redes de adaptacin probabilstica, recurrentes, funcionalmente entraran en la categora de las memorias autoasociativas, es decir, que aprenden a reconstruir los patrones de entrada que memorizaron durante el entrenamiento. Son arquitecturas de una capa con interconexin total, funciones de activacin booleana de umbral (cada unidad puede tomar dos estados, 0 o 1, dependiendo de si la estimulacin total recibida supera determinado umbral), adaptacin probabilstica de la activacin de las unidades, conexiones recurrentes y simtricas, y regla de aprendizaje no supervisado. Mientras que las redes en cascada (no recurrentes) dan soluciones estables, los modelos recurrentes dan soluciones inestables (dinmicas), lo que no siempre es aconsejable. La principal aportacin de Hopfield consisti precisamente en conseguir que tales redes recurrentes fueran as mismo estables. Imagin un sistema fsico capaz de operar como una memoria autoasociativa, que almacenara informacin y fuera capaz de recuperarla aunque la misma se hubiera deteriorado. La Red de Hopfield es recurrente y completamente conectada. Funciona como una memoria asociativa no lineal que puede almecenar internamente patrones presentados de forma incompleta o con ruido. De esta forma puede ser usada como una herramienta de optimizacin. El estado de cada neurona puede ser actualizado un nmero indefinido de veces, independientemente del resto de las neuronas de la red pero en paralelo.

Boltzmann
En la Mquina de Boltzmann, generalizacin de la red de Hopfield que incluye unidades ocultas, la operacin de actualizacin se basa en un concepto de termodinmica estadstica conocido como "simulated annealing". La red de Hopfield, la mquina de Boltzmann y un derivado conocido como la mquina del teorema de campo medio se han utilizado en aplicaciones de segmentacin y restauracin de imgenes y optimizacin combinacional.

Caractersticas
La red de Hopfield consiste en un conjunto de N elementos de procesado interconectadas que actualizan sus valores de activacin de forma asincrona e

independiente del resto de las elementos de procesado. Todos los elementos son a la vez de entrada y salida. Los valores de activacin son binarios. El estado del sistema esta dado por los valores de activacin Yk. La entrada de la neurona k en el ciclo temporal t+1 viene dada por

Para obtener el nuevo valor de activacin se aplica una funcin umbral. Cuando un elemento de procesado mantiene su valor de activacin se dice que es estable. Se llama estado estable a aquel en el cual todos la elementos de procesado son estables. Con la restriccin extra de simetra en los pesos de conexin, Wjk=Wkj, el sistema puede ser descrito mediante una funcin energa de la forma

Funcionamiento
A cada estado de la red se le puede atribuir una cierta cantidad de energa, el sistema evoluciona tratando de disminuir la energa mediante un proceso de relajacin, hasta alcanzar un mnimo (valle) donde se estabiliza. Los mnimos de energa se corresponden con los recuerdos almacenados durante el aprendizaje de la red. Ante la presentacin de un estmulo nuevo se obtendr una configuracin inicial ms o menos parecida a alguno de los estmulos almacenados, el sistema evolucionar hasta caer en una configuracin estable que representa el recuerdo asociado a ese estmulo. Si la configuracin inicial discrepa mucho de los recuerdos almacenados podemos alcanzar algn mnimo que no se corresponde a ningn recuerdo almacenado, recuperando en ese caso una informacin espuria, o podramos no alcanzar ningn mnimo, quedando inestable: en ese caso diramos que la red est "confundida", no es capaz de reconocer el estmulo, no recuerda. Una tercera posibilidad es que al cabo de unos pasos de evolucin empiece a repetir peridicamente una secuencia definida de estados; con esta dinmica se han modelado ciertas excitaciones nerviosas que regulan acciones rtmicas y repetitivas; y se ha tratado de reproducir la memoria de secuencias temporales, pe. el recuerdo de melodas.

Modelo de Red de Hopfield de 3 unidades

Como habamos dicho, las neuronas se conectan todas entre s, y consigo mismas. Para empezar se le asigna a cada unidad el valor o estado correspondiente del patrn de entrada. En cada ciclo se elige una neurona al azar y se calcula su activacin segn la funcin de umbral: Sea n el nmero de neuronas en la red, la estimulacin total se calcula como el sumatorio de todas las entradas ponderadas, incluida la procedente de la misma unidad.

Se puede trabajar con cualquier valor de umbral para la funcin de activacin, pero tpicamente se usa el 0 como umbral; tiene la ventaja de simplificar las ecuaciones. yi=1 si xi > 0 yi=0 si xi < 0

Por definicin los recuerdos (tems o patrones almacenados) son puntos fijos en la dinmica de la red, es decir, configuraciones que no cambian en el tiempo aunque se siga aplicando la regla de evolucin. Para almacenar un recuerdo habr que lograr que la presentacin del patrn de entrada lleve a la red a alcanzar un punto fijo, esto se lograr mediante alguna regla de aprendizaje que modifique los pesos de las conexiones.

Aprendizaje de las redes de Hopfield: Regla de Cooper-Hebb


La eleccin de la regla de aprendizaje no es trivial, depende de la interrelacin de los patrones que se desea memorizar. Si estos patrones estn poco correlacionados (pseudoortogonales) podemos aplicar la regla de Cooper-Hebb, basada en la regla de Hebb o regla del producto: Supongamos que tenemos p tems o patrones que almacenar, entonces calculamos

si i<>j (matriz simtrica) wij = 0 si i=j (la diagonal=0) Esta regla fortalece las conexiones cuando las unidades i-sima y j-sima tienen la misma activacin o valor de estado,y las debilita en caso contrario. El entrenamiento seguir los siguientes pasos.
1. Elegir un nmero de neuronas que cumpla el criterio del 15% 2. Codificar los tems que queremos memorizar de forma que los patrones para representarlos se parezcan lo menos posible entre s, para aproximarnos a la condicin de pseudo-ortogonalidad. 3. Calcular los pesos de las conexiones segn la regla de Cooper-Hebb.

Ya tenemos la red lista para usarla, asignando a las unidades el estado inicial y dejando que la red evolucione hasta alcanzar un mnimo (esto lo conseguiremos comprobando que el decremento de energa es nulo).

Condiciones de estabilidad
Como demostr Hopfield, que una red de adaptacin asncrona sea estable se puede conseguir haciendo que la matriz de pesos sea simtrica y con 0s en la diagonal principal. La idea para alcanzar estados estables es encontrar una funcin del estado del sistema, que llamaremos energa, con la propiedad de decrecer cuando se produce un cambio en el estado de la red. Un tipo de funciones con esa propiedad son las funciones de Liapunov. Una funcin de este tipo, empleando umbral=0, sera la siguiente:

dnde yi representa la activacin o salida de la unidad i-sima El cambio de energa del sistema ante el cambio de estado de una unidad i elegida al azar (Dyi) es:

Se puede demostrar que dicho cambio de energa es siempre negativo o nulo, de tal modo que el sistema tiende a converger hacia un mnimo. El criterio de simetra es suficiente, pero no necesario, para alcanzar la estabilidad. Por otro lado la simetra aproximada es usualmente suficiente para lograrlo.

Valoracin:
Las redes de Hopfield se han aplicado a campos como la percepcin el reconocimiento de imgenes y optimizacin de problemas, mostrando gran inmunidad al ruido y robustez. Incluso se han llegado a desrrollar chips especficos para este tipo redes. El estudio de las representaciones de secuencias temporales es un rea de gran inters, con

aplicaciones en reconocimiento automtico de voces y movimientos. Hopfield ha mostrado como aplicar los mismos principios con funciones de activacin continuas como la funcin sigmoidal, con muy pocas modificaciones. Pero pese a sus evidentes ventajas no estn exentas de problemas:
El nmero mximo de patrones no correlacionados que puede almacenar es igual al 15% del nmero de neuronas de la red. Requieren mucho tiempo de procesamiento hasta converger a una solucin estable, lo que limita su aplicabilidad. Otro de los problemas achacados a las redes de Hopfield es su tendencia a caer en mnimos locales, como en las redes de retropropagacin. La solucin pasa por aplicar los mtodos estadsticos que ya comentamos en el apartado dedicado a las redes de retropropagacin, el equilibrio termodinmico simulado.

Kohonen
Introduccin Existen evidencias que demuestran que en el cerebro existen neuronas que se organizan en muchas zonas, de forma que las informaciones captadas del entorno a travs de los rganos sensoriales se representan internamente en forma de capas bidimensionales. Por ejemplo, en el sistema visual se han detectado mapas del espacio visual en zonas de crtex (capa externa del cerebro). Tambin en el sistema auditivo se detecta organizacin segn la frecuencia a la que cada neurona alcanza la mayor respuesta (organizacin tonotpica). Aunque en gran medida esta organizacin neuronal est predeterminada genticamente, es probable que de ella se origine medienta el aprendizaje. Esto sugiere, por tanto, que el cerebro podra poseer la capacidad inherente de formar mapas topolgicos de las informaciones recibidas del exterior. De hecho, esta teora podra explicar su poder de operar con elementos semnticos: algunas areas del cerebro simplemente podran crear y ordenar neuronas especializadas o grupos con caracteristicas de alto nivel y sus combinaciones. Se tratara, en definitiva, de construir mapas espaciales para atributos y caractersticas. Historia A partir de estas ideas, T. Kohonen present en 1982 un sistema con un comportamiento semejante. Se trataba de un modelo de red neuronal con capacidad para formar mapas de caractersticas de manera similar a como ocurre en el cerebro. El objetivo de Kohonen era demostrar que en un estmulo externo (informacin de entrada) por si solo, suponiendo una estructura propia y una descripcin funcional del comportamiento de la red, era suficiente para forzar la formacion de mapas. Este modelo tiene dos variantes, denominadas LVQ (Learning Vector Quantization) y TPM (Topology-Preserving Map) o SOM (Self-Organizating Map). Ambas se basan en el principio de formacin de mapas topolgicos para establecer caractersticas comunes entre las informaciones (vectores) de entrada a la red, aunque difieren en las dimensiones de stos, siendo de una soladimensin en el caso de LVQ, y bidimensional, e incluso tridimensional, en la red TPM.

Caractersticas Pertenece a la categora de las redes competitivas o mapas de autoorganizacin, es decir, aprendizaje no supervisado. Poseen una arquitectura de dos capas (entrada-salida) (una sola capa de conexiones), funciones de activacin lineales y flujo de informacin unidireccional (son redes en cascada). Las unidades de entrada reciben datos continuos normalizados, se normalizan as mismo los pesos de las conexiones con la capa de salida. Tras el aprendizaje de la red, cada patrn de entrada activar una nica unidad de salida. El objetivo de este tipo de redes es clasificar los patrones de entrada en grupos de caractersticas similares, de manera que cada grupo activar siempre la(s) misma(s) salida(s). Cada grupo de entradas queda representado en los pesos de las conexiones de la unidad de salida triunfante. La unidad de salida ganadora para cada grupo de entradas no se conoce previamente, es necesario averiguarlo despus de entrenar a la red. Arquitectura En la arquitectura de la versin original (LVQ) del modelo Kohonen no existen conexioines hacia atrs. Se trata de una de las N neuronas entrada y M de salida. Cada una de las N neuronas de entrada se conecta a las M de salida a travs de conexiones hacia adelante (feedfoward). Entre las neuronas de la capa de salida, puede decirse que existen conexiones laterales de inhibicin (peso negativo) implcitas, pues aunque no estn conectadas, cada una de las neuronas va a tener cierta influencia sobre sus vecinas. El valor que se asigne a los pesos de las conexiones hacia adelante entre las capas de entrada y salida (Wji) durante el proceso de aprendizaje de la red va a depender precisamente de esta interaccin lateral. La influencia que una neurona ejerce sobre las dems es funcin de la distancia entre ellas, siendo muy pequeas cuando estan muy alejadas. Es frecuente que dicha influencia tenga la forma de un sombrero mexicano. Por otra parte, la versin del modelo denominada TPM (Topology Preserving Map) trata de establecer una correspondencia entre los datos de entrada y un espacio bidimensional de salida, crenado mapas topolgicos de dos dimensiones, de tal forma que ante datos de entrada con caractersticas comunes se deben activar neuronas situadas en prximas zonasde la capa de salida.

Aprendizaje Supongamos que tenemos patrones de entrada n-dimensionales. 0. Aleatorizar los pesos de las conexiones. Normalizar los pesos de las conexiones incidentes de cada unidad de salida sobre la unidad: dividir cada conexin por la raz cuadrada de la suma de los cuadrados de las conexiones de cada unidad. Normalizar igualmente los datos de entrada 1. Aplicar un patrn de entrada. 2. Calcular alguna medida de similitud/disimilitud (producto interno, distancia eucldea o de Mahalanobis, etc.) entre las entradas y los pesos de las conexiones. 3. La unidad de salida con los pesos ms parecidos al patrn de entrada es declarada ganadora. El vector de pesos de la unidad ganadora, se convierte en el centro de un grupo de vectores cercanos a l. 4. Modificar los pesos de los vectores de pesos Wj "cercanos" a Wc (distancia menor a D), segn la frmula:

De esta manera conseguimos que los vectores de pesos de la unidad ganadora y de su "vecindario" se parezcan cada vez ms al patrn de entrada que hace ganar a esa unidad. 5. Repetir los pasos 1 a 4 con todos los patrones de entrada. A medida que avanza el aprendizaje hay que ir reduciendo D y a. Kohonen recomienda empezar con un valor de a cercano a 1 y reducirlo gradualmente hasta 0.1. D puede empezar valiendo la mxima distancia existente entre los pesos de las conexiones al principio y acabar siendo tan pequeo que no quede ninguna unidad en el vecindario de la unidad ganadora. En ese momento solo se entrenar una unidad, que al final tendr su vector de pesos igual al vector de entrada. La precisin de la clasificacin de los patrones de entrada aumenta con el nmero de ciclos de aprendizaje. Kohonen recomienda una cantidad de ciclos no inferior a 500 veces el nmero de neuronas de salida para obtener buenos resultados. Aplicacin Una vez entrenada, podemos usar a la red para clasificar patrones de entrada similares en el espacio n-dimensional. Una clase o grupo de patrones similares tiende a controlar una neurona especfica, que representar el centro de una

esfera n-dimensional (de radio unitario, pues normalizamos los datos sobre la unidad). Esa neurona resultar la ms activada frente a los patrones ms parecidos a su vector de pesos. Despus del aprendizaje, la clasificacin consiste en presentar una entrada y seleccionar la unidad ms activada. Adems, el vector de pesos nos servir para reconstruir el patrn de entrada.

Neural Stock

Neural Stock es un programa desarrollado por Infosel Financiero, en Mxico. Combina las Redes Neuronales Artificiales, junto con tecnologas como Algoritmos Genticos y Lgica Difusa, para obtener una capacidad de anlisis acertada, recomendando operaciones de compra y venta en el mundo financiero y bursatil.

Informacin
Pgina principal: Neural Stock Fabricante: Neural Stock, S.A. de C.V. Pas: Mxico Programa analizado: GA Neural Stock 99 V.3.0 (Ns99v300.zip) Datos utilizados: nsdatos.zip Caractersticas: Sistema de anlisis bursatil/financiero Requerimientos del sistema: Windows 95 o NT Procesador 486 o superior 16 Mb. en memoria RAM 25 Mb. libres en disco duro

Anlisis y Evaluacin de la Aplicacin


En Neural Stock se aplican los principales adelantos en inteligencia artificial, incluyendo el uso de las RNA, para el campo del anlisis financiero. Este programa permite analizar el desarrollo del mercado financiero, dia tras da, con lo que se logra entrenar a la red, y en base a todo su historial de datos, puede predecir el siguiente movimiento a efectuar,

actuando como un asesor en la compra y venta. Se convierte en una herramienta muy poderosa al aprovechar las ventajas de internet al tener los datos de la bolsa en tiempo real o al final de cada da. Es robusto y tiene una interface amigable, por lo que no se requiere saber nada acerca de las redes, solamente introducir datos e interpretar las sugerencias que el programa da. Se aprovecha una de las caractersticas de las RNA, su adaptabilidad, ya que permite modificar la sensibilidad del anlisis, lo cual se utiliza cuando no se requiere analizar datos en periodos muy cortos, pero se puede incluir mayor cantidad de datos. Esto es, la red se "adapta" a los datos introducidos. En el mercado de los inversionistas, es necesario tener herramientas como sta, ya que aunque da muy buenas sugerencias, no se "emociona" sino que permanece objetivo y fro, a diferencia de lo que pudiera suceder con una persona, al seguir alguna corazonada.

Como Funciona
En Neural Stock, gracias a la red neuronal asociada a cada instrumento financiero, permite adquirir la experiencia requerida para obtener la mejor rentabilidad posible, en unos cuantos minutos, en base al reconocimiento de los indicadores; un indicador que es el resultado de un proceso de aprendizaje de como interpretar estos indicadores correctamente con el fin de maximizar la rentabilidad posible. Con Neural Stock, Ud. dispone de una red neuronal que se asocia a cada instrumento financiero. Esta red, permite en unos cuantos minutos, adquirir la experiencia requerida para interpretar correctamente las formaciones en los indicadores tcnicos para generar finalmente un indicador inteligente que proporciona claramente seales de compra/venta de instrumentos de inversin, para optimar la rentabilidad de sus inversiones. De esta forma, Ud. no requiere aprender a interpretar decenas de indicadores tcnicos, ni a reconocer formaciones en los precios. Ud. slo deja que la red neuronal y el algoritmo gentico hagan su trabajo realizando millones de operaciones para conseguir un solo indicador inteligente fcil de seguir e interpretar que ha extrado en cierta forma la informacin relevante de otros indicadores para obtener rentabilidad ptima.

Caractersticas
Cuenta con un indicardor neuronal, que es el que genera la recomendacin de compra o venta. Se mueve alrededor de un punto de equilibrio, indicando la tendencia del mercado. Esta indicacin se presenta sobre el grfico de precios con flechas verdes y rojas. Contiene un monitor de clasificacin de instrumentos financieros que utiliza lgica difusa (una especie de sistema experto), para interpretar el propio indicador neuronal y considerar tambin algunos otros factores como variacin en los precios y el volumen de operacin, localizacin relativa del precio respecto a su promedio mvil y localizacin del precio en el

canal estadstico que define su ltima tendencia. Cuenta con alarmas programables con disparo por nivel de precios y/o seal del indicador neuronal. Posibilidad de agrupar los distintos instrumentos financieros en diferentes mercados. Soporte completo para realizar anlisis tcnico: Trazado de lneas de tendencia y de ajuste por mnimos cuadrados, generacin de promedios mviles simple, exponencial y ponderados tanto en los precios como en el indicador, construccin de abanico de resistencia de velocidad de Fibonacci, generacin de indicadores tcnicos convencionales y de teora del caos. Versin para tiempo real para operacin agresiva, mesas de capitales operacin de posicin propia con todas las caractersticas del programa convencional pero que en lugar de das, las barras de precios se definen para intervalos de minutos. Actualizacin automtica de datos diarios utilizando Infosel Financiero y algunos otros sistemas de informacin. Actualizacin de datos mediante el Internet. Diseado especficamente para los sistemas operativos Windows 95 y NT 4.0 y 5.0, con tecnologa de 32 bits. Sacando mximo provecho en las posibilidades de multitarea que se traducen en una gran velocidad de respuesta en todas y cada una de las caractersticas del software. Con ms de 5 aos en el mercado y una gran base de clientes desde profesionales e institucionales hasta inversionistas privados que se han convencido que Neural Stock es simple y sencillamente la herramienta ms poderosa para obtener el mximo beneficio en sus inversiones.

PANDORA

La lnea de programas PANDORA de Prosoniq, esta diseada para extraer, de una seal de audio completa, los componentes msicales mas bsicos. Esto se logra utiliando Procesamiento Digital de Seales y Redes Neuronales. Informacin
Pgina principal: Prosoniq Pandora Fabricante: Prosoniq Pas: Alemania Programa analizado: PANDORA Music Decomposition Series (Realtime) Ejemplos: en la tabla, mas adelante en esta pgina Caractersticas: descomposicin de audio Requerimientos del sistema: Apple PowerMacintosh o compatible Procesador 300Mhz PPC604e o G3 a 266Mhz 16 Mb. de memoria RAM sonicWORX Studio 1.52 o superior Sistema 7.5.5 o superior

Anlisis y Evaluacin de la Aplicacin Normalmente el filtrado de los componentes de la msica, como la voz en una cancin, se realizaba con equalizadores paramtricos, identificando la frecuencia principal del cantante y atenandola, sin embargo, esto elimina otros elementos de la msica que se localicen cerca de los mismos valores de frecuencia.

Otra tcnica existente es el restar las seales izquierda y derecha de una seal en estreo, lo que produce una atenuacin en la voz, que normalmente se graba sin "paneo" o sea con la misma intensidad en los dos canales, por lo que al restarse, se elimina, sin embargo, cualquier otro instrumento posicionado en el "centro" de la grabacin tambin se eliminar. PANDORA no utiliza estas tcnicas, sino Redes Neuranels Artificiales, por lo que puede trabajar con archivos monoaurales y no modifica en nada a los demas instrumetnos a parte de la voz. Solo mantiene la reverberacin de la misma, debido a que se crea artificialmente y es na mezcla de seales, por lo que no se puede eliminar. Tambin se puede utilizar para ciencias forenses, al extraer componentes bsicos de una grabacin en casos importantes. As, se puede eliminar el ruido existente en una grabacin u otros componentes para dejar solamente las pruebas necesarias para el caso. Ejemplos A continuacin se muestran algunos ejemplos, en archivos .wav de canciones a las cuales se les removi la voz del (la) cantante.
Original Ejemplo 1 550 kb. Ejemplo 2 460 kb. Ejemplo 3 1.02 Mb. Filtrada con PANDORA Realtime Ejemplo 1 filtrado 550 kb. Ejemplo 2 filtrado 450 kb. Ejemplo 3 filtrado 1.02 Mb.

Caractersticas
Atena o incrementa el volumen de la voz de los cantantes en na mezcla final Atenuacin a un nivel en donde la voz no se escucha (permanece la reverberacin) para utilizarse en ambientes tipo "karaoke" Aumenta la voz en +10 dB sin filtros o aparatos externos Trabaja con seales de audio mono o estreo Trabaja en tiempo real en una PowerMac 9600/300 o G3/266 Ofrece parmetros flexibles Trabaja como un agregado para sonicWORX Studio

Optimatch

Es un software de administracin de publicidad dirigida para internet, analiza y decide los banners o anuncios que presentar un sitio de internet a cada tipo de usuario, para aumentar el inters en l sobre el patrocinador. Informacin
Pgina principal: Optimatch Fabricante: Neural Applications Corporation Pas: E.U. Programa analizado: Neural OptiMatch Requerimientos del sistema: Windows NT 4.0 (SP 3) Pentium 133 o superior 64 Mb. en memoria RAM 2.0 Gb libres en disco duro (para la base de datos=

Anlisis y Evaluacin de la Aplicacin OptiMatch provee una forma inteligente de dirigir la publicidad de un sitio, lo que aumenta el rendimiento de las campaas publicitarias y de navegacin por el sitio, porque se le presenta al usuario el contenido que mas le interesa. Para presentar un banner al visitante, se considera la hora del dia, el tipo de pgina en que se encuentra y las caractersticas registradas del visitante. Trabaja en un servidor Windows NT 4, y se utiliza junto con el SiteServer 3.0 Commerce Edition. Es un valor agregado al sistema que maximiza el flujo de visitas en las pginas de web. Alguna de sus caractersticas son:
Rastrea el camino que siguen los usuarios dentro del sitio Monitorea las preferencias del usuario en internet

Proporciona banners o anuncios adecuados a las necesidades del usuario.

Attrasoft
Attrasoft se dedica a hacer software para anlisis financiero y reconocimiento de imgenes a travs de redes neuronales. Sus productos estn basados en modelos neuronales de Hopfiend y la mquina de Boltzmann, estn diseados para trabajar en un ambiente entre 1,000 y 100,000 neuronas externas (de entrada y salida). Informacin
Fabricante: Attrasoft Software: Image finder, Decision Maker, Predictor, ABM Programa base: ABM Boltzman Machine Pas: E.U.

Anlisis y Evaluacin de la Aplicacin Los programas de Attrasoft se utilizan para clasificar imgenes, buscar imgenes en internet, obtener predicciones sobre una serie de datos, reconocimiento de patrones, etc. Todas las aplicaciones se basan en un ncleo formado por el software de RNA basado en Hopfield, es completamente configurable: se puede modificar la cantidad de neuronas empleadas, y su entrenamiento, por lo que se puede adaptar a cualquier tipo de problema. A continuacin presentamos un ejemplo de la aplicacin de las RNA en el reconocimiento de imagen, esta basado en los 10 ms buscados del FBI, y lo provee la compaa Attrasoft. Ejemplo Presione en cada paso para ver las imgenes en otra ventana, cirrela para continuar. 1. El sospechoso: El bosquejo de la persona sospechosa del crimen, la polica la busca para arrestarla. 2. La base de datos de criminales conocidos: Contiene la cantidad de fotografas necesarias, el sistema puede buscar hasta 1,000 fotografas a la vez, alrededor de 1 por segundo.

3. Resultados de la bsqueda: Se listan las imgenes que corresponden con el bosquejo del criminal, el software tard 8 segundos utilizando una Pentium II 400Mhz, 96Mb RAM, win98. La base de datos tena entre 50 y 60 imgenes.

You might also like