Professional Documents
Culture Documents
Redes neuronales
y nunca se atrevi a preguntar
Billy Reynoso
UNIVERSIDAD DE BUENOS AIRES
billyreyno@hotmail.com
http://carlosreynoso.com.ar
Temario
Implementaciones
Criterios de clasificacin
Topologas
Paradigmas de aprendizaje
Funciones de activacin y propagacin
Implementaciones
(Solamente binarios)
SNNS
Unix, Windows con X Server
JavaNNS
Independiente de plataforma, Windows con JRE
Incluye nuevas topologas, pero no 3D
PDP++
C++, Windows con CygWin - Pocos algoritmos
NeuroSolutions
Full-Windows, COM, Excel, VB, VC++
Nuevas topologas y lgica difusa, pero no ART
ANN y estadsticas
ANN = modelo estadstico (caja negra, E-R)
Las redes FF sin capa oculta (incluyendo redes neuronales de vnculo funcional y
redes de orden ms elevado) son bsicamente modelos lineales generalizados.
Las redes FF con una capa oculta se relacionan estrechamente con projection
pursuit regression.
PPR: tcnica exploratoria para analizar datos de alta dimensionalidad con
proyecciones de baja dimensionalidad y encontrar estructuras interesantes
Las redes de Kohonen para cuantificacin de vector adaptativo se asemejan a kmeans cluster analysis.
El aprendizaje hebbiano se asemeja al anlisis de componente principal.
Criterios
Falta de unidad de criterio taxonmico
Por topologa (Feedforward, recurrentes)
Por modelo de memoria
Gamma, autoasociativas, asociativa, heteroasociativa, Laguerre,
almacenamiento directo...
Topologas bsicas
Redes de alimentacn hacia adelante
(feedforward)
No hay autoconexiones, ni feedback
Mapeadores instantneos: la salida es vlida
apenas presentado el input
Redes recurrentes
Total y parcialmente recurrentes
Conexin con cualquier PE, incluso a s mismo
Feedforward
Perceptrones
Memorias asociativas
Redes de Kohonen
Recurrentes
Redes de Hopfield
Mquinas de Boltzmann
Redes de Elman
Memoria asociativa bidireccional
Redes de Jordan
Redes de resonancia adaptativa
Redes recurrentes generalizadas
Time lagged recurrent networks
Redes de anlisis de componente principal
Neocognitron (1980)
Reconoce el mismo objeto en otra posicin en
el campo visual
Mixta:
ARTMAP - Combina 2 mdulos no supervisados para implementar
aprendizaje supervisado
dART - ART distribuida / ART2 (analgico), ART3
Desventajas:
Inestables durante entrenamiento, porque el feedback
es adaptable (en Jordan/Elman es fijo)
El algoritmo backprogation through time (BPTT) decae
exponencialmente
Otras redes
Red reverberante conectada al azar (Farley & Clark, 1954)
Red reverberante con auto-ensamblado (Rochester, 1956)
Pandemonium
Selfridge, 1958 - Dividir y conquistar dominio del problema. El
agente (daemon) que grita ms fuerte gana
1. Ada Boost.
2. Backpropagation neural network with batch training
(Backpropagation_Batch).
3. Backpropagation neural network with conjugate gradient
descent (Backpropagation_CGD).
4. Backpropagation neural network with Quickprop learning
(Backpropagation_Quickprop).
5. Backpropagation neural network with stochastic training
(Backpropagation_Stochastic).
6. Backpropagation neural network with stochastic training
and
momentum (Backpropagation_SM).
7. Balanced Winnow.
8. Batch perceptron (Perceptron_Batch).
9. Batch relaxation with margin (Relaxation_BM).
10. Batch variable-increment perceptron (Perceptron_BVI).
11. Bayesian Model Comparison
12. C4.5.
13. Cascade-Correlation type neural network
(Cascade_correlation).
14. Classification and regression trees (CART).
15. Component classifiers with descriminant functions
(Components_with_DF).
16. Component classifiers without descriminant functions
(Components_without_DF).
17. Deterministic Boltzmann classifier.
18. Discrete Bayes classifier.
19. Expectation-maximization (EM).
20. Genetic algorithm (Basic GA).
21. Genetic programming.
22. Gibbs algorithm.
23. ID3.
24. Interactive Learning (Learning with queries).
25. Linear Least squares (LS).
26. Least-mean squares (LMS).
27. Local polynomial fitting
Paradigmas de aprendizaje
No supervisado:
Supervisado:
Decidir: criterio de error, propagacin y constraint de output
O sea: Funcin de costo, p. ej. descenso de gradiente, definicin de conducta en
tiempo final (punto fijo para FF)
Adaline
Perceptrn
Redes dinmicas
Backpropagation
MLP
Aprendizaje hebbiano
Constituye la base del aprendizaje no supervisado,
conductista
Se cambian pesos multiplicando input, output,
learning rate
Variantes:
Hebb - Se aumentan pesos su hay correlacin positiva
Anti-Hebbiano (Hebb with decay) - Se disminuyen para que olvide
lo que no es reforzado
Hebbiano forzado
Regla de Oja
Encuentra el componente principal del input (eigenfilter)
Regla de Sanger
Aprendizaje de refuerzo
(Reinforcement L.)
Basado en aprendizaje hebbiano
No del todo supervisado
Feedback evaluativo en vez de
instructivo
Se le dice si est mal,
y eventualmente en
qu medida
Backpropagation
Basado en regla delta de Widrow-Hoff
Generalizacin de LMS
Alternativas a BackProp
Regla Delta:
DBD (Delta-bar-delta) - Jordan, 1988
Usa un coeficiente variable propio para cada conexin
Momentum
Rumerhart & al - Coeficiente proporcional al ltimo cambio
EDBD = DBD+Momentum
Gradiente conjugadoFletcher-ReevesPolak-Riviere PowellBeale
Mtodo de Newton - Quasi-Newton
Mtodo de Levenberg-Marquard (gen. de Newton)
QuickProp (Fahlman 1988)
Gprop (Genetic learning rule, Castillo 1999)
Rprop (Resilient Prop, Riedmiller 1993)
Aprendizaje competitivo
Red excitadora hacia adelante y redes
inhibidoras laterales
La red hacia adelante implementa regla
de Hebb
La red inhibidora selecciona al ganador
mediante winner-take-all
Una variante se usa en SOFM:
Competencia, cooperacin, adaptacn
Aprendizaje de trayectoria
(aplica a Redes dinmicas)
Fundamental para patrones que varan
en el tiempo
Dos procedimientos:
Backpropagation through time (BPTT)
Algoritmo de tiempo real de aprendizaje
recurrente (RTRL)
Funciones
Propagacin
Funcin lineal de base
Suma de las entradas ponderadas
Activacin
Funcin de umbral
La salida es un valor discreto, usualmente binario
Funcin gaussiana
Modelos y
usos
Preguntas?
Billyr@microsoft.com.ar
Billyreyno@hotmail.com