Professional Documents
Culture Documents
Introduo G
Nota Histrica sobre IA G
Inspirao Biolgica G
Caractersticas das Redes
Neurais
G
O que uma Rede Neural ? G
O Neurnio Artificial G
Aprendizado das Redes
Neurais
G
Estratgias de
aprendizado
G
Classificao com base no
grau de independncia
daquele que aprende
G
Classificao do
aprendizado segundo a
retroao do mundo
G
Classificao quanto a
finalidade do aprendizado
G
Algoritmos de
Aprendizado
G
Regra de Hebb G
Regra Delta G
Aprendizado Competitivo G
WTA G
Retropropagao G
Topologias bsicas G
Redes Neurais Diretas G
Redes com Realimentao G
Rede Simtrica G
Alguns tipos de Redes
Neurais
G
Modelo de McCulloch-Pitts G
Percptron G
Perceptron Multicamadas G
Adaline e Madaline G
ART (Adaptive Ressonance
Theory)
G
Redes BAM G
Redes de
Contra-propagao
G
Rede de Hopfield G
Rede de Kohonen G
Aplicaes das Redes
Neurais
G
Bibliografia G
Glossrio G
Universidade Federal de Santa Catarina - UFSC
Departamento de Informtica e de Estatstica - INE
Curso de Ps-graduao em Cincia da Computao - CPGCC
INTRODUO AO ESTUDO DAS REDES
NEURAIS ARTIFICIAIS
Motivao: Este trabalho tem por objetivo fazer uma pequena apresentao
sobre o estudo das Redes Neurais Artificiais oferecendo uma viso geral sobre
esta tecnologia, no pretendendo de maneira alguma substituir um curso de
Redes Neurais a qualquer nvel. Foi inspirado em notas de aulas de disciplinas de
Redes Neurais dos cursos de Ps-graduao em Engenharia Eltrica e
Ps-graduao em Cincia da Computao da Universidade Federal de Santa
Catarina - UFSC. Agradeo a todos pela colaborao e conto com novas
sugestes.
Apresentao: Nas prximas pginas voc encontrar os seguintes tpicos
bsicos sobre as Redes Neurais Artificiais, aqui denominadas RNA ou
simplesmente Redes Neurais:
Introduo ao estudo das RNA - suas origens e inspirao biolgica. G
Caractersticas gerais das Redes Neurais e descrio do neurnio
artificial.
G
Aprendizado das Redes Neurais e tipos de Aprendizado G
Algoritmos de Aprendizado e Topologias bsicas G
Algumas aplicaes das RNA. G
Maria Aparecida Fernandes Almeida. Florianpolis, Santa Catarina - Brasil
mafa@inf.ufsc.br
Esta pgina est em construo !
Copyright - Todos direitos reservados.
Redes Neurais Artificiais (RNA)
file:///E|/downloadbarreto/rna/index.html [04/12/2000 18:09:04]
INTRODUO
As origens das redes neurais artificiais remontam no desejo de construir artefatos capazes de exibir
comportamento inteligente, ou seja, na inteligncia artificial ( I. A. ). A inteligncia artificial definida como um
campo da cincia da computao que visa reproduzir por meios computacionais as caractersticas
normalmente atribudas inteligncia humana, tais como:
Compreenso da linguagem; G
Aprendizagem; G
Raciocnio; G
Reconhecimento de padres; G
Soluo de problemas; G
Induo e deduo lgica. G
O crebro humano
O Prof. Dr. Jorge Muniz Barreto (Barreto, 1995) explica que o conceito de Inteligncia Artificial (IA) varia com o
tempo, com a poca e com o contexto: " ... H muitos sculos na Grcia, se chamava de mquina inteligente,
um distribuidor de gua, onde o indivduo colocava uma moeda e em funo do peso desta moeda, a
quantidade de gua saa. Bem mais recentemente, com a aproximao entre coisas biolgicas e mecnicas
na Ciberntica, entendia-se que algo que tivesse "feedback" (realimentao) seria considerado inteligente. Por
volta dos anos 50, a preocupao em construir artefatos que tivessem comportamento inteligente, era
considerado aquele que tinha a propriedade de manter certos valores de sada independentemente da
perturbao. No incio dos anos 60, haviam muitas expectativas sobre IA, algumas delas infrutferas como o
projeto de traduo automtica de lnguas (ingls-russo) desenvolvido pelo MIT, devido ao problema da
dimensionalidade. Atualmente, jogos de computadores que eram alguns anos considerados de IA, hoje no
so mais porque seu funcionamento tornou-se conhecido e estes tornaram-se operacionais. Assim pode-se
considerar a IA como uma espcie de desejo de se reproduzir tarefas que diriam ser inteligentes se fossem
desenvolvidas por seres naturais, porm no possvel fazer uma transio abrupta na considerao de
coisas inteligentes e no inteligentes...".
Em seu livro "Inteligncia Artificial no Limiar do Sculo XXI" , o Prof. Barreto nos explica que at o final dos
anos 50 os computadores eram olhados com certa desconfiana por executarem tarefas ento designadas a
humanos, da sua denominao de "crebros eletrnicos". Todavia, no incio dos anos 60 a popularizao
destas mquinas destruiu tal mito. Apesar de no manifestarem qualquer tipo de inteligncia os computadores
eram extremamente teis em tarefas correntes e sua "burrice" era sua maior qualidade. Entretanto, pesquisas
voltadas a dotar o computador de caractersticas inteligentes comearam a ter resultados significativos. Mas o
cidado comum s ouviu falar em "Inteligncia Artificial" (IA) com o retumbante anncio do projeto japons de
quinta gerao (1981) que pretendia construir uma nova gerao de computadores inteligentes. Mas afinal o
que inteligncia artificial? Muita discusso existe e muito difcil uma definio, pois j mesmo difcil definir
o que inteligncia e o que artificial ou natural...
Introduo
file:///E|/downloadbarreto/rna/introduo.htm (1 of 2) [04/12/2000 18:09:08]
Para Russel (1995) o campo da IA tenta entender as entidades inteligentes mas ao contrrio da filosofia e da
psicologia que tambm se preocupam com a inteligncia, a IA esfora-se para construir, bem como entender,
as entidades inteligentes. Russel afirma que um sistema dito racional se faz a coisa certa. Esta abordagem
dita racionalista envolve uma combinao de matemtica e Engenharia. Os sistemas "que agem como
humanos" (isto , podem desempenhar alguma(s) das funes humanas) so ilustrados pelo Teste de Turing.
Em 1950, Alan Turing props um teste para oferecer uma definio satisfatria operacional de inteligncia.
Definiu o comportamento inteligente como a habilidade de executar um desempenho em todas as tarefas
cognitivas, suficientes para enganar um interrogador num teste no qual um computador deveria ser interrogado
por um humano via um teletipo, ambos em locais separados.
Para que o computador passe no teste ele dever ter as seguintes habilidades:
processamento de linguagem natural: G
ser capaz de comunicar efetivamente em qualquer linguagem humana; G
representao do conhecimento: para armazenar a informao antes ou durante o interrogatrio. G
raciocnio autnomo: para usar a informao armazenada de forma a responder as questes do
interrogador e traar novas concluses;
G
aprendizado de mquina: para adaptar a novas circunstncias e para detectar e extrapolar padres. G
O teste de Turing evita a interao fsica entre o interrogador e o computador, devido a simulao fsica uma
pessoa seja desnecessria para inteligncia. Todavia, o teste de Turing total incluiria um sinal de vdeo (para o
interrogador testar as habilidades de percepo do sujeito) e um dispositivo para o interrogador passar
fisicamente objetos (atravs de uma portinhola). Para isso o computador precisar de:
viso de computador para perceber objetos; G
robtica para se mover. G
Introduo
file:///E|/downloadbarreto/rna/introduo.htm (2 of 2) [04/12/2000 18:09:08]
Nota Histrica sobre IA
A IA origina-se de cerca de 2000 anos de tradio na filosofia, na qual emergiram as teorias de raciocnio e
aprendizado, dentro do ponto de vista de como a mente constituda pela operao de um sistema fsico. Nos
ltimos 400 anos, os matemticos desenvolveram teorias de lgica, probabilidade, tomadas de decises e
computao. Da psicologia, tem-se para investigao da mente humana, uma linguagem cientfica para
expressar as teorias existentes. Da lingstica, temos teorias de estrutura e significado da linguagem. Muito se
passou desde a referncia de Lady Lovelace (1842) mquina "inteligente" de Babbage ao encontro de
McCarthy, Minsky, Newell e Simon no Dartmouth College em 1956. Desse encontro surge o termo "Inteligncia
Artificial" e origina o livro "Automata Studies" onde se tem o primeiro artigo sobre Redes Neurais Artificiais.
Linha do tempo das Redes Neurais Artificiais
1875 - O italiano Camilo Golgi descobre o neurnio. Posteriormente, Cajal usa o mtodo de Golgi para
cada parte do sistema nervoso.
G
1917 - Karel Capek inventa a expresso 'Robot' (em tcheco 'robot' significa 'trabalhador', mas a
traduo em 1923 para o ingls manteve a palavra original.
G
1928 - John von Neumann demonstra seu teorema "minimax" (usado mais tarde em programao de
jogos).
G
1930 - Claude Shannon demonstra a lgica Booleana usando chaveamento de circuitos. G
1937 - Turing publica "On Computable Numbers" (Mquina de Turing). G
1941 - Zuse constroi o Z3 na Alemanha, o primeiro computador programvel. G
1943 - McCulloch e Pitts propem arquiteturas de rede neural para explicar a inteligncia. G
1949 - Donald Hebb prope a "Lei de Hebb". G
1950 - proposto o Teste de Turing Test (Turing's "Computing Machinery and Intelligence"). G
1955 - Newell, Shaw e Simon desenvolvem a primeira linguagem de IA "IPL-11". G
1956 - Newell, Shaw, e Simon criam "The Logic Theorist", para soluo de problemas matemticos. G
1956 - Denominao de IA na conferncia do Dartmouth College, primeiro encontro de McCarthy,
Minsky, Newell e Simon.
G
1956 - Ulam desenvolve o MANIAC I. G
1957 - Newell, Shaw e Simon criam o "General Problem Solver" (GPS) G
1958 - McCarthy introduz o "LISP" no MIT. G
1959 - Minsky e McCarthy estabelecem o Laboratrio de IA no MIT. G
1959 - Rosenblatt introduz o Perceptron. G
1959 - B. Widrow e M. Hoff introduzem o Adaline (elemento linear adaptativo). G
1962 - J.McCarthy muda-se para Stanford, fundando o Stanford AI Lab em 1963. G
1963 - M. Ross Quillian introduz as redes semnticas como representao do conhecimento. G
1963 - Trabalho de Minsky "Steps Towards Artificial Intelligence". G
1965 - Simon afirma que "perto de 1985 as mquinas sero capazes de fazer qualquer trabalho que o
homem pode fazer "
G
1965 - Dreyfus argumenta contra a possibilidade da inteligncia artificial. G
1966 - Donald Michie funda o Edinburgh AI lab. G
1968 - O computador "HAL" de Clarke brilha no filme "2001" de Kubrick G
1968 - Tem-se o primeiro PhD em "computer science" (Wexelblat at Univ. of Penn.) G
1968 - Trabalho de Minsky "Semantic Information Processing" G
Nota Histrica sobre IA
file:///E|/downloadbarreto/rna/notahist.htm (1 of 2) [04/12/2000 18:09:13]
1969 - A tese de doutorado de Alan Kay descreve um computador pessoal. G
1969 - Publicao do livro "Perceptrons" de Minsky e Papert mostra as limitaes das redes neurais. G
1972 - T. Kohonen e J. Anderson propem os modelos lineares. G
1974 - lanado o primeiro rob controlado por computador. G
1974 - Trabalho de Minsky "A Framework for Representing Knowledge". G
1974 - estabelecido a rede SUMEX-AIM (aplicaes da IA na medicina). G
1975 - Cooper e Erlbaum encontram Nestor para desenvolver a tecnologia da rede neural. G
1976 - Carpenter e Grossberg propem as redes ART (Adaptive Ressonance Theory). G
1977 - Andersen prope o modelo BSB (brain state in a box). G
1977 -Os computadores "3CPO e R2D2" brilham no filme "Star Wars" G
1978 - Grossberg introduz a ART (Adaptive Ressonance Theory). G
1980 - Produo de sistemas especialistas com milhares de regras G
1981 - Kazuhiro Fuchi anuncia o projeto japons de quinta gerao (Japanese Fifth Generation Project) G
1982 - A publicao "Alvey Report" do governo britnico sobre informao tecnolgica avanada
aumenta o uso da IA (sistemas especialistas) na indstria
G
1982 - John Hopfield ressuscita as redes neurais com seu modelo no linear (Rede de Hopfield). G
1983 - Feigenbaum e McCorduck publicam "The Fifth Generation" G
1985 - Minsky publica "The Society of Mind" G
1986 - Trabalho de McClelland e Rumelhart "Parallel Distributed Processing" apresentando o algoritmo
de retropropagao para redes multi-camadas.
G
1986 - Nielsen prope o paradigma neural de aprendizado denominado de Contrapropagao
(Counterpropagation).
G
1986 - As empresas de Redes Neurais comeam a aparecer. G
1986 - OCR (reconhecimento tico de caracteres) j uma indstria de $100 milhes. G
1987 - Kohonen apresenta seu mapa de caractersticas (rede de Kohonen). G
1987 - Bart Kosko introduzem os modelos das memrias associativas (BAM). G
1988 - Minsky e Papert publicam a edio revisada do livro "Perceptrons". G
1990 - Fukushima apresenta seu Neocognitron. G
1992 - Termina o projeto japons de quinta gerao. G
1992 - Inicia-se o projeto japons "Real World Computing". G
De 1993 a 2000 - ser atualizada posteriormente. G
Nota Histrica sobre IA
file:///E|/downloadbarreto/rna/notahist.htm (2 of 2) [04/12/2000 18:09:13]
Inspirao Biolgica
As redes neurais artificiais tm sua inspirao biolgica originada de um neurnio tpico, formado basicamente
por dendritos, o corpo celular e os axnios, que junto com outros neurnios podem ter vrias combinaes
com as mais variadas topologias. A idia bsica sumarizada na abordagem Reducionista: reproduzindo-se
com suficiente detalhe a suposta "mquina" biolgica responsvel pelo comportamento inteligente (ou seja , o
crebro), um comportamento inteligente emergir do sistema. Historicamente, os primeiros trabalhos nessa
rea iniciaram-se na dcada de 40 com a Ciberntica. Todavia, somente a partir da dcada de 80 esta
tecnologia tomou impulso para a representao do conhecimento e para o aprendizado de mquina.
Esquema simplificado de um neurnio
Para a compreenso do funcionamento das Redes Neurais Artificiais torna-se necessrio entender o
mecanismo de atuao de sua mais forte inspirao, as Clulas Neurais Naturais, ou seja, do neurnio
biolgico.
A clula composta basicamente de gua, eletrlitos, protenas, lipdios e carbohidratos. Sua configurao
tpica dividida em duas partes: ncleo e citoplasma. Dividindo o meio intracelular do meio extracelular existe
a membrana citoplasmtica.
A membrana citoplasmtica de uma clula nervosa permite o transporte de eletrlitos que modificam o
potencial eltrico entre as partes externas e internas da clula. Esta diferena de potencial provoca um trem de
pulsos de freqncia gerado pela clula nervosa, isto , do neurnio, atravs do axnio para os dendritos de
outras clulas , ante um estmulo de amplitude e durao definida, onde codificada a informao e que
posteriormente decodificada por dendritos.
Sinapses
No interior da membrana h uma alta concentrao de molculas especficas de neurotransmissores. Os
neurotransmissores ficam armazenados em vesculas especiais denominadas de vesculas sinpticas. Quando
a membrana despolarizada, isto , quando o potencial do citoplasma torna-se maior que o potencial de
repouso, os canais da membrana permitem ons como o clcio fluir para dentro da clula, estes ativaro a
liberao dos neuro-transmissores (tal como a acetilcolina) constituindo-se assim a sinapse , que a ligao
entre a terminao axnica e os dendritos e que permite a propagao dos impulsos nervosos de uma clula a
outra. As sinapses podem ser excitatrias ou inibitrias. As sinapses excitatrias cujos neuro-excitadores so
os ons sdio permitem a passagem da informao entre os neurnios e as sinapses inibitrias, cujos
neuro-bloqueadores so os ons potssio, bloqueiam a atividade da clula, impedindo ou dificultando a
passagem da informao.
Resumo da funo de cada elemento componente do neurnio biolgico:
Soma (corpo da clula): o centro dos processos metablicos da clula nervosa, a partir do qual,
projetam-se extenses filamentares, os dendritos e o axnio.
G
Dendritos - cobrem um volume muitas vezes maior do que o prprio corpo celular e formam uma
rvore dendrital, que so "dispositivos de entrada", que conduzem sinais das extremidades para o corpo
G
Inspirao Biolgica
file:///E|/downloadbarreto/rna/inspirao.htm (1 of 2) [04/12/2000 18:09:17]
celular.
Axnio - um dispositivo de sada que transmite um sinal do corpo celular para as extremidades. As
extremidades do axnio so conectadas com dendritos de outros neurnios pelas sinapses.
G
Sinapse - a ligao entre a terminao axnica e os dendritos e que permite a propagao dos
impulsos nervosos de uma clula para outra.
G
Inspirao Biolgica
file:///E|/downloadbarreto/rna/inspirao.htm (2 of 2) [04/12/2000 18:09:17]
CARACTERSTICAS DAS REDES NEURAIS
As Redes Neurais Artificiais (RNA), aqui denominadas apenas de Redes Neurais, no so programadas, elas
aprendem por exemplos. Tipicamente apresentado a uma rede neural um conjunto de treinamento, que
consiste de um grupo de exemplos com os quais a rede pode aprender. Estes exemplos, conhecidos como
padres de treinamento, so representados como vetores e so originados de fontes tais como imagens,
sinais de voz, dados de sensores, movimentos de braos de robs, dados financeiros e informaes de
diagnstico. Devido a este aprendizado por exemplo, elas possuem um grande potencial para construo de
sistemas computacionais que no necessitam ser programados. Isto uma grande vantagem em relao aos
sistemas computacionais tradicionais (mquinas de Von Neumann).
Mquinas deVon Neumann Neurocomputadores (baseados em RNA)
Executa programas Aprende
Executa operaes lgicas Executa operaes no lgicas
Depende do modelo ou do programador Descobre as relaes ou regras dos dados e exemplos
Testa uma hiptese por vez Testa todas as possibilidades em paralelo
As redes neurais so modelos "inspirados biologicamente" e esto muito longe de representar os neurnios
biolgicos naturais. Na verdade, esta inspirao freqentemente muito limitada pois as redes neurais
naturais no so circuitos digitais, no podem ter excitao negativa, no so homogneas, no tem relgio de
sincronizao, os neurnios e sinapses no podem ter dois valores e os circuitos cerebrais no so capazes
de executar clculos recursivos como os modelos artificiais.
As caractersticas gerais das Redes Neurais Artificiais podem ser resumidas como a seguir:
So modelos adaptativos, treinveis; G
Podem representar domnios complexos (no lineares); G
So capazes de generalizao diante de informao incompleta; G
Muitos modelos so robustos; G
So capazes de fazer armazenamento associativo de informaes; G
Processam informaes Espao/temporais; G
Possuem grande paralelismo, o que lhe conferem rapidez de processamento. G
Para informaes complementares consulte (Krose, 1993).
CARACTERSTICAS DAS REDES NEURAIS
file:///E|/downloadbarreto/rna/caracter.htm [04/12/2000 18:09:22]
O que uma Rede Neural ?
As redes neurais so paradigmas importantes para mquinas cognitivas. Elas fazem uma representao
distribuda da informao, na forma de conexes entre um grande nmero de elementos simples (neurnios
artificiais). Todos esses elementos realizam operacionalmente a mesma funo que executar a soma
ponderada de suas entradas e executar uma transformao (linear ou no linear) entre a entrada e a sada do
sistema. Assim as redes neurais so modelos matemticos dos neurnios e suas interconexes em redes e
permitem a representao do processamento da informao dos neurnios biolgicos.
A grande premissa do conexionismo para aplicaes em processamento de informaes e/ou inteligncia
artificial o fato de que se pode analisar um problema de acordo com o funcionamento do crebro humano. O
crebro processa informaes atravs da ativao de uma srie de neurnios biolgicos. Os neurnios por
sua vez, interagem numa rede biolgica atravs da intercomunicao entre seus nveis de ativao.
O sistema, uma vez treinado, capaz de reconhecer a informao aprendida mesmo que esteja incompleta e
difusa. capaz de executar generalizao e associao, tarefas consideradas at pouco, puramente
humanas. Sendo assim pode-se dizer que o paradigma das redes neurais uma tcnica aplicada a
Inteligncia Artificial, inspirada em processos cognitivos, para resoluo de problemas complexos.
O que uma Rede Neural ?
file:///E|/downloadbarreto/rna/oquefaz.htm [04/12/2000 18:09:27]
O Neurnio Artificial
O corpo faz a soma ponderada do produto dos pesos da entrada e uma funo de transferncia aplicada
sobre a funo de ativao para gerar a sada. Os pesos, so a intensidade da fora sinptica e podem ser
fixos ou treinveis implementando as ligaes entre as unidade e a intensidade com que o sinal transmitido
de um neurnio ao outro.
O modelo do neurnio artificial de acordo com (Dayhoff,1992) apresentado a seguir:
Modelo do Neurnio Artificial
Unidade Sigma (Soma)- As entradas depois de multiplicadas pelos pesos, recebem o nome de entradas
ponderadas, ou unidades sigma.
Funo de Transferncia - depois de acumulado o valor somado, o neurnio deve comparar esse valor com
um valor de limiar (um valor estipulado), e atingindo-o, o valor ento passado adiante atravs da sada. A
esse processo chamamos de funo de transferncia. Caso contrrio, se o valor no atinge o limiar, o sinal
no passado adiante. A lgica neural expe, que a intensidade dos sinais de entrada, dispara ou no, o sinal
do neurnio, fazendo com que este estimule o neurnio seguinte. A funo de transferncia define e envia
para fora do neurnio o valor passado pela funo de ativao
Funo de ativao - A funo de ativao antecede a funo de transferncia, e tem por atribuio repassar
o sinal para a sada do neurnio. A funo de ativao uma funo de ordem interna, cuja atribuio fazer
acontecer um nvel de ativao dentro do prprio neurnio, ou seja uma deciso tomada pelo prprio
neurnio sobre o que fazer com o valor resultante do somatrio das entradas ponderadas. Essa deciso ter
efeito restrito ao prprio neurnio. Em modelos simples de redes neurais, a funo de ativao pode ser a
prpria funo soma das entradas ponderadas do neurnio. Em modelos mais complexos, a funo de
ativao possui um processamento atribudo. Esse processamento, pode usar, por exemplo, o valor prvio de
sada como uma entrada para o prprio neurnio (uma auto-excitao). Aps ter sido processado pela funo
de ativao, ento passado pela funo de transferncia que produzir o valor de sada do neurnio.
O Neurnio Artificial
file:///E|/downloadbarreto/rna/oneurnio.htm [04/12/2000 18:09:33]
APRENDIZADO DAS REDES NEURAIS
A propriedade mais importante das Redes Neurais a habilidade de aprender seu ambiente e com isso
melhorar seu desempenho. Isso feito atravs de um processo iterativo de ajustes aplicado a seus pesos, o
treinamento. O aprendizado ocorre quando a rede neural atinge uma soluo generalizada para uma classe de
problemas.
Se uma rede aprende, ela retm conhecimento. O seu conhecimento no est localizado em um endereo de
memria especfico e dessa forma a rede no separa memria de dados armazenados. O conhecimento est
distribudo por toda a rede.
A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos de suas
conexes so ajustados de acordo com os padres apresentados. Em outras palavras, elas aprendem atravs
de exemplos. A rede neural passa por um processo de treinamento a partir de casos reais conhecidos,
adquirindo, a partir da, a sistemtica necessria para executar adequadamente o processamento desejado
dos dados fornecidos. Sendo assim, a rede neural capaz de extrair regras bsicas a partir de dados reais,
diferindo da computao programada, onde necessrio um conjunto de regras pr-fixadas e algoritmos.
Estratgias de aprendizado
Outro fator importante a maneira pela qual uma rede neural se relaciona com o ambiente. Neste contexto,
existem os seguintes paradigmas de aprendizado, encontrados em Barreto (Barreto, 1999):
1) Classificao com base no grau de independncia daquele que aprende:
Aprendizado por decorar - corresponde a aprender sem a preocupao de associar significado ao que
est aprendendo. Exemplo: aprender tabuada. No caso de aprendizado de mquina corresponde a
carregar um programa na mquina a qual no faz nenhuma inferncia sobre o que est no programa
que carregado. No aprendizado conexionista o caso em que se colocam os valores de conexes
sinpticas, os quais foram encontrados anteriormente;
G
Aprendizado por ser contado - o conhecimento apresentado ao computador que deve organizar o
conhecimento para uso futuro e da maneira adequada. Na mquina isto corresponde a programar o
computador com uma linguagem declarativa. Declaraes so feitas e o computador deve ter a
possibilidade de montar as instrues que o faro resolver o problema;
G
Aprendizado por analogia - o computador deve extrair o modo de resolver um problema por analogia
a problemas semelhantes. Na redes neurais isto uma propriedade intrnseca. Com efeito, comum
usar um conjunto de exemplos para treinar uma rede neural. Aps o treinamento pode-se observar que
a rede capaz de resolver de modo satisfatrio problemas parecidos com os que estavam no conjunto
de exemplos de treinamento (esta propriedade denominada de generalizao ou em alguns casos de
interpolao ou extrapolao);
G
Aprendizado por exemplos - estes exemplos podem ser originrios de um "professor" ou do prprio
uso do sistema que neste caso aprende progressivamente.
G
Aprendizado por elaborao e descoberta - Pode ser considerado com o mais alto grau de
independncia por parte do aluno e, de certa forma corresponde ao paradigma do Construtivismo de
Piaget. Embora pouco estudos tem sido feitos, pode-se conjecturar que uma rede contendo uma ou
vrias retroaes, por serem mais prximas da topologia do crtex, poderia levar a um aprendizado
construtivista por parte das redes neurais.
G
2) Classificao do aprendizado segundo a retroao do mundo
Um neurnio considerado adaptativo. Seus pesos sinpticos so modificveis dependendo do algoritmo de
APRENDIZADO DAS REDES NEURAIS
file:///E|/downloadbarreto/rna/aprendiz.htm (1 of 3) [04/12/2000 18:09:38]
aprendizado. Em alguns casos, existe uma espcie de "professor" que supervisiona os valores de sada
relacionados a cada sinal de entrada (aprendizado supervisionado). Em outros casos, o sinal do "professor"
no est disponvel e no h informao de erro que possa ser utilizada para correo dos pesos sinpticos,
assim o neurnio modificar seus pesos baseado somente no sinal de entrada e/ou sada (aprendizado
no-supervisionado).
Aprendizado Supervisionado - No aprendizado supervisionado, a rede neural treinada com o auxlio de um
professor, ou um treinador. Para tanto, a rede dever possuir pares de entrada e sada, ou seja, um conjunto
de entradas e um conjunto com as sadas desejadas para cada entrada. Toda vez que for apresentada rede
uma entrada, dever ser verificado a sada obtida (gerada a partir de clculos efetuados com os pesos que a
rede possui) confere com a sada desejada para quela entrada. Sendo diferente, a rede dever ajustar os
pesos de forma que armazene o conhecimento desejado. Essa iteratividade do treino dever ser repetida com
todo conjunto de treinamento (entradas e sadas), at que a taxa de acerto esteja dentro de uma faixa
considerada satisfatria. Essa forma de aprendizado bem conhecida e tem demonstrado excelentes
resultados em aplicaes reais.
Neste caso, o "professor" indica explicitamente um comportamento bom ou ruim. Por exemplo, seja o caso de
reconhecimento de caracteres e para simplificar, seja reconhecer entre um A e um X. Escolhe-se uma rede
direta, com dois neurnios na camada de sada, uma ou vrias camadas internas e um conjunto de neurnios
na camada de entrada capaz de representar com a preciso desejada a letra em questo. Apresentam-se
estas letras sucessivamente a uma retina artificial constituda de uma matriz de elementos foto-sensveis, cada
um ligado a um neurnio da rede neural artificial direta (feedforward). Observa-se qual dos dois neurnios de
sada est mais excitado. Se for o que se convencionou representar a letra que for apresentada nada deve ser
corrigido, caso contrrio modifica-se os valores das conexes sinpticas no sentido de fazer a sada se
aproximar da desejada. Foi exatamente isto que Rosenblatt fez com o seu Perceptron. Como a cada exemplo
apresentado uma correo introduzida depois de observar a sada da rede, este um caso de aprendizado
supervisionado (Barreto, 1995).
Aprendizado Supervisionado
Aprendizado No Supervisionado (Auto-organizao) - Este tipo de aprendizado tambm conhecido
como aprendizado de auto-supervisionado ou de auto-organizao. Esse aprendizado no requer sadas
desejadas, e por isso conhecido pelo fato de no precisar usar "professores" para seu treinamento. Para o
treinamento da rede, so usados apenas os valores de entrada. A rede trabalha essas entradas e se organiza
de modo que acabe classificando-as usando, para isso, seus prprios critrios. Esse tipo de rede utiliza os
neurnios como classificadores, e os dados de entrada, como elementos para classificao. O processo de
classificao fica por conta da rede neural e o seu algoritmo de aprendizado. A auto-organizao demonstrada
nas redes neurais no-supervisionadas, envolve, o processo de competio e o processo de cooperao entre
neurnios da rede. Muitos pesquisadores tm utilizado esse tipo de rede como detector de caractersticas,
dada a sua capacidade de aprender a discriminar estmulos ocorrendo em partes especialmente diferentes.
Regra Delta
file:///E|/downloadbarreto/rna/regra.htm (1 of 2) [04/12/2000 18:10:06]
Regra Delta
file:///E|/downloadbarreto/rna/regra.htm (2 of 2) [04/12/2000 18:10:06]
Aprendizado Competitivo
No aprendizado competitivo, os neurnios so inibidos por outros neurnios de modo que a competio entre
eles leva apenas um acabar excitado. Assim, enquanto uma rede neural baseada em aprendizado Hebbiano,
vrios neurnios de sada podem estar simultaneamente ativos, no caso do aprendizado competitivo, somente
um neurnio de sada fica ativo a cada vez. Fundamentalmente existem trs elementos que caracterizam o
aprendizado competitivo:
Existe um conjunto de neurnios idnticos, ligados por valores de conexes sinpticas de valores
distribudos de modo aleatrios.
1.
Existe um valor mximo bem definido para ativao dos neurnios. 2.
Existe um mecanismo que permite que os neurnios entrem em competio pelo direito de
permanecerem excitados.
3.
No aprendizado competitivo, entradas possuindo alguma semelhana tendem a excitar o mesmo neurnio na
sada (Barreto, 1999).
Dois modelos de Redes Neurais Artificiais utilizam o aprendizado competitivo: a rede Counterpropagation e a
rede auto-organizvel de Kohonen.
Aprendizado Competitivo
file:///E|/downloadbarreto/rna/compet.htm [04/12/2000 18:10:11]
Aprendizado "o vencedor leva-tudo" WTA ("winner-take-all")
A regra WTA (winner-take-all), isto , o vencedor leva-tudo" usada para anlise de propriedades de
aprendizagem estatstica das entradas.
O aprendizado baseado na premissa de que um dos neurnios de uma camada, tem a mxima resposta
devido a uma entrada qualquer, assim este neurnio considerado vencedor. A seleo do neurnio vencedor
baseada no critrio de mxima ativao entre os tantos neurnios participantes da competio. um
aprendizado no supervisionado, os pesos so inicializados com valores randmicos e corrigidos durante a
aprendizagem.
O aprendizado WTA est relacionado com a aprendizado competitivo e as redes de contra-propagao.
Maiores informaes podem ser obtidas no trabalho de Narendra (Narendra,1990).
Aprendizado WTA
file:///E|/downloadbarreto/rna/wta.htm [04/12/2000 18:10:17]
Al gor i t mo de Ret r opr opaga o (Bac k -pr opagat i on)
A retropropagao (RP) ("back-propagation - BP") pode ser considerada como a generalizao da Regra Delta
para redes diretas com mais de duas camadas. Neste caso, ao menos uma camada de neurnios no est
envolvida com a entrada ou sada e portanto interna rede. Esta camada e suas conexes quando
aprendem a efetuar uma funo, agem como se houvesse uma representao interna da soluo do
problema. A RP aplicvel a redes com neurnios tendo funo de ativao diferencivel, mas pode tambm
ser usadas no caso de redes com ciclos.
O algoritmo de retropropagao foi desenvolvido por Paul Werbos em 1974 e redescoberto
independentemente por Parker (1982) e Rumelhart (1986). Desde sua redescoberta, ele tem sido muito
utilizado como um algoritmo de aprendizado para as redes diretas e mltiplas camadas. A RP uma regra de
aprendizado supervisionado. Apresenta-se rede um exemplo e verifica-se a sada da rede, sada esta que
comparada sada esperada dando um erro. Calcula-se o gradiente deste erro com relao aos valores
sinpticos da camada de sada que atualizada por um passo escolhido, na direo da diminuio deste erro,
podendo-se ento calcular o erro da sada da penltima camada, e assim por diante, propagando para trs o
erro (origem do termo "backpropagation") por todas as camadas de conexes. A seguir apresenta-se mais um
exemplo (pode ser o mesmo repetido) e continua-se o processo. O processo de reduo gradativa do erro,
que acompanha a minimizao, denomina-se convergncia. medida que a rede aprende, o valor do erro
converge para um valor estvel, normalmente irredutvel. O processo de aprendizagem prossegue, at que
algum critrio seja estabelecido, como por exemplo, um valor mnimo global, ou uma diferena sucessiva
mnima entre erros calculados para cada iterao (Barreto, 1999).
A retropropagao tem passos "forward" (para frente) e "backward" (para trs). Estes passos so feitos para
cada apresentao, durante o treinamento da rede, visando o ajuste dos pesos e a minimizao do erro, entre
a sada que a rede oferece (com ajuste de seus parmetros) e a sada que se deseja obter.
O passo forward comea com a apresentao de cada padro de entrada para cada elemento de entrada da
rede e continua com os clculos do nvel de ativao propagando para frente atravs das unidades das
camadas escondidas. Nas camadas sucessivas, soma as entradas a cada elemento de processamento e
ento aplica uma funo linear que poder ser a funo sigmode para computar sua sada. As unidades da
camada de sada produzem a sada da rede.
O passo backward comea com a comparao dos padres de sada com o vetor de sada e quando h
diferena, o erro calculado. O passo backward calcula os valores de erro para as unidades escondidas e
troca seus pesos, comeando com a camada de sada e movendo para trs atravs das sucessivas camadas
intermedirias e continua corrigindo os pesos de maneira a decrescer o erro (Azevedo,1995).
O esquema abaixo ilustra uma configurao tpica de uma rede com algoritmo back-propagation.
Algoritmo de Retropropagao
file:///E|/downloadbarreto/rna/backprop.htm (1 of 2) [04/12/2000 18:10:22]
O poder da retroprogao est na habilidade de encandear camadas escondidas (alguns denominam de
ocultas), isto , quando duas ou mais camadas de pesos so ajustadas, a rede tem camadas no meio -
escondidas - e cada camada escondida age como uma camada detectora de caracterstica, que responde a
caractersticas especficas do padro de entrada. Sendo assim, conhecendo as caractersticas do padro a
rede pode identificar caractersticas efetivas automaticamente (Azevedo, 1995).
O aprendizado de retropropagao tem como principal finalidade encontrar o ponto de erro mnimo, mas
muitas vezes a superfcie de erro pode conter pontos de erro mnimo local que no representa o melhor ponto,
o chamado erro mnimo global.
Algoritmo de Retropropagao
file:///E|/downloadbarreto/rna/backprop.htm (2 of 2) [04/12/2000 18:10:22]
TOPOLOGIAS DAS REDES NEURAIS
Segundo Barreto (Barreto, 1999), qualquer dgrafo (grafo dirigido) pode dar lugar a uma topologia de RNA.
Entretanto, algumas topologias particulares receberam maior ateno dos pesquisadores e so conhecidas
com nomes especficos. Aqui so mostradas apenas as das redes abordadas no escopo deste trabalho:
Redes Neurais Diretas
As redes diretas ("feedforward") so aquelas cujo grafo no tem ciclos. Freqentemente comum representar
estas redes em camadas e neste caso so chamadas redes em camadas. Nesta topologia, os neurnios que
recebem sinais de excitao so chamados de camada de entrada, ou primeira camada. Os neurnios que
tem sua sada como sada da rede pertencem a camada de sada, ou ltima camada (Barreto,1995). Os
neurnios que no pertencem nem a camada de entrada nem a de sada so neurnios internos rede e
pertencem a uma ou mais camadas internas, tambm chamadas de camadas intermedirias ou camadas
escondidas ("hidden layers"). Alguns autores tambm chamam estas camadas de ocultas.
A figura extrada de (Barreto, 1999) ilustra uma rede direta com quatro camadas onde as conexes sinpticas
so representadas apenas por setas.
A figura a seguir mostra um diagrama simplificado da BAM encontrada em Narendra (Narendra, 1990).
Redes BAM
file:///E|/downloadbarreto/rna/redesbam.htm (1 of 2) [04/12/2000 19:59:10]
As camadas A e B operam de modo alternativo - primeiro transferindo os sinais de sada dos neurnios em um
sentido utilizando a matriz W e em outro utilizando a matriz W transposta o que lhe confere a habilidade de
aprendizado "on-line".
Redes BAM
file:///E|/downloadbarreto/rna/redesbam.htm (2 of 2) [04/12/2000 19:59:10]
Redes de Contra-propagao
A rede de Contra-propagao (Counterpropagation) foi proposta por Robert Nielsen em 1987. muito utilizada
em classificao de padres, aproximao de funes, anlise estatstica e aplicaes que requerem
compresso de dados.
A primeira camada funciona com o aprendizado competitivo e a segunda com aprendizado supervisionado.
Segundo Cellier (Cellier apud Barreto, 1999) o mais interessante que este paradigma permite obter valores
das conexes sinpticas de modo algortmico, sem iteraes.
Um vetor de entrada aplicado na camada de entrada, pr-processado e propagado para a camada
intermediria. Na camada intermediria, cada neurnio calcula o seu net (produto escalar de um vetor de
entrada pelo vetor de pesos) e compete com outros neurnios da mesma camada para ver quem tem o maior
valor de net. Apenas a unidade vencedora que manda o seu sinal para os neurnios da camada de sada.
Componentes da CNP
Uma camada de entrada realiza o pr-processamento nos dados de entrada; G
Um neurnio denominado "instar" que representa um "cluster" ou uma "classe" de padres, calculando
o net;
G
Uma camada de instars chamada de "camada competitiva"; G
Uma estrutura conhecida como "outstar", composta por todas as unidades da camada de sada do CPN
e por uma nica unidade da camada escondida.
G
A primeira camada de unidades somente para entrada, a segunda (instar) competitiva - que oculta e com
unidades competitivas e a terceira a camada de sada (outstar) - que tem algoritmo de aprendizado no
supervisionado e no competitiva.
Quando apresentado um padro de entrada rede, as unidades da camada oculta somam suas entradas e
competem para responder ao padro de entrada., somente uma unidade ganha a competio e ativada. Esta
unidade ganhadora representa a categoria de classificao para o padro de entrada.
A figura a seguir mostra a topologia de uma rede counterpropagation, tpica de trs camadas.
Redes de Contra-propagao
file:///E|/downloadbarreto/rna/redesde.htm (1 of 2) [04/12/2000 19:59:16]
Redes de Contra-propagao
file:///E|/downloadbarreto/rna/redesde.htm (2 of 2) [04/12/2000 19:59:16]
Rede de Hopfield
A rede de Hopfield uma rede binria, recursiva, ou seja , todas as sadas de cada unidade realimentam as
entradas de outras unidades na mesma camada.
Esta rede possue uma nica camada de processamento e cada unidade de processamento tem um valor de
atividade , ou "estado" que binrio - com um ou dois valores possveis, usualmente, a entrada um vetor de
" 0 " e " 1" .
Cada entrada no vetor corresponde a um a unidade de processamento individual da rede. Assim , para um
dado momento, o estado da rede representado por um vetor de estado tal como:
U = (u
1
, u
2
, ... u
n
) = (0 0 0 1 1. . .1 1 1 0 0)
Este vetor de estados reflete uma rede de n unidades de processamento, onde o elemento i tem o estado u
i
.
Nesta notao um "1" representa uma unidade de processamento com valor binrio "1" e um " 0 " uma
unidade de processamento com valor binrio "0" . As unidades de processamento so completamente
interconectadas ou seja cada unidade conectada a todas as outras unidades. Cada conexo tem um peso
associado. O peso denotado Tji quando a conexo da unidade j para a unidade i e o contrrio para Tij.
Assim a matriz de conexes simtrica e tem o mesmo valor Tji = Tij .
A figura a seguir mostra uma diagrama de unidades de processamento em uma rede de Hopfield e em
conjunto com um exemplo de "estados" (Hopfield, 1987).
Quando a somatria calculada , a unidade de processamento avalia se a soma maior ou menor do que " 0
" . Se a soma maior do que " 0 " ento a sada da unidade ajustada a " 1 " caso contrrio ajustada a " 0 "
. (Dayhoff, 1992)
A figura ilustra as unidades de processamento binrio de uma Rede de Hopfield:
Rede de Hopfield
file:///E|/downloadbarreto/rna/redede.htm (1 of 4) [04/12/2000 19:59:25]
No processo de atualizao dos pesos de uma rede de Hopfield simtrica, cada neurnio toma a somatria de
pesos de suas entradas de acordo com a equao:
Relaxamento paralelo:
Uma conexo com peso positivo indica que as duas unidades tendem a ativar uma a outra. Uma conexo
negativa permite que a unidade ativa desative uma unidade vizinha.
Rede de Hopfield
file:///E|/downloadbarreto/rna/redede.htm (2 of 4) [04/12/2000 19:59:25]
Uma unidade aleatria escolhida. Se qualquer um dos vizinhos estiver ativo, a unidade computar a soma
dos pesos das conexes com os neurnios vizinhos ativos. Se a soma for positiva, a unidade ficar ativa, caso
contrrio, ficar inativa.
Uma outra unidade aleatria escolhida e o processo se repete at que toda a rede atinja um estado estvel,
isto , at que mais nenhuma unidade possa mudar de estado.
Rede de Hopfield
file:///E|/downloadbarreto/rna/redede.htm (3 of 4) [04/12/2000 19:59:25]
Estados da rede
Dado um estado inicial qualquer, a rede fixa-se em uma das muitas configuraes. O estado estvel no qual
todas as unidades esto inativas s pode ser alcanado se ele tambm for um estado inicial.
Dado qualquer conjunto de pesos e qualquer estado inicial, seu algoritmo de relaxamento paralelo acabar
conduzindo a rede para um estado estvel. No pode haver divergncia nem oscilao.
importante destacar a caracterstica de memria auto-associativa da rede de Hopfield. A rede poder ser
usada como memria acessvel pelo contedo se as ativaes das unidades forem ajustadas para
corresponder a um padro parcial. A rede ento ir para um estado estvel que mais se aproximar do padro
parcial. Se uma unidade falhar (tornando-se ativa ou inativa quando no for o caso) as unidades vizinhas
reajustam-se rapidamente para o estado correto.
Alguns caractersticas da memria:
Representao distribuda: uma memria armazenada como padro de ativao de um conjunto de
elementos de processamento. Memrias podem ser superpostas umas s outras, memrias diferentes
so representadas por padres diferentes, no mesmo conjunto de processamento.
G
Controle distribudo e assncrono: cada elemento de processamento toma decises baseadas
apenas em sua prpria situao local. Todas essas aes locais formam uma soluo global.
G
Memria acessvel pelo contedo: vrios padres podem ser armazenados em uma rede. Para
recuperar um padro, precisa-se apenas especificar uma parte dele. A rede automaticamente encontra
o casamento mais aproximado.
G
Tolerncia a falhas: se alguns elementos de processamento se comportarem mal ou falharem
totalmente, a rede ainda funcionar de modo adequado.
G
Rede de Hopfield
file:///E|/downloadbarreto/rna/redede.htm (4 of 4) [04/12/2000 19:59:25]
Rede de Kohonen
O pioneiro no desenvolvimento da teoria das Redes Competitivas foi Teuvo Kohonen, e por esta razo os
neurnios de uma rede competitiva so muitas vezes chamados de neurnios de Kohonen. Do mesmo modo,
as redes auto-organizveis so tambm conhecidas como Redes de Kohonen ou Mapas topolgicos de
caractersticas auto-organizativas, nos quais a caracterstica do objeto a ser mapeado preservado.
A rede de Kohonen uma estrutura de duas camadas de neurnios. A primeira camada a de Entrada e seus
neurnios esto completamente interconectados aos neurnios da segunda camada - denominada competitiva
- que organizada numa grade bi-dimensional ou em um arranjo dependente do objeto a ser mapeado
(Kohonen, 1987).
Quando padres de aprendizado so apresentados rede, os pesos das unidades so adaptados de maneira
a preservar a topologia do objeto.
A figura a seguir ilustra esta estrutura bsica onde mapeado o caracter " C ":
Um estudo da aplicao na rea biomdica utilizando uma rede de Kohonen proposta por (Azevedo e
Barreto,1994). Este trabalho descreve o desenvolvimento e testes preliminares de um mtodo de anlise da
dinmica de parmetros extrados de sinais eletroencefalogrficos de estados do sono e reconhecimento de
padres utilizando uma topologia de Kohonen. Segundo os autores a vantagem do uso da Rede de Kohonen
para o processamento de sinais biolgicos devido sua tolerncia em lidar com rudos, dados incompletos e
contraditrios, extraindo e reconhecendo padres e caractersticas intrnsecas de fenmenos biolgicos.
Numa rede CPN, a camada competitiva organizada segundo o esquema de "excitao central - inibio
lateral", isto os neurnios excitam a si mesmos e procuram inibir os outros neurnios para que, no equilbrio,
aquele neurnio que possua a maior sada, vena a competio e sada dos outros reduza a zero. Na rede de
Kohonen, durante o processo de treinamento, a realimentao positiva atinge no s o prprio neurnio, como
tambm a uma vizinhana finita em torno do neurnio.
Na rede CPN, apenas ao neurnio vencedor, isto , aqueles cujos pesos melhor representam o vetor de
entrada dada a chance de "aprender" , ou seja, de modificar os seus pesos na mesma direo do vetor de
entrada. Na rede de Kohonen, durante o processo de treinamento, todos os neurnios que recebem sinais
excitatrios do neurnio vencedor tambm tem seus pesos modificados, participando assim do processo de
"aprendizado". Estes sinais excitatrios so propagados atravs das conexes laterais.
Interaes laterais da Rede de Kohonen
Um neurnio no centro, mais fortemente excitado, excita lateralmente uma pequena vizinhana com
realimentaes positivas. medida que a distncia lateral do neurnio central aumenta, a excitao decresce
at que vira uma inibio.
Treinamento da rede de Kohonen
Rede de Kohonen
file:///E|/downloadbarreto/rna/kohonen.htm (1 of 2) [04/12/2000 19:59:38]
O treinamento da rede se faz segundo o seguinte algoritmo (segundo Barreto, 1999):
Atribuir valores aleatrios aos pesos das conexes entre os neurnios de entrada e com os da camada
de Kohonen;
G
Aplicar uma entrada. Como conseqncia alguns neurnios ficaro mais excitados que outros. Devido
s conexes inibitrias, um neurnio excitado far com que os que se encontram perto dele, ou a ele
diretamente ligados, sejam inibidos;
G
Reforar as conexes para o neurnio que ficou mais excitado; G
Repetir. G
Intuitivamente, pode-se concluir que medida que o algoritmo avana, a aplicao de entradas semelhantes
reforaro cada vez mais uma certa configurao de neurnios excitados. Entradas diferentes, se aplicadas
desde o incio do processo de aprendizado provocaro neurnios diferentes da camada de Kohonen,
excitados. Generalizando, pode-se dizer que para cada tipo de entrada se estabelecer uma configurao de
neurnios excitados. Entradas semelhantes provocaro configuraes semelhantes, e sero estas
configuraes que iro permitir classificar entradas.
Rede de Kohonen
file:///E|/downloadbarreto/rna/kohonen.htm (2 of 2) [04/12/2000 19:59:38]
ALGUMAS APLICAES DAS REDES NEURAIS
Para desenvolver aplicaes, de modo genrico, utilizando redes neurais, geralmente so necessrios os
seguintes passos:
Coleta de dados a serem utilizados pela rede; 1.
Separao dos dados em conjunto de treinamento e conjunto de testes; 2.
Configurao da rede (escolha do paradigma neural apropriado, determinao da topologia e
determinao dos algoritmos de treinamento e funes de ativao);
3.
Treinamento (inicializao da rede, modo de treinamento e tempo de treinamento); 4.
Teste da rede (utilizando o conjunto de testes separado no passo 2); 5.
Integrao (a rede estando treinada e avaliada pode ser integrada no sistema do ambiente operacional
da aplicao);
6.
Implementao. 7.
A ttulo de ilustrao so mencionadas algumas aplicaes das redes neurais. Maiores informaes devem ser
procuradas na literatura especializada.
Biomedicina
Tm sido apresentado um grande nmero de aplicaes dos sistemas conexionistas. Devido ao fato destes
sistemas possurem propriedades como memrias associativas, processamento paralelo distribudo e
aprendizado, isto tem favorecido a uma larga variedade de tarefas envolvendo classificao e reconhecimento
de padres. Muitos trabalhos tem sido encontrados em aplicaes no processamento e interpretao de
imagens e sinais biolgicos e em sistemas de suporte a deciso mdica.
Aplicadas s mais diversas reas dentro da Biologia, das Neurocincias e Medicina muitos modelos de Redes
Neurais tem sido propostos para:
Processamento de sinais biolgicos - anlise de sinais de eletrocardiogramas, eletromiogramas,
eletroencefalograma entre outros;
G
Processamento de imagens mdicas e biolgicas - radiografia digital, tomografia computadorizada,
cintilografia, ultrasons e microscopia;
G
Sistemas de deciso mdica - representao do conhecimento mdico em sistemas especialistas em
diagnose mdica e terapia na neurofisiologia, oftalmologia, endocrinologia, cardiologia,
gastroenterologia, dermatologia, neonatalogia, cirurgia, ortopedia, anestesiologia, oncologia, radiologia,
patologia clnica, enfermagem e medicina alternativa;
G
Tcnicas computacionais na Biologia Molecular e Gentica - comparao de sequncias de cidos
nucleicos, classificao de cromossomos e genes, entre muitos outros trabalhos.
G
Neurocomputadores
Os Neurocomputadores so computadores que "simulam" o processamento de informao humana, com uma
arquitetura baseada na abstrao do princpio computacional do crebro. Os neurocomputadores devem ter
capacidade de possuir aprendizado por experincia, habilidade de relembrar e recuperar informaes parciais,
capacidade de reconhecimento e raciocnio. O processador deste tipo de computador deve ser uma pastilha
de rede neural que pode ser implementado analgica, digital ou oticamente. Muitos estudos tem sido feitos
para torn-los comerciais e diminuir seus problemas de implementao.
Sistemas Especialistas
De uma maneira geral, pode-se definir funcionalmente um sistema especialista como um programa que
funciona num determinado sistema de computao e que procura ter um desempenho em um campo bem
definido como a de um especialista humano num campo de domnio bem definido. (Barreto, 1994).
ALGUMAS APLICAES DAS REDES NEURAIS
file:///E|/downloadbarreto/rna/algumas.htm (1 of 2) [04/12/2000 19:59:50]
O conexionismo das redes pode ser usado como bases de conhecimento de sistemas especialistas
principalmente em problemas de classificao. O trabalho de F. M. Azevedo et al (em AINN'91) prope dois
mtodos para a implementao de um sistema especialista. Um mtodo utilizando uma arquitetura de rede
direta ("feedforward) com um algoritmo de aprendizado de retropropagao ("backpropagation") e outro
mtodo baseado em memrias associativas. Estes mtodos so aplicados a um problema de diagnose mdica
onde o conhecimento mdico de vrios sintomas de doenas e casos associados, so as bases de
conhecimento para um sistema especialista conexionista. Maiores informaes podem ser encontradas em
(Gallant, 1988).
Controle Neural
O Controle Neural utiliza Redes Neurais em problemas de controle. Muitos trabalhos tm sido feitos nesta
rea, vrios paradigmas tem surgido com vrios tipos de modelos de controladores, aproximadores,
identificadores e controle adaptativo nas mais diversas topologias de controle aplicado aos mais diversos
campos.
As Redes Neurais so consideradas como sistemas dinmicos, pois s vezes os modelos de controle clssico
so considerados complexos demais para serem modelados matematicamente, neste caso o uso das Redes
Neurais permite a modelagem da planta a ser controlada e do controlador em um problema de controle. Mais
informaes podem ser obtidas em (Narendra, 1990).
As Redes Neurais so importantes pois tratam com sistemas no lineares e processam naturalmente em
sistemas com muitas entradas e sadas.
Azevedo e Barreto (1992) apresentaram por exemplo, um modelo de controlador de braos de um rob
utilizando uma rede neural com topologia feeedforward e algoritmo de aprendizado back-propagation.
ALGUMAS APLICAES DAS REDES NEURAIS
file:///E|/downloadbarreto/rna/algumas.htm (2 of 2) [04/12/2000 19:59:50]
BIBLIOGRAFIA
(Algarve, 1994) Algarve, Almoraci S. Algoritmos Genticos - Reviso da Teoria e Exemplo Didtico Simples -
GPEB - UFSC, 1994.
(Azevedo, 1995) Azevedo Fernando M. - Notas de Aulas da disciplina "Redes Neurais por Software"- Curso
de Mestrado em Engenharia Biomdica - GPEB-DEE, Universidade Federal de Santa Catarina - UFSC, 1995.
(Azevedo,1992) Azevedo, Fernando Mendes & Barreto, Jorge Muniz - "IMC Scheme using Neural Networks
for Robot Arm" - Mini and Microcomputers in Medicine and Healthcare, p. 891-896, 1992.
(Azevedo, 1994) Azevedo, Fernando Mendes & Barreto, Jorge Muniz - "Automatic Detection of Sleep-waking
states using Kohonen Neural Networks" - 1 Congresso Brasileiro de Redes Neurais, Escola Federal de
Engenharia de Itajub, 1994.
(Azevedo, 1993) Azevedo, Fernando Mendes - "Connectionist Networks:Insight towards a more operational
Technology" - Artificial Intelligence in Medicine, p. 65-69, 1993.
(Barreto, 1993) Barreto, Jorge Muniz - "Neural Networks Theorical Foundations and Applications", Curso
apresentado na UFSC-DEE-GPEB, 1993.
(Barreto, 1991) Barreto, Jorge Muniz et al. - "A Neural Network Approach for Medical Diagnosis"- Proceedings
of the ISMM International Conference, Califrnia, USA, p. 78-81, 1991.
(Barreto, 1991) Barreto, Jorge Muniz - "Associative Memories in Medical Diagnostic" - 10th. International
Congress on Medical Informatics, Viena, Astria, 1991.
(Barreto, 1995) Barreto, Jorge Muniz - "Redes Neurais - Fundamentos e Aplicaes" 2
o.
Simpsio Brasileiro
de Automao Inteligente, CEFET-PR, 1995.
(Barreto, 1996) Barreto, Jorge Muniz - "Conexionismo e a Resoluo de Problemas" - Trabalho apresentado
no Concurso Pblico de Prof. Titular - Departamento de Informtica e Estatstica - Centro Tcnico e Cientfico -
UFSC, 1996.
(Barreto, 1997) Barreto, Jorge Muniz. Inteligncia Artificial no Limiar do Sculo XXI, 1a. Ed., Florianpolis:
Duplic Edies, 1997.
(Barreto, 1999) Barreto, Jorge Muniz. Inteligncia Artificial no Limiar do Sculo XXI, 2a. Ed., Florianpolis:
Duplic Edies, 1999.
(Dasdan, 1995) Dasdan, Ali & Oflazer, Kemal - "Genetic Synthesis of Unsupervised Learning Algorithms" -
Department of Computer Engineering and Information Science, Bilkent University, Ankara, Turquia, 1995.
(Dayhoff,1992) Dayhoff, Judith E., Neural Networks Architectures, New York: Van Nostrand Reinhold,1992.
(Denis, 1991) Denis, Fernando A.R.M. - "O Modelo Conexionista Evolutivo" - IBM Brasil, Centro Cientfico Rio
- Relatrio Tcnico CCR-128, set., 1991.
(Grossberg, 1988) Grossberg, S. - Neural Networks and Natural Intelligence, Cambridge: MIT Press, 1988.
(Gallant, 1988) Gallant, Stephen - "Connectionist Expert Systems", Communications of ACM, vol.31, no. 2,
february, 1988.
(Hopfield, 1987) Hopfield, J.J. - "Neural Networks and Physical Systems with emergent collective
computational abilities" - Proc. of the National Academy of Sciences, n.79, p.2554-2558, 1987.
(Kohonen, 1987) Kohonen, T. - Self-Organization and Associative Memory, Berlin: Springler-Verlarg, 1987.
BIBLIOGRAFIA
file:///E|/downloadbarreto/rna/bibliogr.htm (1 of 2) [04/12/2000 19:59:58]
(Kosko, 1988) Kosko, B. Bidirectional associative memories. IEEE Trans. on Systems, Man and Cybernetics,
vol. 18, no. 1, 1988.
(Kovcs, 1996) Kovcs, Z.L. - Redes Neurais Artificiais - Fundamentos e Aplicaes, So Paulo: Edio
Acadmica, 1996.
(Krose, 1993) Krose, Ben J. A & Van der Smagt, P. Patrick - An Introduction to Neural Networks, Amsterdan:
The Netherlands, 1993.
(Lippman, 1987) Lippman, R. - "An Introduction To Computing With Neural Networks" - IEEE-ASSP Magazine,
abril, 1987.
(Lawrence, 1990) Lawrence, Jeanette J. - "Untanling Neural Nets", Dr. Dobb's Journal,1990.
(Narendra, 1990) Narendra, K . S. - Neural Networks for Control , Cambrigde: MIT Press, 1990.
(Reilly,1990) Reilly, Douglas L. & Cooper, Leon N. - "An Overview of Neural Networks Early Models to Real
World Systems " - IEEE An Introduction to Neural and Electronic Networks, 1990.
(Rumelhart, 1990) Rumelhart, David E. - " Brain Style Computation Learning and Generation " - IEEE An
Introduction to Neural and Electronic Networks, 1990.
(Russell, 1995) Russel, S. J. and Norvig, P. Artificial Intelligence: a modern approach, London, UK: Prentice
Hal, 1995.
(Widrow,1988) Widrow, Bernard & Winter, Rodney - " Neural Nets for Adaptive Filtering and Adaptive Pattern
Recognition" - IEEE An Introduction to Neural and Eletronic Networks, 1988.
BIBLIOGRAFIA
file:///E|/downloadbarreto/rna/bibliogr.htm (2 of 2) [04/12/2000 19:59:58]
Glossrio
A
aprendem por exemplos: Segundo Dietterich (1983) possvel ter um programa aprendendo por exemplos.
Neste caso, o conhecimento extrado de um conjunto de exemplos escolhidos. Estes exemplos podem vir de
um agente externo rede.
G
generalizao : Normalmente, uma vez que a rede aprendeu um conceito, ela capaz de funcionar com
conceitos similares que no foram aprendidos (Barreto, 1996).
M
mquinas cognitivas: As mquinas cognitivas so aquelas com potencial de aprender. Nestas mquinas
ocorrem os chamados processos cognitivos, que constituem a aquisio de conhecimentos.
T
treinamento : o treinamento o ajuste de pesos das conexes entre os neurnios. O objetivo minimizar o
erro entre a sada da rede e a sada desejada.
treinveis : os modelos ditos "treinveis" so aqueles com habilidade de adaptao ou de aprendizado, cujas
conexes entre as unidades de processamento podem ser fixas ou inicializadas aleatoriamente.
Glossrio
file:///E|/downloadbarreto/rna/glossrio.htm [04/12/2000 20:00:04]
John McCarthy
Nascido em Boston em 1927. Recebeu seu Ph.D. em Matemtica (Princeton,1951).Demonstra interesse em IA
desde 1948. Definiu o termo IA em 1956 no Dartmouth College. Em 1948, inventou a linguagem de
programao LISP e um mtodo de raciocnio no monotnico (circumscription method) em 1978.
Ultimamente, suas principais pesquisas baseiam-se na formalizao de conhecimento de senso-comum e
raciocnio. Um de seus primeiros artigos o "Programs with Common Sense,". Este, provavelmente, o
primeiro trabalho de lgica em IA e mostra a lgica como um mtodo de representao da informao na
memria do computador.
McCarthy em 1995
John McCarthy
file:///E|/downloadbarreto/rna/john.htm [04/12/2000 20:01:04]
Marvin Minsky
Marvin Minsky recebeu seu Ph.D. em Matemtica em Princeton, 1954. Desde os anos 50 trabalha utilizando
modelos computacionais para caracterizao dos processos psicolgicos humanos. Seus trabalhos muito
contribuiram para os avanos tericos e prticos da IAS (Inteligncia Artificial Simblica), cincia cognitiva,
Redes Neurais, teoria das mquinas de Turing e funes recursivas. Foi um dos pioneiros da inteligncia
baseada em dispositivos mecnicos- robticos projetando e construindo os primeiros sensores tteis,
varredores visuais com interfaces computadorizadas.
Em 1951, Minsky construiu um simulador de redes neurais para aprendizado de mquina (denominado
SNARC). Este simulador era baseado no reforo da transmisso sinptica entre os neurnios. Em 1959, ele
fundou junto com McCarthy, o que tornou-se o "MIT Artificial Intelligence Laboratory". Construiu e projetou a
linguagem LOGO. Dentre suas mais influentes publicaes incluem o livro "Perceptrons" (com Papert, 1969).
O primeiro explora as limitaes dos modelos conexionistas e no segundo, "A Framework for Representing
Knowledge" (1975), proposto um modelo de representao do conhecimento, envolvendo "frames".
Em 1985, Minsky publicou "The Society of Mind" propondo uma teoria da mente que teria comeado a
desenvolver nos anos 70 e 80. De acordo com esta teoria, a inteligncia no somente o produto de qualquer
mecanismo singular, mas emerge da interao direcionada de vrias habilidades atuantes.
Foto: David Stork, Marvin Minsky e Murray Campbell cortando o bolo de comemorao do aniversrio de 30
anos do computador HAL do filme "2001: uma odissia no espao". Janeiro de 1997 no MIT Press Bookstore.
(hal.gif)
Marvin Minsky
file:///E|/downloadbarreto/rna/marvin.htm [04/12/2000 20:01:11]
Allen Newell
Nascido em San Francisco e morto em 1992. Graduou-se em Princeton e recebeu seu Ph.D. em
Administrao Industrial no Carnegie Institute of Technology em 1957. Newell foi um matemtico que aplicou a
psicologia cognitiva para projetar sistemas computacionais. Dedicou os ltimos quarenta anos de sua vida,
relacionando a Psicologia Cognitivista e suas implicaes para a Inteligncia Artificial. Outros trabalhos de
Newell focalizaram as diferenas de memria em especialistas e aprendizes. Com Herbert Simon, Newell
props a hiptese dos sistemas fsicos simblicos em 1957. Foi professor na Cincia da Computao da
Carnegie Mellon University. Seu trabalho concentrou-se no SOAR, uma arquitetura para resoluo inteligente
de problemas e aprendizado. Escreveu cerca de 250 publicaes e 10 livros. Entre seus trabalhos mais
conhecidos esto "Elements of Human Problem Solving" (1958) e "GPS: A Program That Simulates Human
Thought" (1963), "Computer Science as Empirical Inquiry" (com Simon, 1976), e "Physical Symbols Systems"
(1980).
Allen Newell
file:///E|/downloadbarreto/rna/allen.htm [04/12/2000 20:01:16]
Herbert Simon
Herbert Simon, nasceu em 1916. Recebeu seu Ph.D em Cincia Poltica na Universidade de Chicago. Sua
tese de doutorado foi sobre processo de deciso nas empresas, mais tarde expandida em Comportamento
Administrativo (1947). Em 1954, Simon e Newell usaram uma linguagem de programao de processamento
de listas no computador para construir teorias simblicas do comportamento humano e leis do pensamento.
Simon e seus colaboradores demonstraram que uma ampla faixa de processos cognitivos podem ser
explicados em termos de processamento da informao e modelados com programas de computador.
Construram e testaram empiricamente uma srie de programas de simulao, sintetizados no trabalho "
Human Problem Solving". Simon participou ativamente de teorias de matemtica econmica e teorias das
organizaes o que lhe valeu o Prmio Nobel de Economia em 1978. Pertenceu a Carnegie-Mellon University
e participou da National Academy of Science, do National Research Council e foi Presidente do Science
Advisory Committee.
Herbert Simon
file:///E|/downloadbarreto/rna/herbert.htm [04/12/2000 20:01:20]
Warren Sturgis McCulloch
Warren Sturgis McCulloch, nascido em Orange (1898) e morto em Detroit (1972), recebeu seu M.D. da
Columbia University's College of Surgeons and Physicians. Talvez seu trabalh o mais conhecido seja "A
Logical Calculus Immanent in Nervous Activity", em co-autoria com Walter Pitts. Este trabalho tornou-se uma
grande contribuio para a teoria das redes neurais, teoria dos autmatas, teoria da computao e ciberntica.
Foto: W.Ross Ashby, Warren McCulloch, Grey Walter, e Norbert Wiener em encontro em Paris (de Latil, P. de:
Thinking By Machine, 1956)
Donald Hebb
file:///E|/downloadbarreto/rna/donald.htm [04/12/2000 20:01:37]
Seymour Papert
Em 1969, Minsky e Seymour Papert publicaram uma edio revisada do livro "Perceptrons". Aps os anos 80,
Papert concentrou suas idias para transformao da educao enquanto Minsky continuou a trabalhar na
suas primeiras teorias. Em 1985, Minsky publicou "The Society of Mind," um livro no qual as idias refletem a
estrutura da teoria em si mesma.
Seymour Papert
Seymour Papert
file:///E|/downloadbarreto/rna/seymour.htm [04/12/2000 20:02:00]
Teuvo Kohonen
Doutor em Engenharia, professor da Academia da Finlndia, do Centro de Pesquisas em Redes Neurais da
Universidade de Helsinki.
Suas reas de pesquisas so: teoria da auto-organizao, memrias associativas, redes neurais e
reconhecimento de padres. Tambm trabalha em projetos para a indstria eletrnica. Desde 1960, Kohonen
introduziu novos conceitos na computao neural com as teorias de memrias associativas distribudas e
mapeamento timo associativo.
Seu trabalho mais divulgado o sistema de reconhecimento de voz por redes neurais. Recebeu vrios
prmios dentre eles "Honorary Prize" da Fundao Emil Altonen (1983), "Cultural Prize" da rede de televiso
MTV (1984), da IEEE Neural Networks Society (1991), IEEE Signal Processing Society (1996).
Teuvo Kohonen
Teuvo Kohonen
file:///E|/downloadbarreto/rna/teuvo.htm [04/12/2000 20:02:06]
David Rumelhart
Rumelhart e McClelland so os primeiros exemplos de psiclogos cognitivos modernos. Seus nomes so
associados com o Processamento Paralelo Distribudo (PDP). Rumelhart obteve seu Ph.D. em Psicologia
Matemtica em Standford, 1967. Foi professor assistente de 1967 a 1987 na UC, em San Diego at tornar-se
Professor de Psicologia na Stanford. Quando este na UCSD foi co-fundador do Instituto de Cincia Cognitiva.
Seu trabalho contribuiu para a emergncia da cincia cognitiva na dcada de 70. Seu livro "Explorations in
Cognition" (1975), em co-autoria com Donald Norman e o LNR Research Group, um trabalho pioneiro neste
campo.
McClelland
Nascido em 1948, Ph.D em Psicologia Cognitiva na University of Pennsylvania em 1975. Foi professor
assistente e associado na Universidade da Califrnia de 1974 a 1984 at se mudar para a Universidade
Carnegie-Mellon em 1984 onde se tornou professor de Psicologia em 1985. A principal contribuio de
McClelland em cooperao com David Rumelhart e o grupo PDP uma "re-introduo" de modelos
computacionais paralelos distribudos das funes mentais para estudos de cincia cognitiva
David Rumelhart
file:///E|/downloadbarreto/rna/david.htm [04/12/2000 20:02:12]
Norbert Wiener
Nascido em 1894 na Columbia e morto em 1964 em Estocolmo na Sucia. Recebeu seu Ph.D. em Filosofia na
Universidade de Harvard University em 1913.
De 1919 a 1960 ocupou posies no Massachusetts Institute of Technology (MIT). Lanou a disciplina
Ciberntica com a publicao de seu livro "Cybernetics" em 1948. Definiu o termo 'cybernetics' como uma
disciplina relacionada com o estudo comparativo de mecanismos de controle no sistema nervoso e
computadores de alta velocidade.
Norbert Wiener:
file:///E|/downloadbarreto/rna/norbert.htm [04/12/2000 20:06:08]