You are on page 1of 102

Universidade Federal do Rio de Janeiro

Escola Politcnica

Departamento de Eletrnica e de Computao

Estudo sobre a empregabilidade da previso do ndice


BOVESPA usando Redes Neurais Artificiais

Autor: ____________________________________
Reginaldo do Carmo Roque

Orientador: ____________________________________
Prof. Flvio Lus de Mello, D.Sc.

Examinador: ____________________________________

Examinador: ____________________________________

DEL

Fevereiro de 2009

-1-
DEDICATRIA

Dedico este trabalho a todas as pessoas que no puderam ter acesso a um ensino
de qualidade neste pas de excluso, de modo que por mrito tivessem acesso a
Universidade.

-2-
AGRADECIMENTOS

A Deus, por ter me dado fora e sabedoria para buscar o meu caminho.
A minha famlia, pelo grande esforo para que eu tivesse uma educao de
qualidade, em especial ao meu irmo Reinaldo pela abertura de portas, pela inspirao e
pelo suporte sempre que precisei.
A minha cunhada Bianca Ramos, pela fora no incio desta caminhada e
novamente no final da mesma.
famlia que me dei: Naiara, Leonardo e Patrick, pela inspirao, pelas alegrias
e por fazerem de mim um ser humano muito melhor.
Aos meus grandes amigos Diego Braga, Leandro Vieira, Junior Nogueira e Luiz
Henrique Bensin, por serem meus amigos, na concepo mxima que este termo pode
ter.
Aos outros amigos que fiz durante o curso pr-vestibular e que tanto me
ajudaram para que eu chegasse a este momento, incluindo professores e colegas de
turma.
Mariana, por ser tudo o que .
Dyamilla, pela amizade genuna e verdadeira, apesar da distncia.
Marcela Trindade, minha primeira chefe, pela delicadeza e pelo incentivo
constante.
Aos amigos e colegas do curso de Engenharia, que compartilharam comigo as
alegrias e as tristezas deste perodo, representados aqui por: Suzana Cndida, Roberto
Ildio, Luiz Felipe Aquino, Luiz Henrique Pereira, Augusto Proena, Gustavo Pereira,
Gustavo Bergter, Luiz Carlos Monteso, Cludio Rogel, Diogo Barros, Diogo Profeta,
Felipe Santana, Pedro Salazar, Rafael Rosa, Melk, Rafael Costa, Jonathan Pinto, Rafael
Amaro, Paulo Csar da Costa, Rodrigo Brito, Leonardo Cidade, Thiago Arakaki, Marcos
Magalhes, Rodrigo Semeghini.
Ao Allan Dieguez pela amizade, pacincia e fundamental ajuda no
desenvolvimento deste trabalho.
Ao Professor Flvio Mello, por acreditar na minha capacidade de realizar este
projeto.
E aos amigos que a vida e a violncia me tiraram o prazer de suas companhias.

-3-
Com trabalho, inteligncia e economia s
pobre quem no quer ser rico.

Marqus de Maric

-4-
RESUMO

Este trabalho apresenta um estudo sobre a empregabilidade da previso de


ndices de mercado, em especial o IBOVESPA, usando Redes Neurais Artificiais. Para
isso, um modelo de predio usando Redes Neurais Artificiais foi desenvolvido e
empregado para modelar o perodo de estudo. Por fim, foi feita uma anlise dos
resultados do modelo desenvolvido em relao a sua capacidade de previso.

Palavras-Chave: Redes Neurais, Previso de ndices de mercado, IBOVESPA.

-5-
ABSTRACT

This study presents an attempt to forecast the BOVESPA index. In this way a
prediction model was developed using Neural Networks in order to model the study
periods. At end an analisys of the obtained results was developed regarding its
prediction capacity.

Key-words: Neural Networks, Stock Market Index Forecast, IBOVESPA.

-6-
SUMRIO

Sumrio............................................................................................................................7
SIGLAS...........................................................................................................................11
GLOSSRIO.................................................................................................................. 13
Lista de Tabelas..............................................................................................................15
1 Introduo................................................................................................................ 18
1.1 Tema............................................................................................................................. 18
1.2 Delimitao.................................................................................................................. 18
1.3 Justificativa.................................................................................................................. 18
1.4 Objetivos...................................................................................................................... 19
1.5 Metodologia................................................................................................................. 20
1.6 Descrio...................................................................................................................... 20
2 Fundamentos do mercado financeiro.....................................................................21
2.1 Eficincia de mercado................................................................................................. 21
2.1.1 Formas de eficincia de mercado...........................................................................................22
2.1.2 Testes de eficincia de mercado.............................................................................................23
2.1.2.1 Casos especiais...............................................................................................................24
2.1.2.1.1. Efeito fim-de-semana.............................................................................................24
2.1.2.1.2 Efeito Janeiro..........................................................................................................24
2.1.2.1.3 Splits.......................................................................................................................25
2.2 Mtodos analticos na previso do retorno de aes................................................. 26
2.2.1 Anlise Tcnica......................................................................................................................26
2.2.1.1 Indicadores......................................................................................................................27
2.2.1.1.1 Mdias Mveis........................................................................................................27
2.2.1.1.2 Volume....................................................................................................................28
2.2.1.1.3 Tendncias..............................................................................................................28
2.2.1.1.4 Momento.................................................................................................................28
2.2.1.2 Teoria de Dow................................................................................................................29
2.2.2 Anlise Fundamentalista........................................................................................................ 32
2.2.3 Sries Temporais ...................................................................................................................33
2.2.3.1 Modelos de Box-Jenkins................................................................................................ 34
2.2.3.2 Modelos neurais de previso.......................................................................................... 35
2.2.4 Teoria do Caos........................................................................................................................35
2.2.5 Outras tcnicas computacionais............................................................................................. 36
2.3 previso do retorno de NDICES DE aes............................................................... 37
2.3.1 Previso do nvel e de direo utilizando redes neurais ........................................................39
2.4 o IBOVESPA............................................................................................................... 40
2.4.1 Metodologia do clculo..........................................................................................................41
2.4.1.1 Participao da ao na carteira terica..........................................................................41
2.4.1.2 Apurao do ndice.........................................................................................................42
2.4.1.3 Alterao da quantidade terica em funo de proventos..............................................43
2.4.1.4 Clculo do Preo Ex-Terico ......................................................................................43
3 As Redes Neurais Artificiais.................................................................................... 45
3.1 Introduo.................................................................................................................... 45

-7-
3.2 O que uma rede neural?........................................................................................... 46
3.3 Crebro humano.......................................................................................................... 47
3.4 Modelos de neurnios.................................................................................................. 49
3.4.1 Modelo de McCulloch-Pitts................................................................................................... 49
3.4.2 Funes de Ativao.............................................................................................................. 51
3.5 O processo de aprendizado......................................................................................... 52
3.5.1 Paradigmas de aprendizado....................................................................................................53
3.5.1.1 Aprendizado supervisionado.......................................................................................... 53
3.5.1.2 Aprendizado no-supervisionado...................................................................................54
3.5.1.3 Aprendizado por reforo.................................................................................................55
3.5.2 Regras de aprendizado............................................................................................................56
3.5.2.1 Regra Delta ou Correo de Erros..................................................................................56
3.5.2.2 Aprendizado Hebbiano...................................................................................................56
3.5.2.3 Aprendizado competitivo............................................................................................... 58
3.6 Algumas Arquiteturas de RNAs................................................................................. 59
3.6.1 Perceptron de camada nica...................................................................................................60
3.6.2 Perceptron Multicamadas.......................................................................................................61
3.6.2.1 Definio de uma topologia ideal para uma rede multicamadas....................................63
3.6.2.2 Treinamento de redes multicamadas.............................................................................. 64
3.6.2.2.1 Back-propagation....................................................................................................64
3.7 Redes Neurais temporais............................................................................................ 65
3.7.1 redes recorrentes.....................................................................................................................66
3.7.1.1 Rede Jordan.................................................................................................................... 67
3.7.1.2 Rede Elman.....................................................................................................................68
3.7.2 Redes com atraso no tempo....................................................................................................68
4 Metodologia..............................................................................................................70
4.1 Introduo ................................................................................................................... 70
4.2 Dados de entrada e sada............................................................................................ 70
4.2.1 Obtendo os dados da srie histrica.......................................................................................70
4.2.2 Variveis de entrada da RN...................................................................................................71
4.2.3 Pr-processamento das Variveis de entrada da RN..............................................................73
4.2.4 Varivel de sada da RN.........................................................................................................74
4.3 A rede neural............................................................................................................... 74
4.3.2 Arquitetura da Rede................................................................................................................74
4.3.3 INICIALIZAO DA REDE................................................................................................78
4.3.4 Treinamento, Validao e teste..............................................................................................79
4. 4 Mtricas para analise dos resultados........................................................................ 81
4.4.1 Clculo da taxa de acerto de direo......................................................................................81
5.1 INTRODUO........................................................................................................... 84
5.1 rede neural com configurao no satisfatria......................................................... 84
5.2 Resultados da Rede neural com configurao satisfatria ...................................... 91
5.2.1 taxa acerto de direo e percentual de acurcia da sada do sistema..................................... 95
5.2.1.2 Taxa de acerto de direo...............................................................................................96
[1] ARMANO, G.; MARCHESI, M.; MURRU, A. A hybrid genetic-neural
architecture for stock indexes forecasting. Information Sciences. v. 170, p. 3-33,
2005. .............................................................................................................................100
[2] HAUGEN, R. A. Modern Investment Theory. Upper Saddle River, New Jersey:
Prentice Hall, 1997. .....................................................................................................100

-8-
[3] JENSEN, M. C. Some anomalous evidence regarding market efficience. Journal
of Financial Economics. v. 6, p. 95-101, 1978. ..........................................................100
[4] FAMA, E. F. Efficient capital markets; a review of theory and empirical work.
Journal of Finance. 1970............................................................................................100
[5] DISORNTETIWAT, P. Global stock index forecasting using multiple generalized
regression neural networks with a gating network. PhD Thesis, University of
Missouri-Rolla, 2001. ..................................................................................................100
[6] COSTA JR, N. C. A. Sazonalidades do IBOVEPA. Revista de Administrao de
Empresas, 1990. ...........................................................................................................100
[7] Desai, H., Jain, P. Long-run common stock returns following splits and reverse
splits. Journal of Business, 1997................................................................................. 100
[8] DAVIDSSON, Marcus. Stock Market Anomalies - A Literature Review and
Estimation of Calendar affects on the S&P 500 index., 2006.................................... 100
[9] LEITE, J. C. Splits: ineficincia no mercado de aes. Revista de Administrao
de Empresas, 1994. ......................................................................................................100
[10] NORONHA, Mrcio. Anlise Tcnica, 2005.......................................................100
[11] DORFFNER, G. Neural Networks for Time Series Processing, Neural Network
World, 1996...................................................................................................................100
[12] Box, Jenkins G. E. Box & G. M. Jenkins, Time Series Analysis: Forecasting and
Control, Holden-Day, San Francisco, CA, 1970.........................................................100
[13] PRUDNCIO, Ricardo Bastos Cavalcante. Projeto hbrido de redes neurais.
Universidade Federal de Pernambuco, 2002.............................................................. 100
[14] Portal Capes. Site: www.portalcapes.com.br.......................................................100
[15] SOUTO-MAIOR, Csar Duarte. Previso da direo de movimento de ndices de
aes usando um sistema fuzzy. 2007..........................................................................100
[16] TEIXEIRA, J. C.; RODRIGUES, A. J. An applied study on recursive estimation
methods, neural networks and forecasting. European Journal of Operational
Research., 1997.............................................................................................................101
[17] GENAY, R. The predictability of security returns with simple technical trading
rules. Journal of Empirical Finance, 1998.................................................................101
[18] YU, S. Forecasting and arbitrage of the Nikkei stock index futures: an
application of backpropagation networks. Asia-Pacific Financial Markets, 1999.. .101
[19] PANDA, C.; NARASIMHAN, V. Predicting stock returns: an experiment of the
artificial neural network in Indian stock market. South Asia Economic Journal,
2006...............................................................................................................................101
[20] GOMES, F.C. Os modelos ARIMA e a abordagem de Box-Jenkins: uma
aplicao na previso do IBOVEPA a curtssimo prazo. Revista de Administrao de
Empresas, 1989.............................................................................................................101
[21] RIBEIRO, T. S.; SILVA, A. L. C. Do artificial neural networks provide better
forecasts? Evidence from latin american stock indexes. In: XXIX Enampad, 2005,
Braslia..........................................................................................................................101

-9-
[22] GRUDNITSKI, G.; OSBURN, L. Forecasting S&P and gold futures prices: an
application of neural networks. Journal of Futures Markets, 1993. ........................ 101
[23] FERNNDEZ-RODRGUEZ, F.; GONZLEZ-MARTEL, C.; SOSVILLA-
RIVERO, S. On the profitability of technical trading rules based on artificial neural
networks: evidence from the Madrid stock market. Economics Letters, 2000...........101
[24] HAYKIN, Simmon Neural Networks A comprehensive foundation. 2nd
Edition, 2005.................................................................................................................101
[25] W.S. McCulloch and W. Pitts. A Logical Calculus of the Ideas Immanent in
Nervous Activity. Bulletin of Mathematical Biophysics, 1943................................... 101
[26] D.O. Hebb's,. The Organization of Behavior. New York, Wiley, 1949...............101
[27] ROSENBLATT, F. (1959). Principles of Neurodynamics. New York: Spartan
Books, 1959...................................................................................................................101
[28] JONES, Edward R. An Introduction to Neural Networks - A White Paper. 2004
.......................................................................................................................................101
[29] G. Cybenko. Approximation by Superpositons of a Sigmoid Function.
Mathematics of Control, Signals and Systems. 1989..................................................101
[30] G. Cybenko. Continuos Valued Neural Network with two Hidden Layers are
Sufficient. Technical Report, Departament of Computer Science, Tufts University,
1988...............................................................................................................................101
[31] HOPFIELD, J. Neural Networks and Physical Systems with Emergent
Collectives Computational Abilities. Proceedings of the National Academy of
Sciences , 1982..............................................................................................................101
[32] JORDAN, M. I. Attractor dynamics and parallelism in a connectionist sequential
machine. In Proceedings of the Eighth Annual Conference of the Cognitive Science
Society, 1986.................................................................................................................102
[33] JORDAN, M. I. Serial OPrder: A Parallel Distributed Processing Approach, San
Diego, La Jolla, CA: Institute for Cognitive Science, University of Califrnia, 1986.
.......................................................................................................................................102
[34] FAUSETT, L. Fundamentals of Neural Networks Architecture, Algorithms,
and Applications. [S.l.]: Prentice Hall International, Inc., 1994...............................102
[35] MELLO, Marlia Terra de. Aplicao de redes neurais no processo de
precificao de aes. Universidade Estadual de Pelotas, 2004.................................102
[36] ZANNETI Jr. Luiz Antonio e ALMEIDA. Fernando C. - Explorao do uso de
redes neurais na previsao do comportamento de ativos financeiros. Faculdade de
Economia Administrao e Contabilidade USP. 1998............................................ 102
[38] LAWRENCE, Ramon. Using Neural Networks to Forecast Stock Market Prices.
University of Manitoba. 1997.......................................................................................102
[39] http://finance.yahoo.com......................................................................................102

- 10 -
SIGLAS

AR Auto Regressive Model

ARIMA Auto Regressive Integrated Moving Average

ARMA Auto Regressive Moving Average

BOVESPA Bolsa de Valores de So Paulo.

Capes Coordenao de Aperfeioamento de Pessoal de Nvel Superior

CATS Computer Assisted Trading System (Sistema de Negociao Eletrnica)

COMIT ndice da Bolsa de Valores de Milo

DJIA Dow Jones Industrial Average Index

IA Inteligncia Artificial

IBOVESPA ndice da Bolsa de Valores de So Paulo.

IGBM ndice General de la Bolsa e Madrid (ndice Geral da Bolsa de Madri)

LAR Linear Auto Regressive

MA Moving Average

MCP McCulloch-Pitts Perceptron (Perceptron de McCulloch-Pitts)

MLP Multilayer Perceptrons (Perceptrons Multicamadas)

NIKKEI 225 Principal ndice econmico da Bolsa de Valores de Tquio.

RNA Redes Naturais Artificiais

RNN Redes Neurais Naturais

S&P 500 Standard Poors

Sensex Bombay Stock Exchange Sensitive Index

- 11 -
SIMEX Singapore International Monetary Exchange

SPOT Sistema Privado de Operaes por Telefone

UFRJ Universidade Federal do Rio de Janeiro

- 12 -
GLOSSRIO

Commodities mercadorias (geralmente matrias-primas ou outros produtos com


pequeno grau de industrializao) negociadas nas bolsas de valores (e.g. soja, arroz, etc).

ndice Dow Jones ou Dow-Jones Industrial Average (DJIA) um dos principais


indicadores do movimento de aes no mercado americano.

Home Broker instrumento que permite a negociao de aes (compra e venda)


via Internet.

After-Market prego eletrnico realizado aps o fechamento do prego normal.

Random Walk Segundo alguns pesquisadores, a propriedade de ajustamento


instantneo das informaes pblicas aos preos das aes em um mercado eficiente
implica na independncia entre variaes de preos sucessivos na seqncia das
negociaes. Um mercado que apresenta tal comportamento , por definio, um
mercado random walk. De acordo com o modelo random walk, uma srie de mudanas
de preos no tem memria e, portanto, a histria passada da srie no pode ser usada
para prever o futuro de uma maneira significativa.

- 13 -
LISTA DE FIGURAS

Figura 2.1 Retorno mdio por meses do ano............................................................. 25


Fonte: http://www.finint.ase.ro/Materiale/Manuale/Investment
%20Valuation_Damodaran/ch6.pdf , cap.6, pag. 45.................................................. 25
Figura 2.2 Tendncias primria no IBOVESPA.......................................................30
Fonte: www.neologica.com.br, acessado em 19/10/2008.............................................30
Figura 2.3 Tipos de artigos encontrados no Portal Capes........................................ 38
Fonte: Souto-Maior [15]. Adaptado..............................................................................38
Figura 2.4 Horizontes de previso..............................................................................38
Fonte: Souto-Maior [15]. Adaptado..............................................................................38
Figura 3.1 Diagrama de blocos da representao do sistema nervoso..................... 47
Fonte: Haykin[24], pg 28. Adaptado........................................................................... 47
Figura 3.2 Componentes de um Neurnio Biolgico................................................48
Fonte: Haykin [24]. pg. 30. Adaptado........................................................................ 48
Figura 3.3 Neurnio de McCulloch-Pitts...................................................................50
Figura 3.4 Algumas funes de ativao...................................................................51
Figura 3.5 Aprendizado Supervisionado....................................................................54
Figura 3.6 Aprendizado No Supervisionado............................................................55
.........................................................................................................................................55
Figura 3.7 Diagrama de blocos de Aprendizado por Reforo...................................55
Fonte: Haykin[24]. Adaptado........................................................................................ 55
Figura 3.9 Rede MLP com camada intermediria.................................................... 62
Fonte: Haykin [24], Extrado........................................................................................ 62
Figura 3.10 Treinamento do algoritmo back-propagation........................................65
Figura 3.11: Exemplo de rede recorrente sem loop e sem camada escondida............66
Fonte: Haykin [24], Extrado........................................................................................ 67
Figura 3.12 Exemplo de Rede Jordan........................................................................67
Fonte: Krose, Smargt [34], Extrado............................................................................. 67
Figura 3.13 Rede Elman.............................................................................................68
Fonte: Krose, Smargt [34], Extrado............................................................................. 68
.........................................................................................................................................69
Figura 3.14 Rede TLFN..............................................................................................69

- 14 -
Fonte: Haykin [24], Extrado........................................................................................ 69
Figura 4.1 Parte da planilha gerada pelo script e utilizada na entrada da RN........71
Figura 4.2 Grfico das variveis de entrada da RN.................................................. 72
Figura 4.3 Grfico da varivel Fechamento..............................................................73
, ...........................................................................................75
Figura 4.4 Grfico da funo tan-sigmoid.................................................................75
Fonte: Matlab, documentao.......................................................................................75
.........................................................................................................................................76
Figura 4.5 Grfico da funo purelin........................................................................ 76
Fonte: Matlab, documentao.......................................................................................76
Tabela 5.1 Parmetros de configurao do 1o conjunto de redes desenvolvido......85
Tabela 5.2 Caractersticas da melhor rede.................................................................85
Figura 5.1 Grfico de sada da rede cujo resultado no foi satisfatrio...................90
Tabela 5.3 Parmetros de configurao do 2 conjunto de RNs...............................91
Tabela 5.4 Caractersticas da melhor rede.................................................................92
Figura 5.2 Grfico de sada da melhor rede.............................................................. 93
Figura 5.3 Grfico de sada da melhor rede com range de 150 dias........................94
Figura 5.4 Grfico do percentual de acurcia da sada do sistema..........................96
Figura 5.5 Grfico do percentual de acertos/erros da tendncia..............................97

LISTA DE TABELAS

Figura 2.1 Retorno mdio por meses do ano............................................................. 25


Fonte: http://www.finint.ase.ro/Materiale/Manuale/Investment
%20Valuation_Damodaran/ch6.pdf , cap.6, pag. 45.................................................. 25
Figura 2.2 Tendncias primria no IBOVESPA.......................................................30
Fonte: www.neologica.com.br, acessado em 19/10/2008.............................................30
Figura 2.3 Tipos de artigos encontrados no Portal Capes........................................ 38
Fonte: Souto-Maior [15]. Adaptado..............................................................................38
Figura 2.4 Horizontes de previso..............................................................................38

- 15 -
Fonte: Souto-Maior [15]. Adaptado..............................................................................38
Figura 3.1 Diagrama de blocos da representao do sistema nervoso..................... 47
Fonte: Haykin[24], pg 28. Adaptado........................................................................... 47
Figura 3.2 Componentes de um Neurnio Biolgico................................................48
Fonte: Haykin [24]. pg. 30. Adaptado........................................................................ 48
Figura 3.3 Neurnio de McCulloch-Pitts...................................................................50
Figura 3.4 Algumas funes de ativao...................................................................51
Figura 3.5 Aprendizado Supervisionado....................................................................54
Figura 3.6 Aprendizado No Supervisionado............................................................55
.........................................................................................................................................55
Figura 3.7 Diagrama de blocos de Aprendizado por Reforo...................................55
Fonte: Haykin[24]. Adaptado........................................................................................ 55
Figura 3.9 Rede MLP com camada intermediria.................................................... 62
Fonte: Haykin [24], Extrado........................................................................................ 62
Figura 3.10 Treinamento do algoritmo back-propagation........................................65
Figura 3.11: Exemplo de rede recorrente sem loop e sem camada escondida............66
Fonte: Haykin [24], Extrado........................................................................................ 67
Figura 3.12 Exemplo de Rede Jordan........................................................................67
Fonte: Krose, Smargt [34], Extrado............................................................................. 67
Figura 3.13 Rede Elman.............................................................................................68
Fonte: Krose, Smargt [34], Extrado............................................................................. 68
.........................................................................................................................................69
Figura 3.14 Rede TLFN..............................................................................................69
Fonte: Haykin [24], Extrado........................................................................................ 69
Figura 4.1 Parte da planilha gerada pelo script e utilizada na entrada da RN........71
Figura 4.2 Grfico das variveis de entrada da RN.................................................. 72
Figura 4.3 Grfico da varivel Fechamento..............................................................73
, ...........................................................................................75
Figura 4.4 Grfico da funo tan-sigmoid.................................................................75
Fonte: Matlab, documentao.......................................................................................75
.........................................................................................................................................76
Figura 4.5 Grfico da funo purelin........................................................................ 76
Fonte: Matlab, documentao.......................................................................................76
Tabela 5.1 Parmetros de configurao do 1o conjunto de redes desenvolvido......85
Tabela 5.2 Caractersticas da melhor rede.................................................................85

- 16 -
Figura 5.1 Grfico de sada da rede cujo resultado no foi satisfatrio...................90
Tabela 5.3 Parmetros de configurao do 2 conjunto de RNs...............................91
Tabela 5.4 Caractersticas da melhor rede.................................................................92
Figura 5.2 Grfico de sada da melhor rede.............................................................. 93
Figura 5.3 Grfico de sada da melhor rede com range de 150 dias........................94
Figura 5.4 Grfico do percentual de acurcia da sada do sistema..........................96
Figura 5.5 Grfico do percentual de acertos/erros da tendncia..............................97

- 17 -
1 INTRODUO

1.1 TEMA

Este trabalho corresponde a um estudo da empregabilidade da previso de ndices


de mercado de capitais, em especial o IBOVESPA, utilizando uma das principais reas
da Inteligncia Artificial: as Redes Neurais Artificiais.

1.2 DELIMITAO

Este projeto destina-se a todos, estudantes ou no, que queiram familiarizar-se


com os alguns conceitos, aplicaes e desdobramentos das Redes Neurais Artificiais.
Apesar de trabalhar dados histricos da BOVESPA, o mtodo desenvolvido neste estudo
pode ser aplicado para outras sries temporais, com algumas adaptaes a depender do
tipo de aplicao.

1.3 JUSTIFICATIVA

H vrias motivaes para se tentar prever o comportamento de aes do


mercado financeiro. A principal delas , obviamente, o lucro ao se negociar tais aes.
Qualquer sistema que possa, de maneira consistente, definir vencedores e perdedores na
dinmica deste mercado, far, certamente, com que seu desenvolvedor ou proprietrio
tenha uma vantagem muito grande sobre os outros jogadores. Pensando nisso, muitos
investidores e pesquisadores, em especial engenheiros e economistas, esto
continuamente buscando por melhores sistemas que possam ajud-los a receber
melhores retornos.

Outra motivao reside no fato de que cada vez mais engenheiros, das mais
variadas habilitaes, esto trabalhando no mercado financeiro. Sejam em bancos,

- 18 -
consultoras ou mesmo por conta prpria, estes profissionais aproveitam o grande
conhecimento matemtico aprendido durante a faculdade e o avano de ferramentas
computacionais para se desenvolverem e progredirem em suas carreiras neste ramo.
Com isso, torna-se cada vez mais necessria a introduo de assuntos ligados a conceitos
e estratgias de investimentos no mercado de renda varivel durante a vida acadmica
destes engenheiros.

Mais uma motivao est na Hiptese do Mercado Eficiente. Segundo esta teoria,
nenhum sistema poderia continuamente ser superior ao mercado, por que, se tal sistema
existisse, de alguma forma ele se tornaria pblico e qualquer individuo poderia utiliz-
lo, fato que diminuiria seu ganho potencial [37]. Esta teoria tem provocado diversos
debates a respeito de sua validade e alguns pesquisadores tm utilizado as Redes Neurais
Artificiais para comprovar suas alegaes.

1.4 OBJETIVOS

A partir do problema e do tema j mencionados, foram determinados objetivos a


serem atingidos nesta pesquisa. Tais objetivos estabeleceram a direo a ser seguida por
este estudo. Desta forma, tem-se primeiramente o objetivo geral, que norteou a pesquisa,
e em seguida os objetivos especficos, que operacionalizaram os propsitos deste estudo.

Constituiu-se como objetivo geral deste trabalho verificar a


empregabilidade da previso do ndice BOVESPA usando Redes Neurais
Artificiais. Para verificar a possibilidade de previso do ndice, foi
definido um perodo de estudo: de 27/06/1997 a 09/05/2008;

Com isso, fizeram-se necessrios os seguintes objetivos especficos:

desenvolvimento de um script para Matlab, com o objetivo de obter os


dados da srie histrica do ndice com mais facilidade;
desenvolvimento de um script para Matlab para implantao da Rede
Neural, incluindo seu treinamento, teste e validao;

- 19 -
verificao da possibilidade de previso estatisticamente significativa do
IBOVESPA no perodo de estudo;

1.5 METODOLOGIA

Neste estudo, as redes neurais so empregadas na previso de sries temporais.


Para isso, foi recolhida, com a ajuda de um script para Matlab, a srie histrica de dados
correspondentes ao perodo de estudo. Estes dados foram usados para treinar, testar e
validar a rede neural. Por fim, foi feita uma anlise dos resultados da previso baseada
na taxa de acertos de direo e no percentual de acertos da sada da rede em relao ao
valor original.

1.6 DESCRIO

No Captulo 2 sero mostrados alguns conceitos sobre o mercado financeiro, tais


como eficincia de mercado, anlise tcnica e anlise fundamentalista.

O Captulo 3 apresenta os conceitos de Redes Neurais, desde o funcionamento do


crebro humano, passando por alguns tipos de aprendizado, at algumas arquiteturas de
redes.

A metodologia empregada no trabalho apresentada no Captulo 4. Nele so


descritos os tipos de dados utilizados, o modelo de rede empregado e as mtricas para
anlise dos resultados.

O Captulo 5 apresenta os resultados finais do estudo e, por fim, o Captulo 6


conclui a pesquisa e apresenta proposta para trabalho futuros.

- 20 -
2 FUNDAMENTOS DO MERCADO
FINANCEIRO

2.1 EFICINCIA DE MERCADO

De acordo com a Hiptese de Mercado Eficiente, todos os mercados so


eficientes em descobrir oportunidades de lucro to rapidamente, que elas, na verdade,
deixam de ser oportunidades. Um mercado dito eficiente se os preos deste mercado
refletem todas as informaes disponveis.

A Hiptese de Mercado Eficiente - tal qual a teoria do Random Walk ,


segundo Haugen [2], na verdade, um modelo de como o mercado se comporta. Como
qualquer modelo, ele se aplica a determinados casos e a outros no.

Suponha que algum tenha ouvido que determinada empresa obteve lucro acima
do esperado por seus analistas. Neste momento, seria normal de se esperar que tal
indivduo se apressasse em comprar aes desta empresa. Porm, tal cidado se
surpreenderia ao saber que o preo da ao por ele desejada j teria sofrido uma
valorizao substancial desde o fechamento do dia anterior. De acordo com a Hiptese
de Mercado Eficiente, qualquer informao que seja suficientemente importante na
tomada de decises j foi incorporada ao mercado nos preos e intil tentar prever o
comportamento futuro das aes.

De acordo com Armano, Marchesi e Murru [1], o preo de uma ao reflete


diretamente, em qualquer tempo, as informaes que os investidores possuem. Ou seja,
assim que uma informao nova processada, o preo da ao alterado.

Segundo Haugen [2], no necessrio que haja um consenso entre todos os


investidores para a definio de preos, e sim pelos investidores que negociam mais
ativamente no mercado.

Jensen [3] definiu como mercado eficiente aquele que, baseado em todas as
informaes disponveis, fosse incapaz de ser derrotado, ou seja, fosse impossvel de
se obter rendimentos superiores aos rendimentos mdios do mercado.

- 21 -
2.1.1 FORMAS DE EFICINCIA DE MERCADO

Entre 1965 e 1970 muitos testes empricos foram realizados sobre o


comportamento dos preos das aes. Um dos trabalhos mais importantes desta poca
foi o de Fama [4], intitulado "Efficient capital markets: A review of theory and empirical
work. Nele, Fama definiu trs formas de eficincia de mercado:
Eficincia de mercado da forma fraca: os preos das aes refletem
todas e quaisquer informaes contidas nos histricos dos preos e
volumes j negociados. essencialmente a hiptese de Random Walk,
porm sem uma total caracterizao do processo estocstico que
descreve o comportamento dos preos e volumes. Nesta forma de
eficincia, torna-se impossvel vencer o mercado com base no histrico
das aes, pois os preos j teriam sido ajustados por analistas que
tentaram prever tal comportamento;
Eficincia de mercado da forma semiforte: os preos das aes refletem
todas as informaes disponveis aos investidores histrico de preos,
notcias econmicas, relatrios contbeis, dados de ganhos, etc. Desta
forma, no possvel vencer o mercado com base na anlise de tais
informaes publicas, pois outros analistas j fizeram isto e os preos j
foram reajustados;
Eficincia de mercado da forma forte: os preos refletem todas as
informaes pblicas e sigilosas. Informaes sigilosas so aquelas que
ainda no foram publicadas, porm possuem a capacidade de influenciar
o mercado. Desta forma, no possvel vencer o mercado com base na
anlise de informaes, sejam elas pblicas ou sigilosas, pois outros
analistas que tambm possuam estas informaes j as utilizaram e os
preos j foram reajustados.

importante salientar que em um mercado eficiente os preos podem sofrer


desvios dos seus valores reais. Segundo esta teoria, tais desvios seriam aleatrios.
Tambm de acordo com esta teoria, o retorno esperado de cada investimento ser, de
alguma forma, proporcional ao risco que este oferece a longo prazo. Entretanto, estes
mesmos retornos podem sofrer desvios a curto prazo.

- 22 -
2.1.2 TESTES DE EFICINCIA DE MERCADO

Segundo Disorntetiwat [4], a teoria de mercado eficiente implica diretamente no


conhecimento do modelo Random Walk. De acordo com este modelo, os preos das
aes no se comportam de maneira previsvel e sim de maneira aleatria. Por isso, a
melhor expectativa de preos para o perodo seguinte o prprio perodo atual.

Testes de eficincia de mercado so empregados de forma a examinar quais


estratgias de investimentos produzem maiores retornos. Alguns testes tambm avaliam
os custos de transaes e de provveis execues. Sabendo que o retorno esperado de
um investimento a diferena entre o valor atual e o valor esperado, h implicitamente
em todo teste de mercado eficiente um modelo para o retorno esperado. Em alguns
casos, este retorno advm do risco do investimento, em outros baseado no retorno de
investimentos similares ou equivalentes. Nos dois casos, um teste de eficincia de
mercado a juno deste com o teste de eficincia do modelo usado para calcular o
retorno esperado.

Desde a dcada de 1970, vrios estudos tm sido feitos para tentar refutar o
modelo de Random Walk. Neste contexto, os testes de Fama serviram apenas para
reforar a idia de mercado eficiente.

Outros pesquisadores apresentaram evidncias do contrrio. Um ramo de


pesquisas denominado Finanas Comportamentais tem tentado mostrar que, com base
em observaes comportamentais do mercado, os preos no variam de forma to
aleatria quanto a Teoria do Mercado Eficiente defende, e que eles seguem o princpio
de retorno mdia, alm de serem fortemente influenciadas pela subjetividade do
comportamento humano.

De acordo com Costa Jr. [6], devido ao recente desenvolvimento dos


computadores e banco de dados mais elaborados, vrios estudos comearam a mostrar
certas anomalias a respeito do comportamento dos retornos de ativos financeiros, antes
no notadas. Estas anomalias, segundo tais estudos, vo de encontro s hipteses de
eficincia de mercado.

- 23 -
2.1.2.1 Casos especiais

Estudos de eficincia de mercado tm descoberto inmeros exemplos de


comportamentos de mercado que so inconsistentes com os modelos de risco e retorno.
A persistncia de algumas dessas anomalias sugere que o problema, ou pelo menos parte
dele, est muito mais nos modelos de risco e retorno do que no prprio comportamento
do mercado financeiro. As sees seguintes mostram algumas dessas anomalias
encontradas em mercados financeiros pelo mundo.

2.1.2.1.1. Efeito fim-de-semana

O efeito fim-de-semana um fenmeno encontrado em inmeros mercados


internacionais. Ele consiste nas diferenas de retorno entre segundas-feiras e os outros
dias da semana. Muitas pesquisas mostram que os retornos desses dias so
significantemente menores que os do resto da semana.

Este fenmeno pode ser explicado, em parte, pela desigual divulgao de notcias
durante a semana. Evidncias mostram que h uma tendncia de se divulgar boas
notcias uniformemente durante toda a semana e guardar as ms para o final de semana.
Outra explicao est nos investidores com pouca experincia. Estes, durante o fim-de-
semana, fariam anlises errneas e, na segunda-feira, investimentos equivocados.

2.1.2.1.2 Efeito Janeiro

Estudos tm revelado que, nos Estados Unidos e em outros grandes centros


financeiros do mundo, existem grandes diferenas com relao ao comportamento dos
retornos durante os meses do ano.

De acordo com tais estudos, retornos em Janeiro so significantemente maiores


que em outros meses do ano. Este fenmeno, chamado de Efeito Janeiro ou Efeito Fim
de ano, pode ser melhor visto nas duas primeiras semanas do ms de Janeiro.

A figura 2.1 mostra o retorno mdio por ms durante os anos de 1926 e 1983.

- 24 -
Figura 2.1 Retorno mdio por meses do ano.
Fonte: http://www.finint.ase.ro/Materiale/Manuale/Investment%20Valuation_Damodaran/ch6.pdf ,
cap.6, pag. 45.

Uma das explicaes para este fenmeno est na tentativa de pagar menos
impostos pelos investidores. Estes venderiam ativos em Dezembro, a preos menores
que seus valores reais, e os comprariam de volta em Janeiro, resultando em retornos
maiores. Porm, como esta estratgia depende do sistema fiscal de cada pas, h
registros de pases em que tal fenmeno no ocorre.

2.1.2.1.3 Splits

Splits so desdobramentos de capital de empresas. Por exemplo, para cada ao


de uma determinada empresa o investidor interessado passar a possuir duas aes com
a metade do preo original.

Segundo Desai & Jain [7] (apud Davidsson [8]) splits tendem a aumentar o preo
de uma ao, antes e depois de seu anncio.

Segundo Haugen [2], ao ocorrer um split, existe, aproximadamente, 80% de


chances de, no futuro, ocorrer um aumento no valor dos dividendos.

- 25 -
Tambm possvel explicar este fenmeno a partir da diminuio do valor da
ao. Com isso, haveria um aumento de liquidez devido presena de pequenos
investidores que teriam acesso ao novo valor.

No Brasil, Leite [9] analisou splits de todas as aes listadas na BOVESPA e


constatou fortes evidncias que contradizem a hiptese de mercado eficiente na forma
semiforte.

2.2 MTODOS ANALTICOS NA PREVISO DO RETORNO DE


AES

Antes da era dos computadores, negociar aes e commodities era uma tarefa
muito mais intuitiva. medida que o nvel de investimentos e as negociaes cresceram,
a necessidade de ferramentas e mtodos que aumentassem os ganhos e minimizassem os
riscos tambm cresceu. Estatsticas, anlises tcnicas, anlises fundamentalistas e
regresso linear so algumas dessas ferramentas usadas para tentar prever a direo do
mercado.

Esses mtodos so aqui apresentados como so normalmente utilizados na


prtica. Com eles possvel ter uma primeira idia de como as redes neurais devem
funcionar.

2.2.1 ANLISE TCNICA

Segundo a Anlise Tcnica, os preos se movem em tendncias ditadas pela


constante mudana de atitudes de investidores em resposta a diferentes foras. Usando o
histrico dos movimentos de preos e volumes e outras estatsticas, e ignorando fatores
como ambiente econmico, eventos polticos, poltica fiscal do governo e tendncias
industriais, o analista tcnico utiliza grficos para prever o comportamento futuro das
aes.

Este tipo de anlise ainda controversa entre estudiosos do assunto. Isto se deve
ao fato de ser, segundo alguns, extremamente subjetiva e, tambm, por contradizer a
Hiptese de Eficincia de Mercado. Apesar disso, utilizada por aproximadamente 90%
dos investidores [10].

- 26 -
Os investidores que utilizam esta tcnica fazem uso de grficos para detectar
possveis tendncias. Tais tendncias, acredita-se, so baseadas na oferta e demanda e
geralmente apresentam um padro cclico. H inmeros indicadores tcnicos derivados
deste tipo de anlise a partir dos quais podem ser retiradas regras de aplicaes ou
entradas de redes neurais, dentre os quais: indicadores de filtro, indicadores de
momento, anlise de curva de tendncia, indicadores de volume e anlise de padro.
Tais indicadores podem fornecer informaes de curto ou longo prazo, ajudando a
identificar tendncias ou ciclos no mercado.

2.2.1.1 Indicadores

A seguir esto alguns dos indicadores mais utilizados na Anlise Tcnica:

2.2.1.1.1 Mdias Mveis

Consistem em mdias extradas de um corpo de dados seqenciais numa janela


de tempo, com a finalidade de informar sobre um incio ou fim de uma tendncia de
preos. Desta forma, uma mdia mvel de 10 perodos mostra o preo mdio do
fechamento dos ltimos 10 perodos. No dcimo primeiro dia, substitui-se o preo de
fechamento do primeiro dia pelo preo de fechamento do dcimo primeiro e calcula-se
uma nova mdia, e assim sucessivamente. Ao conectar os pontos das mdias mveis de
cada dia, cria-se a linha da mdia mvel. O primeiro ponto de uma mdia mvel surge
de acordo com a periodicidade em que est sendo calculada. Numa mdia mvel de 10
dias, por exemplo, o primeiro ponto aparece no dcimo dia.

H trs tipos de mdia mvel:


Mdias Mveis Simples: considerando N perodos, a mdia aritmtica
dos ltimos N preos de fechamento;
Mdias Mveis Ponderadas: do pesos diferentes aos preos de
fechamento que as formam. O preo do fechamento mais prximo recebe
um peso maior, que vai decrescendo nos fechamentos mais antigos, at o
ltimo, que recebe o menor peso;
Mdias Mveis Exponenciais: dada pela equao

- 27 -
2 PFHOJE + ( N 1) MMEONTEM
MME HOJE =
N+1

onde, MMEHOJE a mdia mvel exponencial de hoje, PFHOJE o preo de fechamento de


hoje, N o nmero de dias da mdia mvel exponencial (escolhido pelo analista) e
MMEONTEM a mdia mvel exponencial de ontem.

2.2.1.1.2 Volume

uma medida que expressa o valor financeiro negociado num dia de prego.
Pode ser global, referente ao mercado como um todo, ou individual, referente a apenas
um ativo, ou expressar o total de ttulos negociados.

2.2.1.1.3 Tendncias

A direo dos preos, quando vista em um grfico, tem notadamente um padro


de ziguezague. Esta direo pode ser ascendente, indefinida ou descendente.
permanncia de um preo numa determinada direo, durante um perodo de tempo, d-
se o nome de tendncia.

2.2.1.1.4 Momento

Mede a diferena entre os preos de fechamento em um determinado intervalo de


tempo, e representa a velocidade da evoluo dos mesmos em tendncias bem definidas.

O momento de x dias, dado por MX, calculado pela frmula

M X = PFHOJE PF( HOJE X )

- 28 -
O grfico do momento plotado a partir de uma linha de referncia.

2.2.1.2 Teoria de Dow

Charles Dow foi um dos grandes responsveis pelo desenvolvimento da anlise


tcnica. Ele entendia que a criao de ndices ajudaria os investidores a identificar e
confirmar tendncias do mercado. Com base nisso, props a criao de dois ndices:
Dow-Jones Ferrovirio, que reunia vinte grandes empresas ferrovirias, e o Dow-Jones
Industrial, ndice que existe at os dias atuais, reunindo doze empresas industriais,
nmero que aumentou para vinte em 1916 e trinta em 1928.

Os estudiosos dos escritos de Charles Dow estabeleceram seis princpios que,


reunidos, formam o que hoje conhecemos como a Teoria de Dow. So eles:

Princpio 1: Os ndices descontam tudo: Os ndices representam a ao


conjunta de inmeros investidores, desde os mais bem informados (que
contam com as melhores informaes e previses) at os muito
inexperientes. As variaes dirias dos preos de um ndice, portanto, j
tm includas (descontadas) no seu valor os eventos que iro acontecer e
que so desconhecidos pela maioria dos investidores. Dessa forma, todo
fator que afeta a relao de oferta/demanda est refletido no preo do
mercado;

Princpio 2: As Trs Tendncias do Mercado: este princpio afirma


que o mercado possui trs tendncias de movimento: primria,
secundria e terciria. O Mercado, ou seja, o preo das aes em geral,
move-se em tendncias das quais as mais importantes so as Primrias.
Tendncias primrias costumam durar um ano ou mais, e geram grandes
valorizaes ou desvalorizaes de preos. Ao longo de seu percurso,
ocorrem as chamadas tendncias secundrias, que costumam durar de
trs semanas a alguns meses, corrigindo a tendncia primria precedente
em um a dois teros. Dentro das tendncias secundrias, h ainda as
tendncias tercirias, flutuaes que costumam durar de seis dias a trs

- 29 -
semanas, corrigindo as tendncias secundrias tambm em um a dois
teros.

Na figura 2.2, as linhas verticais esto fazendo uma separao entre trs
tendncias primrias no ndice Bovespa.

Figura 2.2 Tendncias primria no IBOVESPA


Fonte: www.neologica.com.br, acessado em 19/10/2008

Princpio N 3: As tendncias se dividem em trs fases: Dow fez uma


srie de observaes sobre os movimentos de preos, tanto de alta como
de baixa, caracterizando aspectos psicolgicos marcantes de cada fase:

Fases do Mercado de Alta

Fase 1: No incio da alta, o mercado comea a ser propulsionado por


investidores mais qualificados, que percebem o bom momento. Neste
momento, como a grande maioria dos indivduos no tem opinio
formada sobre o momento do papel, isto permite aos investidores de
elite comprar papis muito baratos.
Fase 2: A segunda parte uma acelerao mais acentuada do movi-
mento. A presso compradora aumenta bastante.
Fase 3: A terceira fase marcada por grandes altas. Os participantes
do mercado, de maneira geral, esto cada vez mais seguros de seus

- 30 -
lucros e os investidores mais bem preparados comeam a vender suas
posies. A grande massa de investidores est em clima de euforia
que se realimenta diariamente nos noticirios. Est aberta a possibili-
dade para a fase 1 do mercado de baixa.

Fases do Mercado de Baixa

Fase 1: Nesta fase os profissionais e investidores de elite vendem


seus ativos, iniciando a retrao;
Fase 2: uma etapa marcada por um grande nervosismo, os investi-
dores percebem o equvoco e tentam se desfazer de suas posies.;
Fase 3: Com as grandes perdas e ativos muito desvalorizados, a pres-
so vendedora se dissipa e oportunidades para uma nova alta come-
am a surgir.

Princpio 4: O Princpio da Confirmao: este princpio afirma que


para haver uma reverso de tendncia, este fato deve ocorrer em dois
ndices de composies distintas. Assim, um ndice confirma o outro,
demonstrando que no se trata de uma oscilao temporria do
movimento. Divergncia entre eles mostra um sinal de mudana iminente
na tendncia ento vigente.

Princpio 5: Volume Deve Confirmar a Tendncia: de acordo com a


teoria de Dow, o volume est relacionado com as tendncias da seguinte
maneira:

Tendncia de Alta: Em uma tendncia principal de alta espera-


do que o volume aumente com a valorizao dos ativos e diminua
nas reaes de desvalorizao;
Tendncia de Baixa: Em uma tendncia principal de baixa es-
perado que o volume aumente com a desvalorizao dos ativos e
diminua nas reaes de valorizao.

- 31 -
Princpio 6: A tendncia continua at surgir um sinal definitivo de
que houve reverso: segundo este princpio, o mercado no vai cair
apenas porque atingiu um nvel "alto demais" ou subir porque "j caiu
demais". Segundo a Teoria de Dow, para trocar de posio em relao a
uma tendncia, preciso ter provas definitivas de que ela acabou.

2.2.2 ANLISE FUNDAMENTALISTA

A anlise fundamentalista tem por objetivo, tal qual a anlise tcnica, avaliar
alternativas de investimento. Isto feito a partir de um profundo estudo sobre a empresa,
no qual se avalia seu panorama setorial, suas conjunturas macro e microeconmica e
outros aspectos mais "tangveis", como as fontes de recursos existentes, demonstraes
financeiras, capital humano da organizao, balanos, projees de resultados,
conhecimentos tecnolgicos, entre outros.

Cabe anlise fundamentalista estabelecer o valor justo para uma ao,


respaldando decises de compra ou venda. Neste tipo de anlise, acredita-se ser possvel
estabelecer o valor de uma empresa pela definio da sua capacidade de gerar lucros no
futuro.

As vantagens da anlise tcnica esto em sua abordagem sistemtica e habilidade


de prever mudanas antes que elas apaream efetivamente nos grficos. Companhias so
comparadas entre si e seus panoramas de crescimento so relacionados de acordo com o
ambiente econmico, permitindo ao investidor se tornar mais familiar da companhia.

Infelizmente, este tipo de abordagem mais difcil de ser implantada para


propsitos de automao (utilizando uma rede neural, por exemplo). Existem ainda
outros problemas ligados subjetividade das interpretaes das informaes coletadas, a
possvel presena de fatores desconhecidos dos analistas ou mesmo uma demora at que
o resto do mercado interprete as informaes disponveis de uma mesma maneira.

Basicamente, a anlise fundamentalista assume que 90% dos investidores


utilizam a lgica para realizar seus investimentos, enquanto que, para a anlise tcnica,

- 32 -
90% utilizam fatores psicolgicos e reagem s mudanas do mercado de uma maneira
previsvel.

2.2.3 SRIES TEMPORAIS

Uma srie temporal uma seqncia de vetores x(t), t = 0,1, , onde t


representa o tempo. Tambm pode ser definida como um conjunto de observaes de um
fenmeno ordenadas no tempo. Pode ser contnua, quando medida sem interrupes no
tempo, ou discreta, quando medida em intervalos sucessivos no tempo, em geral, em
intervalos regulares.

Analisar uma srie temporal identificar as caractersticas e propriedades


importantes utilizadas para descrever o fenmeno gerador da srie. A anlise de sries
temporais um processo de induo, uma vez que, a partir de um conjunto de
observaes, infere caractersticas gerais do fenmeno observado.

Segundo Dorffner [11] (apud Prudncio [12]) a maior aplicao da anlise de


sries temporais a gerao de modelos de previso. Os modelos de previso de sries
temporais so capazes de definir, com certo grau de confiabilidade, os valores futuros de
uma srie a partir de informaes passadas da prpria srie e de outras variveis
significantes no problema. O uso de modelos de previso fundamental para diminuir os
riscos na tomada de decises, uma vez que a eficcia de uma deciso depende
obviamente dos eventos que se seguem deciso. Dentre as muitas aplicaes de
previso de sries temporais, podemos citar: planejamento de produo, aplicaes
financeiras, controle de processos e aplicaes mdicas.

Existem dois enfoques principais para a modelagem e previso de sries


temporais. O primeiro o uso de uma teoria sobre o domnio de aplicao (econmica,
hidrolgica, fsica, etc...) para a construo de um modelo conceitual para o fenmeno
gerador da srie. Porm, os modelos tericos tm a desvantagem de necessitar de um
conhecimento aprofundado do domnio para a sua construo, alm de ter aplicao
limitada ao domnio abordado.

O outro enfoque consiste em construir um modelo de previso a partir dos dados


disponveis, sem recorrer a uma teoria especfica. Nessa abordagem, uma srie

- 33 -
modelada atravs de uma funo com parmetros livres ajustados a partir dos dados da
srie. Essa abordagem conhecida como modelos caixa-preta, uma vez que os
parmetros dos modelos gerados no tm uma interpretao direta dentro do domnio do
problema.

Dois dos modelos caixa-preta mais difundidos so de Box-Jenkins [12], que


modelam as sries atravs de funes lineares, e o modelo utilizando redes neurais, que
utilizam funes no-lineares.

2.2.3.1 Modelos de Box-Jenkins

Apesar da simplicidade desses modelos, eles tm sido aplicados satisfatoriamente


em uma diversidade de problemas reais e seus princpios servem at hoje como base
para outros modelos. Segundo Prudncio [13], a classe de Box e Jenkins contm dois
modelos bsicos, o modelo auto-regressivo e o modelo de mdias-mveis. Esses
modelos podem ser combinados ou usados individualmente.

Em um modelo auto-regressivo puro, a previso de um valor da srie feita


atravs de uma combinao linear dos valores passados da srie. O modelo AR (p)
(Autoregressive model) pode ser descrito pela equao 2.1.

Z (t ) = 0 + 1 Z (t 1) + ... + p Z (t p ) + (t ) ( 2.1)

Nesse modelo o valor da srie Z no tempo t previsto usando os ltimos p


valores da srie. O parmetro p chamado de ordem do modelo. Os valores dos
parmetros i so ajustados conforme a srie que se deseja modelar, visando diminuir o
erro de previso. A varivel representa o erro de previso obtido pelo modelo.

Um modelo de mdias-mveis puro de ordem q, MA(q) (Moving Average),


representa uma srie a partir de valores passados dos erros de previso, podendo ser
descrito pela equao 2.2.

Z (t ) = 0 + 1 (t 1) + ... + q (t q ) + (t ) (2.2)

- 34 -
Nesse modelo, o parmetro q indica quantos valores passados do erro de previso
so usados como regressores. Os parmetros i devem ser ajustados conforme a srie
estiver sendo modelada.

O modelo ARMA(p,q) (Autoregressive-Moving Average) uma generalizao


dos modelos anteriores, e formado por uma soma de um componente autoregressivo e
um componente de mdias mveis. Esses modelos podem ser escritos pela equao 2.3:

Z (t ) = 0 + 1 Z (t 1) + ... + p Z (t p) + 1 (t 1) + ... + q (t q ) + (t ) (2.3)

Os modelos de Box-Jenkins tm limitaes tericas por serem apenas modelos


lineares, sendo, portanto, incapazes de modelar um grande nmero de fenmenos. As
vantagens desses modelos que eles so simples, fceis e rpidos de serem implantados.

2.2.3.2 Modelos neurais de previso

Outra abordagem utilizada para a previso de sries temporais o uso das Redes
Neurais Artificiais (RNAs). Estes modelos possuem algumas caractersticas que os
tornam de grande eficincia para este tipo de tarefa. A primeira a possibilidade de
funcionar como aproximadores universais de funes. Como so modelos no-lineares
com um nmero maior de parmetros, as RNAs tm o potencial de modelar
adequadamente uma quantidade maior de sries em comparao aos modelos lineares
clssicos. Outro ponto importante o relacionamento direto dos modelos de redes
neurais com modelos estatsticos, podendo atuar na implantao de modelos lineares e
no-lineares.

Existem diversos modelos de redes neurais que podem ser usados para a previso
de sries temporais, tais como feedforward e redes recorrentes. Tais modelos sero
vistos nos captulos subseqentes deste trabalho

2.2.4 TEORIA DO CAOS

- 35 -
Trata-se de uma abordagem relativamente nova para modelagem de sistemas
dinmicos, tais como o mercado de aes, e parte do pressuposto de que no existe
ordem em casualidade. Desta forma, segundo Lawrence [38], esta teoria acredita que um
processo tem, ao mesmo tempo, caractersticas determinsticas e aleatrias.

Vrios estudos tm sido desenvolvidos para tentar mostrar que determinados


sistemas so caticos, ou seja, tem caos em suas sries temporais. Entende-se por caos
um processo no-linear com caractersticas aleatrias. Com isso, esta teoria contradiz a
Hiptese de Mercado Eficiente ao afirmar que o mercado de aes possui
comportamento catico e no simplesmente aleatrio.

De acordo com a Teoria do Caos, para a completa modelagem de um sistema


catico necessrio conhecer tanto o comportamento determinstico quanto o
comportamento aleatrio de tal sistema. Para tanto, os processos determinsticos so
caracterizados utilizando informaes passadas, enquanto que os aleatrios utilizam
parmetros estatsticos de uma dada funo. A habilidade das redes neurais de capturar
ambos os aspectos mencionados as torna ideais para a modelagem de tais sistemas.

2.2.5 OUTRAS TCNICAS COMPUTACIONAIS

Muitas outras tcnicas baseadas em modelos computacionais tm sido


empregadas no mercado financeiro, principalmente no desenvolvimento de softwares
para auxiliar negociadores.

Neste ponto, merecem destaque alguns softwares baseados em sistemas


especialistas. Tais programas so usados na criao de regras de negociao baseadas
em indicadores tcnicos, ou, em conjunto com redes neurais, na previso do
comportamento de aes. Em tais sistemas, a rede neural pode realizar as previses de
interesse, enquanto o sistema especialista valida-a baseado em seus conhecimentos de
negociao.

O maior obstculo na utilizao de sistemas especialistas encontra-se na


dificuldade de formular as regras com as quais o sistema deva trabalhar. Isto se deve ao

- 36 -
fato de que nem mesmo os investidores mais experientes conseguem entender
completamente o mercado. Neste momento, as redes neurais apresentam a vantagem de
poderem extrair as regras sem que seja necessrio o completo entendimento de tais. Em
sistemas altamente caticos ou apenas parcialmente conhecidos, tais como o mercado de
aes, este um fator fundamental.

2.3 PREVISO DO RETORNO DE NDICES DE AES

Existem dois modelos principais para a previso de sries financeiras temporais,


a saber: modelos de estimao do nvel e modelos de previso por classificao. O
primeiro modelo baseia-se na previso acurada do nvel de preos das aes, ndices e
outros instrumentos de sries financeiras. O segundo a previso da direo ou sinal da
mudana do nvel de preo.

Pesquisa no Portal Capes [14] feita por Souto-Maior [15] por artigos
relacionados com previso de ndices e direo de aes, apresentou uma leve tendncia
pelo primeiro, mostrada na figura 2.3. Dos 48 artigos encontrados, 21 eram sobre
previso de direo; 26 sobre da previso de nvel e somente 1 artigo tratava da previso
de nvel e de direo.

Artigos encontrados no Portal Capes

30
Quantidade de artigos

25
20 ndices
15 Direo
10 ndice/direo
5
0
ndices Direo ndice/direo

Tipos de previso

- 37 -
Figura 2.3 Tipos de artigos encontrados no Portal Capes.
Fonte: Souto-Maior [15]. Adaptado.

Entretanto, pequena parte dos artigos sobre previso de ndices tratava de aes.
Em sua maioria, tais artigos possuam como objetos de estudo ndices variados, tais
como inflao, taxa de cmbio, desemprego, entre outros.

Em relao ao horizonte de previso, foram encontrados 34 artigos que


utilizavam a previso diria; 4 que utilizavam a previso semanal; 3 que utilizavam a
previso mensal; e 7 utilizavam outros horizontes de previso. A figura 2.4 mostra o
grfico correspondente a estes dados.

Horizontes de previso

40
35
Quantidade de artigos

30
Diria
25
Semanal
20
Mensal
15
Outros
10
5
0
Diria Semanal Mensal Outros

Figura 2.4 Horizontes de previso.


Fonte: Souto-Maior [15]. Adaptado.

interessante destacar que esta mesma pesquisa mostrou que o modelo mais
utilizado em tais artigos foi o de redes neurais. Este modelo aparecia sozinho em 18
artigos, ou em modelos hbridos, que juntavam mais de um modelo, em 11 artigos.
Percebe-se, dessa forma, o grande emprego das redes neurais em trabalhos de previso.

- 38 -
2.3.1 PREVISO DO NVEL E DE DIREO UTILIZANDO REDES
NEURAIS

Com relao previso de nveis de mercado, destacam-se os seguintes trabalhos


encontrados durante a pesquisa mencionada anteriormente:

o trabalho de Teixeira e Rodrigues [16], que conseguiram bons


resultados na previso do nvel dirio do Lisbon Stock Exchange Index
(ndice da Bolsa de Valores de Lisboa), Genay [17], na previso do
nvel dirio do Dow Jones Industrial Average Index (DJIA) entre os anos
de 1897 e 1988;
o trabalho de YU [18], que utilizou redes neurais para previso do nvel
dirio do NIKKEI 225 futuro negociado no Singapore International
Monetary Exchange (SIMEX), superando, com isso, o modelo ARIMA,;
o trabalho de Panda-Narasimhan [19], que aplicaram um modelo Linear
Auto-Regressive (LAR) e um modelo de redes neurais para previso do
nvel dirio do Sensitive Index (Sensex), obtendo, com este, uma taxa de
acerto de at 75,98%;

Dois importantes trabalhos nacionais apareceram durante a pesquisa. O primeiro


o de Gomes [20], na aplicao do modelo ARMA com a abordagem de Box e Jenkins
na previso do nvel dirio do IBOVESPA. Este modelo obteve um erro percentual
mdio de 2,67%. E o segundo o de Ribeiro e Silva [21] que comparando diversos
mtodos baseados em inteligncia artificial com o Random Walk e outros mtodos
lineares, e concluindo que os mtodos de RNA apresentam melhor desempenho.

Com relao previso de direo de ndices de mercado, destacam-se os


trabalhos de:

Grudnitski e Osburn [22], que utilizaram redes neurais para previso da


direo de movimento mensal do S&P 500 futuro. O desempenho do

- 39 -
modelo foi avaliado pela porcentagem de acerto da direo de
movimento, obtendo uma taxa de acerto de at 75% no perodo de teste;
Fernndez-Rodrguez, Gonzlez-Martel e Sosvilla-Rivero [23] que
utilizaram redes neurais e anlise tcnica para previso da direo de
movimento diria do ndice General de la Bolsa e Madrid (IGBM). O
desempenho dos modelos foi avaliado por dois critrios: (1) porcentagem
de acerto da direo de movimento; e (2) retorno obtido por uma
estratgia de negociao baseada nesse modelo. Os resultados mostraram
que o modelo hbrido superou a estratgia passiva no perodo de teste e
obteve uma taxa de acerto de at 58% no perodo de teste.
Armano, Marchesi e Murru [1], estudando a movimentao diria do
S&P 500 e do COMIT, propuseram um modelo hbrido usando redes
neurais e algoritmos genticos para prever a sua direo, desenvolvendo
duas estratgias usando derivativos dos ndices pesquisados. O
desempenho dos modelos foi avaliado de acordo com a porcentagem de
acertos da direo do movimento e do retorno obtido por uma estratgia
de investimentos baseada no modelo desenvolvido. Considerando alguns
custos de transao, concluiu-se que o modelo hbrido superava a
estratgia passiva no perodo de testes, porm a taxa de acerto superou o
Random Walk para o S&P 500, mas perdeu para o COMIT.

2.4 O IBOVESPA

A BOVESPA teve sua origem em 1890, com a inaugurao da Bolsa Livre, que
viria a ser depois a Bolsa de Valores de So Paulo. Em 1935, um ano aps se mudar para
o Palcio do Caf, ganhou o nome de Bolsa Oficial de Valores de So Paulo, e em 1967,
passou a se chamar Bolsa de Valores de So Paulo.

A partir da dcada de 1970, mudanas substanciais aconteceram. Em 1972


comeou a funcionar o prego automatizado e no final desta dcada houve a introduo
de operaes com opes. Nos anos 80, implantou-se o Sistema Privado de Operaes
por Telefone (SPOT) e uma rede de servios on-line para as corretoras. Em 1990, foram
iniciadas as negociaes atravs do Sistema de Negociao Eletrnica CATS

- 40 -
(Computer Assisted Trading System), que operava simultaneamente com o sistema
tradicional de Prego Viva Voz, e, em 1999, os servios de Home Broker e After-
Market.

Aps o ano de 2006 a BOVESPA passou a concentrar toda a negociao de


aes no pas, se tornando a nica bolsa de valores do Brasil e a maior da Amrica
Latina, com cerca de 70% de todo o volume de negcios da regio.

O IBOVESPA o mais importante indicador do desempenho mdio das cotaes


do mercado de aes brasileiro. Ele representa o valor atual, em moeda corrente, de uma
carteira terica de aes constituda em 1968, a partir de uma aplicao hipottica.
Supe-se no ter sido efetuado nenhum investimento adicional desde ento, apenas
alguns pequenos ajustes Dessa forma, o ndice reflete no apenas as variaes dos
preos das aes, mas tambm o impacto da distribuio dos proventos, sendo
considerado um indicador que avalia o retorno total de suas aes componentes.

A carteira terica do ndice integrada pelas aes que, em conjunto, atenderam


a dois critrios: representaram 80% do volume transacionado a vista nos doze meses
anteriores formao da carteira, e apresentaram, no mnimo, 80% de presena nos
preges do perodo.

A cada quatro meses o mercado reavaliado, sempre com base nos doze meses
anteriores. Isto ocorre para que possveis alteraes na participao relativa de cada ao
sejam detectadas. Aps a reavaliao, uma nova carteira montada, com cada papel
recebendo um novo peso, segundo a distribuio de mercado.

2.4.1 METODOLOGIA DO CLCULO

2.4.1.1 Participao da ao na carteira terica

A participao de cada ao na carteira tem relao direta com a


representatividade desse ttulo no mercado a vista em termos de nmero de negcios e
volume financeiro ajustada ao tamanho da amostra. Essa representatividade obtida
pelo ndice de negociabilidade de ao, calculado atravs da equao 2.4 a seguir:

- 41 -
ni vi (2.4)
IN =
N V

onde: IN = ndice de negociabilidade;

ni = nmero de negcios realizados com a ao no mercado a vista (lote-padro),


nos ltimos 12 meses;

N = nmero de negcios total do mercado a vista (lote-padro) dos ltimos 12


meses;

vi = valor, em moeda corrente, movimentado com a ao no mercado a vista


(lote-padro), nos ltimos 12 meses;

V = valor total do mercado a vista (lote-padro) em moeda corrente dos ltimos


12 meses.

2.4.1.2 Apurao do ndice

O clculo do IBOVESPA feito realizando o somatrio dos pesos (quantidade


terica da ao multiplicada pelo ltimo preo da mesma) das aes integrantes de sua
carteira terica, como pode ser observado na equao 2.5 a seguir:

IBVSPt = P i ,t Qi ,t
n
i= 1 (2.5)

onde: IBVSPt = ndice Bovespa no instante t;

n = nmero total de aes componentes da carteira terica;

Pi,t = ltimo preo da ao i no instante t;

- 42 -
Qi,t = quantidade terica da ao i na carteira no instante t;

2.4.1.3 Alterao da quantidade terica em funo de proventos

O mecanismo de alterao semelhante ao utilizado para o ajuste da carteira


como um todo, ou seja, considerando-se que o investidor realizou (vendeu) as aes ao
ltimo preo de fechamento anterior ao incio da distribuio de provento e utilizou os
recursos na compra das mesmas aes sem o provento distribudo (ex provento).

A equao 2.6, a seguir, mostra o clculo da alterao da quantidade terica:

Q0 Pc
Qn = (2.6)
Pex

onde: Qn = quantidade nova;

Qo = quantidade antiga;

Pc = ltimo preo de fechamento anterior ao incio da negociao ex-provento;

Pex = preo ex-terico, calculado com base em Pc.

2.4.1.4 Clculo do Preo Ex-Terico

O clculo do preo ex-terico dado pela equao 2.7, a seguir:

- 43 -
Pc + ( S Z ) D J Vet
Pex = (2.7)
1+ B + S

onde: Pex = preo ex- terico;

Pc = ltimo preo com direito ao provento;

S = percentual de subscrio, em nmero ndice;

Z = valor, em moeda corrente, de emisso de cada ao a ser subscrita;

D = valor, em moeda corrente, recebido por ao a ttulo de dividendo;

J = juros sobre capital, em moeda corrente;

Vet = valor econmico terico, resultante do recebimento de provento em outro


tipo/ativo;

B = percentual de bonificao (ou desdobramento), em nmero ndice.

- 44 -
3 AS REDES NEURAIS ARTIFICIAIS
3.1 INTRODUO

Uma previso eficiente do futuro pode ser de grande valor em reas to diversas
quanto o movimento de preos do mercado financeiro, a previso de estouro de
oramento, o clculo de riscos de seguro e eficcia de drogas medicinais, entre outras.
Muitas tcnicas, desde as regresses lineares ao mtodo ARMA para sries temporais,
so regularmente usadas para gerar previses. Uma abordagem por redes neurais permite
a utilizao de uma tcnica que pode operar em circunstncias onde as tcnicas clssicas
no podem ou no produzem resultados satisfatrios.

Em uma viso geral, prever significa utilizar dados e modelos existentes para
gerar outros que ainda no existem. Os dados existentes podem ser de muitas formas e
incluir redundncias, erros, ausncia de valores, rudo e muitas outras caractersticas que
dificultam a tarefa de gerao de previso. Alm disso, qualquer modelo conhecido pode
tambm ter problemas tais como erros estruturais ou tendncias. A respeito de todos
esses desafios, os dados existentes, em muitos casos, contm todas as informaes
necessrias para fornecer uma previso til e acurada das variveis de objetivo. O
desafio, ento, est em isolar as informaes teis nos dados existentes, separando-as de
rudos e erros.

Alguns dos mtodos tradicionais de previso incluem regresses lineares e no-


lineares, sries temporais ARMA, regresso logstica, anlises de componentes
principais, anlise discriminante e de clusters. Muitos desses mtodos requerem um
analista humano para filtrar as informaes importantes entre dezenas ou centenas de
variveis. Em circunstncias onde a quantidade de dados particularmente grande e
complexa, onde somente pequena parte da srie temporal est disponvel ou quando h a
presena de muito rudo, estas abordagens podem ser tornar extremamente difceis.

As redes neurais oferecem uma abordagem de modelagem e previso que podem


se ajustar a circunstncias nas quais os dados existentes possuem informaes de
interesse, porm, estas podem estar mascaradas pelos diversos fatores mencionados
anteriormente.

- 45 -
Estes atributos fazem das redes neurais uma excelente ferramenta para tomar o
lugar de um ou mais mtodos tradicionais, tais como regresses lineares e mtodo dos
mnimos quadrados. Com elas possvel gerar previses teis em situaes onde outras
tcnicas no poderiam ser aplicadas de forma to eficiente. Em outras situaes, as redes
neurais podem melhorar substancialmente as previses ao levar em considerao mais
informaes do que as tcnicas tradicionais so capazes de processar. Finalmente, o uso
de redes neuras na criao de um modelo preditivo de um sistema complexo no
necessita da atuao de um estatstico ou outro especialista para analisar todas as
combinaes possveis de variveis, diminuindo sensivelmente o tempo de trabalho.

3.2 O QUE UMA REDE NEURAL?

Uma Rede Neural Artificial, ou simplesmente Rede Neural, so sistemas


paralelos distribudos, compostos por unidades de processamentos simples (neurnios),
baseadas no funcionamento do crebro. Estas unidades tm por objetivo computar
determinadas funes matemticas (normalmente no lineares), e so dispostas em uma
ou mais camadas interligadas por um grande nmero de conexes, geralmente,
unidirecionais. Na maioria dos modelos, estas conexes esto associadas a pesos, os
quais armazenam o conhecimento representado no modelo e servem para ponderar a
entrada recebida por cada neurnio da rede. As RNAs tm a capacidade de, como as
pessoas, aprenderem atravs de exemplos, sendo configuradas para cada tipo especfico
de aplicao, tais como reconhecimento de padro ou classificao de dados.

A soluo de problemas atravs das RNAs bastante atrativa devido ao seu


paralelismo, criando, desta forma, a possibilidade de um desempenho superior em
relao soluo de problemas baseados nos modelos convencionais. Em RNAs, o
procedimento usual na soluo de problemas passa inicialmente por uma fase de
aprendizagem, onde um conjunto de exemplos apresentado para rede, que extrai
automaticamente as caractersticas necessrias para representar a informao fornecida.
Essas caractersticas so utilizadas posteriormente para gerar respostas para o problema.

A capacidade de aprender atravs de exemplos e de generalizar a informao


aprendida so os atrativos principais da soluo de problemas atravs das RNAs. A
generalizao est associada capacidade da rede em aprender atravs de um conjunto

- 46 -
reduzido de exemplos e, posteriormente, dar respostas coerentes a dados no
apresentados rede. Isto uma demonstrao que a capacidade das RNAs vai alm de,
simplesmente mapear relaes de entrada e sada, sendo capazes de extrair informaes
no-apresentadas de forma explcita atravs de exemplos. Outras caractersticas
importantes so a capacidade de auto-organizao e processamento temporal que,
aliadas quela citada anteriormente, fazem das RNAs uma ferramenta computacional
extremamente poderosa e atrativa para a soluo de problemas complexos.

3.3 CREBRO HUMANO

O sistema nervoso humano pode ser visto como um sistema de trs estgios,
como mostrado na figura 3.1. No centro est uma unidade de processamento,
representado pela rede de neural (de nervos), a qual continuamente recebe informaes,
distingue-as e toma as decises apropriadas. Dois conjuntos de setas so mostrados na
figura. Os que apontam da esquerda para direita indicam que a informao est se
movimentando numa direo no sistema. Aquelas que apontam da direita para esquerda,
indicam a presena de um sistema de realimentao. Os receptores convertem estmulos
do corpo humano ou do ambiente exterior em impulsos eltricos que carregam as
informaes at a rede neural (crebro). Os executores convertem os impulsos eltricos
gerados pela rede neural em respostas perceptveis (as sadas do sistema).

Estmulo Receptores Rede Neural Executores Resposta

Figura 3.1 Diagrama de blocos da representao do sistema nervoso.


Fonte: Haykin[24], pg 28. Adaptado.

- 47 -
Em 1911, o estudo de Ramon y Cajl (apud Haykin [24]) introduziu a idia de
neurnios como estruturas constituintes do crebro. Hoje estimam-se que haja 10 bilhes
de neurnios no crtex humano e 60 trilhes de sinapses ou conexes. Sinapses so
estruturas elementares e unidades funcionais que atuam nas interaes entre neurnios.
Elas funcionam como vlvulas, sendo capazes de controlar a transmisso de impulsos,
isto , o fluxo da informao entre os neurnios na rede neural, inibindo-os ou
excitando-os. Devido ao seu efeito varivel, as sinapses do aos neurnios grande
capacidade de adaptao.

O neurnio biolgico uma clula que pode ser dividida em trs sees: o corpo
da clula, os dendritos e o axnio, cada uma com funes especficas, porm
complementares.

O corpo do neurnio mede apenas alguns milsimos de milmetros e os dendritos


apresentam poucos milmetros de comprimento. Os dendritos tm como funo receber
informaes, ou impulsos nervosos, oriundas de outros neurnios, e conduzi-las at o
corpo celular. Ali a informao processada e novos impulsos so gerados. Estes
impulsos so transmitidos a outros neurnios, passando pelo do axnio e atingindo os
dendritos dos neurnios seguintes.

A figura 3.2 ilustra, de forma simplificada, os componentes do neurnio:

Figura 3.2 Componentes de um Neurnio Biolgico


Fonte: Haykin [24]. pg. 30. Adaptado.

- 48 -
Os sinais oriundos dos neurnios pr-sinpticos so passados para o corpo do
neurnio, onde so comparados com outros sinais recebidos por este mesmo neurnio.
Se o percentual em um intervalo curto de tempo suficientemente alto, a clula
dispara, produzindo um impulso que transmitido para as clulas seguintes (neurnios
ps-sinpticos).

3.4 MODELOS DE NEURNIOS

Como j visto, a construo de redes neurais artificiais tem inspirao nos


neurnios biolgicos e nos sistemas nervosos. Entretanto, importante compreender que
atualmente as RNAs esto muito distantes das redes neurais naturais (RNNs) e
freqentemente as semelhanas so mnimas.

O primeiro modelo de neurnio artificial foi proposto por McCulloch e Pitts [25],
em 1943, e tinha a inteno de imitar a realidade biolgica. Porm esta preocupao no
totalmente compartilhada por muitos pesquisadores atuais. De fato, dois fatores
diferentes motivam a pesquisa hoje em dia:
modelar o sistema nervoso com suficiente preciso de tal modo a se
poder observar um comportamento que, sendo semelhante ao
comportamento do ser vivo, possa servir de apoio s hipteses usadas na
modelagem;
aproveitar as caractersticas da RNAs para construir computadores com
um alto grau de paralelismo.

3.4.1 MODELO DE MCCULLOCH-PITTS

O modelo de neurnio proposto por McCulloch e Pitts [25] uma simplificao


do que se sabia a respeito de neurnios biolgicos poca do estudo. Sua descrio
matemtica resultou em um modelo com n terminais de entrada x1, x2, . . . ,xn (que
representam os dendritos), e apenas um terminal de sada y (representando o axnio).
Para emular o comportamento das sinapses, os terminais de entrada do neurnio tm

- 49 -
pesos acoplados w1, w2, . . . ,wn, cujo valores podem ser positivos ou negativos,
dependendo das sinapses correspondentes serem inibitrias ou excitatrias. O efeito de
uma sinapse particular i no neurnio ps-sinptico dado pelo produto xiwi. Os pesos
determinam em que grau o neurnio deve considerar sinais de disparo que ocorrem
naquela conexo. Uma descrio do modelo est ilustrada na figura 3.3.

X1 W1

X2 W2
Y
.
.

.

Xn Wn

Figura 3.3 Neurnio de McCulloch-Pitts

Um neurnio dispara quando a soma dos impulsos que ele recebe ultrapassa o
seu limiar de excitao, chamado de threshold. O corpo do neurnio, por sua vez,
emulado por um mecanismo simples que faz a soma dos valores xi wi recebidos pelo
neurnio (soma ponderada) e decide se o neurnio deve ou no disparar (sada igual a 1
ou a 0) comparando a soma obtida ao limiar ou threshold do neurnio. No modelo MCP,
a ativao do neurnio obtida atravs da aplicao de uma funo de ativao, que
ativa a sada ou no, dependendo do valor da soma ponderada das suas entradas. Na
descrio original do modelo MCP, a funo de ativao dada pela funo limiar
descrita na subseo seguinte. A inequao 3.1, a seguir, modela a ativao da sada do
neurnio MCP:
n

i= 1
xi wi (3.1)

onde n o nmero de entradas do neurnio, wi o peso associado entrada xi, e o


limiar (threshold) do neurnio.

- 50 -
McCulloch e Pitts simplificaram seu modelo assumindo que os neurnios em
cada camada da rede disparam sincronamente, isto , que todos os ns (ou nodos) so
avaliados ao mesmo tempo e tambm que as entradas em um instante de tempo t
produzem a sua sada no tempo t + 1.

Finalmente, podem-se levantar algumas limitaes na descrio do modelo MCP


original, como:
redes MCP com apenas uma camada conseguem implementar funes
linearmente separveis;
pesos negativos so mais adequados para representar disparos inibidores;
O modelo foi proposto com pesos fixos, no ajustveis. No h a
presena de um algoritmo de aprendizagem.

3.4.2 FUNES DE ATIVAO

A partir do modelo proposto por McCulloch e Pitts, foram derivados vrios


outros modelos que permitem a produo de uma sada qualquer, no necessariamente
zero ou um, e com diferentes funes de ativao.

A figura 3.4 ilustra, graficamente, quatro funes de ativao diferentes: (a)


funo linear, (b) funo rampa, (c) funo degrau (step) e (d) funo sigmoidal.

f(x) f(x) f(x) f(x)

x x x x

(a) (b) (c) (d)

Figura 3.4 Algumas funes de ativao

- 51 -
A funo de ativao linear, mostrada na figura anterior, definida pela equao
3.2 a seguir.
y = x (3.2)

onde um nmero real que define a sada linear para os valores de entrada, y
a sada e x a entrada.

A funo linear pode ser restringida para produzir valores constantes em uma
faixa [-, +], e neste caso, passa a ser a funo rampa mostrada, graficamente, na figura
3.4 item (b) definida pela equao 3.3 abaixo:

+ se x

y= x se x= (3.3)
se x

A funo step, ilustrada na figura 3.4 item (c), definida pela equao 3.4 a
seguir:

+ se x> 0
y= (3.4)
se x 0

A funo sigmoidal, conhecida tambm como S-shape, ilustrada na 3.4 item (d),
uma funo semi-linear. possvel definir vrias funes sigmoidais; uma das mais
importantes a funo logstica definida pela equao 3.5 a seguir:
1
y= (3.5)
1 + e x/T

onde o parmetro T determina a suavidade de curva.

3.5 O PROCESSO DE APRENDIZADO

- 52 -
Como j visto anteriormente, as RNAs possuem as capacidades de aprender
atravs exemplos e de fazer interpolaes e extrapolaes do que aprenderam. No
aprendizado conexionista no se procura obter regras como na abordagem simblica da
Inteligncia Artificial (IA), mas determinar a intensidade das conexes entre os
neurnios. Um conjunto de procedimentos bem definidos para adaptar os parmetros de
uma RNA, afim de que a mesma possa aprender uma determinada funo, chamado de
algoritmo de aprendizagem. H vrios tipos de algoritmos de aprendizagem, cada um
com suas vantagens e desvantagens, diferindo, basicamente, pela maneira atravs da
qual o ajuste dos pesos feito.

A fase de aprendizagem de uma RNA consiste na extrao, por parte da rede, de


caractersticas relevantes dos padres de informaes apresentados para a mesma. Trata-
se de um processo iterativo de ajuste dos parmetros da rede, ou seja, dos pesos das
conexes entre as unidades de processamento. nestes pesos que a rede guarda o
conhecimento adquirido do ambiente em que est operando.

De acordo com Haykin [24], aprendizado [de uma rede neural] um processo
pelo qual os parmetros livres de uma rede neural so adaptados atravs de um processo
de estimulao do ambiente no qual a rede est inserida; sendo determinado pela forma
atravs da qual efetuada a mudana nos parmetros.

3.5.1 PARADIGMAS DE APRENDIZADO

Existem trs mtodos bsicos de aprendizados em RNAs: aprendizado


supervisionado, aprendizado no-supervisionado e aprendizado por reforo.

3.5.1.1 Aprendizado supervisionado

Este o mtodo mais comum no treinamento de RNAs. Trata-se de um modelo


no qual o aprendizado obtido atravs de um supervisor (ou professor) com o objetivo
de ajustar os parmetros da rede, de forma a encontrar uma ligao entre os pares de
entrada e sada fornecidos.

A figura 3.5 ilustra o mecanismo deste paradigma.

- 53 -
Supervisor
Professor

+
-
RNA
Entrada
Erro

Figura 3.5 Aprendizado Supervisionado.

O supervisor indica um comportamento bom ou ruim para a rede, visando


direcionar o processo de treinamento. A rede tem sua sada atual comparada com a sada
desejada, recebendo informaes do supervisor sobre o erro da resposta atual. A cada
padro de entrada submetido rede, compara-se a resposta desejada com a resposta
calculada, e os pesos das conexes so ajustados de forma a minimizar o erro. A
minimizao da diferena incremental, j que pequenos ajustes so feitos nos pesos a
cada etapa de treinamento, de tal forma que estes caminhem, se possvel, para uma
soluo.

A desvantagem deste tipo de aprendizado est exatamente na necessidade de um


supervisor. Na sua ausncia, a rede no consegue aprender novas estratgias para
situaes no vistas nos exemplos de treinamento. Os exemplos mais conhecidos de
algoritmos de aprendizagem supervisionada so a regra delta ou correo de erros e a
sua generalizao para redes de mltiplas camadas, o algoritmo de retropropagao
(back-propagation). Ambos os algoritmos sero vistos mais adiante neste captulo.

3.5.1.2 Aprendizado no-supervisionado

Diferentemente do anterior, este paradigma no necessita de um tutor para


acompanhar o processo de aprendizado e indicar a sada desejada. Durante o
treinamento, somente padres de entrada so apresentados RNA, at que ela estabelea
uma harmonia com as regularidades estatsticas da entrada de dados. Porm, este tipo de
aprendizado s possvel quando os dados de entrada so, de alguma forma,
redundantes. A figura 3.6 a seguir mostra um diagrama deste tipo de aprendizado:

- 54 -
Estado do Resposta
Meio Externo
Meio Externo RNA

Figura 3.6 Aprendizado No Supervisionado

3.5.1.3 Aprendizado por reforo

No aprendizado por reforo, o aprendizado de um mapeamento de entrada e sada


feito atravs de interaes contnuas com o ambiente, de modo a minimizar um ndice
escalar de desempenho. Em sistemas deste tipo, somente uma nica informao de
realimentao fornecida rede: se uma determinada sada est correta ou no. A figura
3.7, a seguir, mostra o diagrama de blocos de um sistema de aprendizado por reforo
construdo em torno de um crtico, que converte um sinal de reforo primrio recebido
do ambiente em um sinal de reforo de maior qualidade, chamado de sinal de reforo
heurstico, ambos sendo entradas escalares.

Figura 3.7 Diagrama de blocos de Aprendizado por Reforo.


Fonte: Haykin[24]. Adaptado.

- 55 -
3.5.2 REGRAS DE APRENDIZADO

A seguir esto listados alguns dos mais usados algoritmos de aprendizagem.

3.5.2.1 Regra Delta ou Correo de Erros

O objetivo deste processo minimizar a diferena entre a soma ponderada das


entradas pelos pesos (sada calculada pela rede) e a sada desejada, ou seja, o erro da
resposta atual da rede.

O erro calculado de acordo com a equao 3.6, a seguir:

e( t ) = d ( t ) y ( t ) (3.6)

onde: e(t) = erro da resposta atual;

d(t) = a sada desejada;

y(t) = a resposta atual (calculada) no instante de tempo t.

O ajuste dos pesos deve ser proporcional ao produto do erro pelo valor de entrada
da sinapse naquele instante de tempo, segundo a equao 3.7, a seguir:

wi ( t + 1) = wi ( t ) + e( t ) xi ( t ) (3.7)

onde: (t) = taxa de aprendizado;

xi = entrada para o neurnio no tempo t.

3.5.2.2 Aprendizado Hebbiano

- 56 -
Consiste na mais antiga regra de aprendizagem e foi baseada no postulado de
Hebb [26]:

Quando um axnio de uma clula A est prximo o bastante para excitar uma
clula B e repetidamente ou persistentemente participa de sua ativao, algum processo
de crescimento ou alterao metablica acontece em uma ou ambas as clulas, tal que a
eficincia de A como uma das clulas que ativa B aumentada.

Este postulado foi formulado com base no aprendizado associativo (a nvel


celular), em um contexto neurobiolgico, o que resulta em uma modificao duradoura
no padro de atividade de um conjunto de clulas nervosas espacialmente distribudo.
Expandindo este conceito e separando-o em duas regras, temos:

Se dois neurnios em cada um dos lados da sinapse (conexo) so ativados


simultaneamente (i.e sincronamente), ento a fora daquela sinapse seletivamente
aumentada.

Se dois neurnios em cada um dos lados da sinapse so ativados de forma


assncrona, ento aquela sinapse seletivamente enfraquecida ou eliminada.

Uma sinapse com tais caractersticas chamada de sinapse Hebbiana e possui,


segundo Haykin [24], quatro propriedades principais:
Mecanismo interativo: a ocorrncia de uma mudana em uma sinapse
Hebbiana depende dos sinais em ambos os lados desta sinapse. Isto , o
mtodo de aprendizado Hebbiano depende, estatisticamente ou
deterministicamente, de suas interaes verdadeiras entre os sinais pr-
sinpticos e ps-sinpticos;
Mecanismo local: uma sinapse Hebbiana uma transmisso com sinais
contnuos que produz modificaes sinpticas locais que so entradas
especficas. a partir do mecanismo local que sinapses Hebbianas
efetuam aprendizado no-supervisionado;
Mecanismo dependente do tempo: as modificaes em uma sinapse
Hebbiana dependem do momento exato de ocorrncia das atividades pr
e ps-sinpticas;
Mecanismo correlacional ou conjuncional: a sinapse Hebbiana pode ser
chamada de sinapse conjuncional pelo fato de que a ocorrncia conjunta

- 57 -
de atividades pr e ps-sinpticas suficiente para que haja uma
modificao. Alm disso, pode tambm ser chamada de sinapse
correlacional, porque uma correlao entre estas mesmas atividades
suficiente para gerar mudanas.

A equao 3.8 expressa o postulado de Hebb, consistindo em uma regra para a


mudana do peso sinptico wij (regra do produto de atividade):

wij (t ) = . y i (t ) x j (t ) (3.8)

onde: = constante positiva que determina a taxa de aprendizado;

yi = sada desejada no instante de tempo t;

xi = entrada do neurnio j no instante de tempo t.

Esta regra de aprendizagem classificada com o aprendizado no-


supervisionado, mesmo sendo os vetores de entrada e sada fornecidos. Isto se deve ao
fato de no haver supervisor externo para verificar a qualidade da resposta da rede para
prover ajustes dos pesos.

3.5.2.3 Aprendizado competitivo

Neste tipo de aprendizado, como o prprio nome indica, os neurnios de sada da


rede competem entre si para se serem ativados. Enquanto em redes baseadas em
aprendizado Hebbiano vrios neurnios de sada podem ser ativados simultaneamente,

- 58 -
no aprendizado competitivo apenas um nico neurnio de sada ativado por vez. esta
caracterstica que torna este tipo de rede altamente indicada para descobrir
caractersticas estatsticas que possam ser usados para classificar um conjunto de
padres de entrada.

Segundo Haykin [24], h trs elementos bsicos para uma regra de aprendizado
competitivo:
um conjunto de neurnios que so todos iguais, exceto por alguns pesos
sinpticos aleatoriamente distribudos, e que responde de maneira
diferente a um dado conjunto de padres de entrada;
um limite imposto fora a cada neurnio;
um mecanismo que permite a competio entre neurnios pelo direito a
responder a um dado subconjunto de entradas, tais que apenas um
neurnio, ou apenas um neurnio por grupo, ativado por vez.

A seguir, tem-se um algoritmo simples de aprendizado competitivo:


apresentar um vetor de entrada;
calcular a ativao inicial de cada unidade de sada;
deixar as unidades de sada competirem at que apenas uma permanea
ativa;
aumentar os pesos sobre as conexes entre as unidades de sada ativa e as
unidades de entrada ativas. Com isso, a unidade de sada ter maior
probabilidade de ficar ativa na prxima repetio do padro.

Porm, para evitar que uma unidade de sada torne-se dominante e fique ativa
todo tempo, captando para si todo o espao de entrada, necessrio racionar os pesos de
maneira que a soma dos pesos sobre as linhas de entrada de uma unidade seja limitada a
1.
3.6 ALGUMAS ARQUITETURAS DE RNAS

Nesta seo sero abordados os modelos de perceptron de nica e mltiplas


camadas. O perceptron foi proposto por Rosenblatt [27], em 1958, como uma extenso

- 59 -
do modelo de neurnio de McCulloch-Pitts, substituindo a funo degrau por uma
funo contnua que mapeia Z em Y, tornando mais fcil o treinamento das redes. Seu
modelo consiste, basicamente, de uma estrutura de rede tendo como unidades bsicas
neurnios MCP e uma regra de aprendizado. Foi somente aps este trabalho que o
conceito aprendizado em RNAs foi introduzido. Alguns anos mais tarde, Rosenblatt
demonstrou o teorema de convergncia do perceptron: um neurnio MCP treinado com
o algoritmo de aprendizagem do perceptron sempre converge, caso o problema em
questo seja linearmente separvel.

3.6.1 PERCEPTRON DE CAMADA NICA

A topologia do modelo proposto por Rosenblatt era composta de: unidades de


entrada (retina), um nvel intermedirio (formado pelas unidades de associao) e um
nvel de sada (formado pelas unidades de resposta). Apesar de esta topologia possuir
trs nveis, somente o nvel de sada (unidade de resposta) possui propriedades
adaptativas, o que explica o nome perceptron camada nica.

Na figura 3.8, a seguir, tem-se um esboo da topologia do perceptron:

Figura 3.8 Topologia de um perceptron simples com uma nica sada.


Fonte: Jones [28]. Adaptado.

- 60 -
3
onde, Z =
i= 1
Wi X i ; sendo um bias.

Apesar de introduzir importantes novidades e da grande euforia da comunidade


acadmica da poca, o modelo de neurnio de Rosenblatt sofreu duras crticas devido a
sua capacidade computacional, causando um grande desinteresse por novas pesquisas.
Este quadro s mudou com a introduo do algoritmo de backpropagation, alguns anos
mais tarde.

3.6.2 PERCEPTRON MULTICAMADAS

Conforme citado anteriormente, as redes de camada nica resolvem apenas


problemas linearmente separveis. Para aplicaes em problemas no linearmente
separveis foi necessrio o desenvolvimento das redes multicamadas (ou perceptrons
multicamadas). Segundo Haykin [24], estas redes consistem de um conjunto de unidades
sensoriais (neurnios fontes), que constituem a camada de entrada, de uma ou mais
camadas escondidas, e de uma camada de sada. A utilizao de uma rede com uma
camada escondida permite a implementao de qualquer funo contnua, enquanto que
uma rede com duas camadas escondidas poder aproximar qualquer funo [29,30].

Segundo Haykin [24], um perceptron multicamadas tem trs caractersticas


distintas:
1) o modelo de cada neurnio na rede inclui uma funo de ativao no-
linear. Porm, importante enfatizar que esta no-linearidade suave, ou
seja, a funo deve ser diferenciavel em todos os pontos, em oposio ao
perceptron original de Rosenblatt;
2) a rede contm um ou mais neurnios escondidos que no fazem parte da
entrada ou sada da rede. Estes neurnios permitem rede aprender tarefas
complexas, extraindo progressivamente mais caractersticas significativas
dos vetores de entrada;

- 61 -
3) a rede exibe um alto grau de conectividade, determinada por suas
sinapses. Uma mudana nesta conectividade requer uma mudana nas
conexes sinpticas ou em seus pesos.

Na combinao destas caractersticas com a habilidade de aprender por


experincias atravs de treinamentos reside o poder computacional das redes MLP
(Multilayer Perceptrons). Entretanto, estas mesmas caractersticas so responsveis por
deficincias no comportamento do perceptron multicamadas. Primeiro, a presena de
uma forma distribuda de no-linearidade e a alta conectividade da rede tornam a anlise
mais complicada. Segundo, o uso de camadas escondidas faz com que o processo de
aprendizagem seja mais difcil de visualizar. De uma maneira geral, o processo de
aprendizagem deve decidir quais caractersticas dos vetores de entrada devero ser
representadas pelos neurnios da camada escondida. Este processo torna-se, ento, mais
difcil medida que a busca por tais padres tem que ser conduzida em um espao muito
maior de funes de ativao.

A figura 3.9 mostra um exemplo de rede multicamada.

Figura 3.9 Rede MLP com camada intermediria.


Fonte: Haykin [24], Extrado.

Como j visto, uma funo de ativao no-linear necessria para cada


neurnio de entrada da rede. Esta funo deve informar os erros cometidos pela rede
para as camadas anteriores com a maior preciso possvel. H diversos tipos de funo

- 62 -
de ativao; todavia, a mais utilizada a sigmoidal logstica, representada na equao
3.9 a seguir:
1
f ( v) = , > 0 (3.9)
1 + e ( v )

onde (parmetro de inclinao) responsvel pela inclinao da curva produzida pela


funo e v o modelo da ativao da sada do neurnio MCP, definido em 3.4.1.

3.6.2.1 Definio de uma topologia ideal para uma rede multicamadas

Definir uma topologia de uma rede MLP , essencialmente, definir o nmero de


neurnios da camada intermediria. Geralmente, este nmero definido empiricamente
e depende da distribuio dos padres de treinamento e validao da rede e de alguns
outros fatores, tais como nmero de exemplos a ser aprendido, complexidade da funo
a ser aprendida, quantidade de rudo presente nos exemplos, entre outros. Todavia,
alguns mtodos tm sido propostos. Os mais utilizados so:
Definir o nmero de neurnios em funo do nmero de entradas e
sadas;
Utilizar um nmero de conexes em torno de dez vezes menor que o
nmero de exemplos. Este mtodo reduz a incidncia de overfitting da
rede (memorizao de padres de treinamento, ao invs de extrao de
caractersticas). Contudo, caso o nmero de exemplos seja muito maior
que o nmero de conexes, pode ocorrer underfitting (no convergncia
da rede durante o seu treinamento).

Uma forma de evitar o overfitting estimar o erro de generalizao durante o


processo de treinamento. Para isto, divide-se o conjunto de dados em conjunto de
treinamento e conjunto de validao. O conjunto de treinamento utilizado na
modificao dos pesos e o conjunto de validao utilizado para estimar a capacidade
de generalizao da rede durante o processo de aprendizagem.

Deve-se interromper o treinamento quando o erro do conjunto de validao


comear a aumentar; isto significa que a rede est incorporando o rudo presente nos

- 63 -
dados, degradando, assim, sua capacidade de generalizao. Esta alternativa mais
indicada para os casos em que o conjunto de treinamento muito grande, visto que os
dados do conjunto de validao no podem ser utilizados para treinamento.

3.6.2.2 Treinamento de redes multicamadas

Os algoritmos para treinamento de redes MLP so do tipo supervisionado e


podem ser classificados em:
Estticos - no alteram a estrutura da rede, apenas variam os valores de
seus pesos;
Dinmicos. - alteram a configurao da rede, alterando o nmero de
camadas, o nmero de neurnios nas camadas escondidas e o nmero de
conexes.

O algoritmo de aprendizagem mais conhecido para treinamento destas redes o


back-propagation. Este algoritmo do tipo dinmico e utilizado, com variaes, em
grande parte dos mtodos de aprendizado de RNAs do tipo MLP.

3.6.2.2.1 Back-propagation

O objetivo primrio do treinamento de uma rede neural estimar um conjunto


apropriado de pesos baseado nos dados de entrada. O algoritmo de back-propagation,
tambm chamado regra delta generalizada, trata-se de um algoritmo supervisionado que
utiliza pares de entrada e sada esperada para ajustar tais pesos, atravs do gradiente.

O treinamento ocorre em duas fases (forward e backward), mostradas na figura


3.10 a seguir, onde cada fase percorre a rede em um sentido.

- 64 -
Figura 3.10 Treinamento do algoritmo back-propagation.

Segundo Haykin [24], a atualizao seqencial de pesos o mtodo preferido


para uma implementao em tempo de execuo do algoritmo de back-propagation. Este
algoritmo pode ser resumindo em:
Apresenta-se rede um exemplo e verifica-se a sada;
Obtm-se o erro do processo atravs da comparao entre a sada obtida
e a sada esperada;
Calcula-se o gradiente deste erro com relao aos valores sinpticos da
camada de sada;
A partir deste erro, atualiza-se a camada de sada;
Calcula-se o erro da sada da penltima camada e assim por diante.
Apresenta-se outro exemplo rede e repetem-se os passos anteriores;
Continua-se o processo at que o erro seja menor que uma tolerncia
estabelecida.

A limitao deste algoritmo encontra-se no fato de que as funes de ativao


devem ser obrigatoriamente derivveis.

3.7 REDES NEURAIS TEMPORAIS

- 65 -
So redes dinmicas dotadas de memria temporal na camada de entrada,
permitindo-lhes a realizao de tarefas de carter temporal. Podem ser de dois tipos,
dependendo da maneira como a memria incorporada rede:
Redes com realimentao ou recorrentes;
Redes com atraso no tempo.

3.7.1 REDES RECORRENTES

Segundo Hopfield [31], redes recorrentes so aquelas que, alm de apresentarem


ciclos, envolvem tambm neurnios dinmicos. Haykin [24] a definiu como uma rede
que possui pelo menos um lao de realimentao. Estas redes possuem a vantagem de
serem mais gerais e potencialmente mais poderosas que as redes feedforward

A figura 3.11 ilustra um exemplo de rede recorrente;

Figura 3.11: Exemplo de rede recorrente sem loop e sem camada escondida

- 66 -
Fonte: Haykin [24], Extrado.

onde Z-1 so operadores de atraso unitrio, responsveis por fornecer rede alteraes
relacionadas aos perodos em que os dados lhe so apresentados.

3.7.1.1 Rede Jordan

Desenvolvida por Jordan [32,33], esta foi uma das primeiras redes recorrentes.
Um exemplo por ser visto na figura 3.12 a seguir.

Figura 3.12 Exemplo de Rede Jordan


Fonte: Krose, Smargt [34], Extrado.

Numa rede Jordan, as sadas so realimentadas na camada de entrada atravs de


um conjunto extra de entradas, chamados unidades de estado. O numero de unidades de
estado igual ao numero de sadas na rede. As conexes entre a sada e as unidades de

- 67 -
estado tm um peso fixo igual a +1. A aprendizagem ocorre apenas nas conexes entre a
entrada e as camadas escondidas e entre as camadas escondidas e a camada de sada.

3.7.1.2 Rede Elman

Nesta modelo de rede, introduzido por Elman [35], o conceito de camadas de


contexto introduzido. Camadas de contexto so entradas que so realimentadas para as
camadas escondidas. Esta rede muito similar Rede Jordan, exceto pelo fato da
realimentao ocorrer na camada escondida e por que os as entradas extras no possuem
conexo entre si, como pode ser visto na figura 3.13 a seguir:

Figura 3.13 Rede Elman


Fonte: Krose, Smargt [34], Extrado.

3.7.2 REDES COM ATRASO NO TEMPO

So redes as quais se introduz atrasos, proporcionando aos neurnios valores de


entrada atuais e valores temporariamente anteriores a eles. Os atrasos podem ser
inseridos tanto na camada de entrada quanto nas camadas escondidas e de sada. Neste
contexto, as redes TLFN (Time Lagged Feedforward Network) so as mais utilizadas.

- 68 -
As redes TLFN consistem de uma rede cuja memria introduzida nos neurnios
da camada de entrada, fornecendo-se valores das entradas atuais e tambm em tempos
anteriores. Desta forma, a resposta da rede neural no tempo t baseada nas entradas no
tempo (t-1),(t-2), ..., (t-n).

A Figura 3.14 a seguir mostra um exemplo de rede TLFN.

Figura 3.14 Rede TLFN


Fonte: Haykin [24], Extrado.

- 69 -
4 METODOLOGIA
4.1 INTRODUO

Neste captulo so apresentados a metodologia e o desenvolvimento de uma rede


neural TLFN usada para o estudo da previso do comportamento do IBOVESPA.

4.2 DADOS DE ENTRADA E SADA

4.2.1 OBTENDO OS DADOS DA SRIE HISTRICA

Os dados de entrada deste trabalho consistem na srie histrica do IBOVESPA


no perodo de 27/06/1997 a 09/05/2008, obtidos do site do Yahoo! Finance [39].

O site do Yahoo! Finance disponibiliza os dados em um arquivo .csv. Desta


forma, para facilitar a obteno e o posterior tratamento dos dados de entrada, foi
desenvolvido um script para Matlab (gentimente cedido pelo laboratrio de
Processamento de Sinais da Universidade Federal do Rio de Janeiro). Tal script tem
como parmetros de entrada a data de incio e a data de trmino do perodo a ser
observado, alm do nome da ao que se deseja obter a srie (no caso deste trabalho, a
entrada foi 27061997', '10052008', '^BVSP). Como sada, esta aplicao insere os
dados obtidos em uma structure do prprio Matlab e em uma planilha do Excel (arquivo
.xls).

O arquivo .xls gerado ser utilizado, posteriormente, na entrada da rede neural.


Este arquivo consiste em uma planilha com os dados do comportamento do ndice dia-a-
dia. A figura 4.1 seguir mostra parte da planilha utilizada.

- 70 -
Figura 4.1 Parte da planilha gerada pelo script e utilizada na entrada da RN.

Como pde ser observado, a planilha indica, alm da data, os valores de


abertura, mximo, mnimo e fechamento correspondentes a cada dia da srie histrica.

4.2.2 VARIVEIS DE ENTRADA DA RN

Como entrada da RN utilizou-se os dados de abertura, mximo, mnimo e


fechamento na ordem inversa a que aparecem na tabela, ou seja, comeando da data
mais antiga at a data mais recente. Isto se deve ao fato da Rede Neural trabalhar com
dados seqenciais, ou seja, a disposio dos dados influi na maneira como a rede se
comporta.

- 71 -
Como no foi possvel obter todos os dados da varivel Volume para todo o
perodo de observao, decidiu-se no utiliz-la como entrada da RN.

A Figura 4.2 a seguir mostra o grfico das variveis de entrada para o perodo de
estudo.

Figura 4.2 Grfico das variveis de entrada da RN.

Para uma melhor visualizao, a figura 4.3 a seguir mostra o grfico da varivel
Fechamento durante o perodo de estudo.

- 72 -
Figura 4.3 Grfico da varivel Fechamento.

4.2.3 PR-PROCESSAMENTO DAS VARIVEIS DE ENTRADA DA RN

Os dados de entrada foram submetidos a um pr-processamento antes de serem


apresentados rede. Este pr-processamento constituiu-se da normalizao das variveis
de entrada, cujo objetivo era diminuir a influncia causada por valores que se destacam
excessivamente em relao aos outros, ou seja, diminuir a distncia entre os valores de
variveis muito espaadas. Para isso, foram utilizadas duas funes da biblioteca do
Matlab: prestd e trastd.

A funo prestd tem por objetivo normalizar as entradas e sadas (targets) de


forma que elas possuam mdia 0 (zero) e desvio-padro 1 (um). Esta funo retorna um
vetor com as mdias normalizadas e outro com os targets normalizados, ambos com
mdia zero e desvio-padro igual a 1 (um). Tambm retorna dois vetores com as mdias
e desvios-padro da matriz de entrada original e dois vetores contendo as mdias e

- 73 -
desvios-padro dos targets originais. Aps o treinamento da rede, esses vetores so
utilizados na transformao de quaisquer outros vetores de entrada, tornando-se, assim,
parte integrante da rede, tal como os pesos.

Aps o pr-processamento dos dados de treinamento, toda vez que a rede for
utilizada com novas entradas necessrio que elas tambm sejam pr-processadas com
as mdias e desvios-padro que foram calculados para o conjunto de treinamento. Isto
realizado com o emprego da funo trastd, utilizada para o conjunto de testes da RN.

Por fim, para realizar a converso dos valores de sada para as mesmas unidades
dos valores de entrada foi utilizada a funo poststd.

4.2.4 VARIVEL DE SADA DA RN

Neste trabalho, escolheu-se como sada a ser obtida pela rede neural a varivel
Fechamento no dia posterior ao dia de observao. De acordo com a definio de
proporo do conjunto dos valores de entrada, visto mais adiante em 4.3.3, o perodo de
previso vai do dia 10/03/2006 at 09/05/2008.

4.3 A REDE NEURAL

4.3.1 INTRODUO

A utilizao de redes neurais impe a escolha de alguns parmetros na definio


do modelo que mais se aproxime da resposta ideal. Neste trabalho, buscou-se o
desenvolvimento de um algoritmo capaz de, por si s e aps sucessivos testes, escolher a
rede com a resposta mais satisfatria possvel. Tal algoritmo foi desenvolvido e
implementado com o auxlio do Matlab.

4.3.2 ARQUITETURA DA REDE

- 74 -
Para este trabalho, a arquitetura de rede escolhida foi a TLFN, freqentemente
utilizada em aplicaes financeiras. Como j visto anteriormente, este tipo de rede
feedforward permite como entrada valores atuais e tambm atrasados no tempo. Ser
mostrado mais adiante que a escolha deste modelo possibilitou a implementao de um
algoritmo mais robusto no que diz respeito otimizao da rede.

A rede escolhida foi modelada em 3 camadas, ou seja, uma camada de entrada,


uma camada oculta e outra de sada. Esta escolha seguiu a recomendao de Fausett
[34]. Segundo ele, duas ou mais camadas ocultas podem ser benficas em algumas
aplicaes, porm, uma nica camada oculta considerada suficiente.

Para implementao da rede foram utilizadas duas funes de ativao diferentes,


ambas encontradas nas bibliotecas do Matlab: tan-sigmoid e purelin. Como funo de
ativao para os neurnios da camada oculta, uma funo sigmoidal foi escolhida: tan-
sigmoid. Esta funo no-linear, com range entre -1 e 1, muito utilizada em redes
multicamadas e pode ser expressa de acordo com a equao 4.1 a seguir:

2
( ) = 1, (4.1)
1 + e 2

onde a soma dos pesos das entradas.

Esta funo matematicamente equivalente a tanh(v), porm mais rapidamente


implementada no Matlab. Seu grfico mostrado na figura 4.4 a seguir.

Figura 4.4 Grfico da funo tan-sigmoid.


Fonte: Matlab, documentao.

- 75 -
Para a camada de sada, a funo aplicada foi a purelin. Trata-se de uma funo
linear com range entre infinito e cujo grfico mostrado na figura 4.5 a seguir:

Figura 4.5 Grfico da funo purelin.


Fonte: Matlab, documentao.

A funo performance utilizada neste trabalho foi a funo erro quadrtico


mdio (MSE). Esta funo, tambm muito utilizada neste tipo de aplicao, tem por
objetivo medir o desempenho da rede atravs do clculo de seu erro mdio, de acordo
com a equao 4.2 a seguir:

MSE ( y ) = E ((T y ) 2 ) (4.2)

onde T = valor a ser alcanado (target);

y = valor da sada da rede.

O algoritmo desenvolvido permitiu, tambm, a definio do nmero de redes que


seriam utilizadas para a realizao dos testes. Convencionou-se que este nmero seria
igual a 20 (vinte). Assim, durante o processo de criao de redes, o algoritmo criou um
total de 20 redes para cada conjunto de janelamento (ver 4.3.3). Desta forma, como

- 76 -
foram definidas 5 janelas para cada conjunto, o total de redes treinadas, testadas e
validadas foi igual a 100.

O nmero de neurnios na camada escondida foi sendo alterado e testado


medida que novas iteraes eram feitas. O valor do nmero inicial de neurnios da
camada escondida foi definido, primeiramente, como sendo a mdia entre o nmero de
entradas e o nmero de sada, de acordo com a equao 4.3 a seguir:

NE + NS
NH = (4.3)
2

onde NH = no inicial de neurnios da camada escondida;

NE = no de neurnios na camada de entrada;

NS = no de neurnios na camada de sada;

Desta forma, devido configurao da melhor rede escolhida pelo script


(mostrada no Captulo 5), de incio o algoritmo comeou a ser executado com um
nmero de neurnios igual a 32 (trinta e dois) e foi configurado para incrementar em 10
(dez) esse nmero a cada vez que o ciclo de janelamento de entrada (explicado no tpico
seguinte) fosse completado.

Entretando, este clculo do nmero de neurnios da camada escondida foi


modificado na segunda configurao utilizada para encontrar a melhor rede neural. Ao
invs da mdia, optou-se por definir o nmero inicial de neurnios da camada escondida
como sendo apenas a soma entre o nmero de entradas e o nmero de sadas, de acordo
com a equao 4.4. Assim, foi possvel verificar o desempenho da rede tambm para
este parmetro (nmero de neurnios).

NH = NE + NS (4.4)

- 77 -
onde NH = no inicial de neurnios da camada escondida;

NE = no de neurnios na camada de entrada;

NS = no de neurnios na camada de sada;

Outro parmetro importante foi o nmero de pocas, que consistia no nmero


mximo de iteraes que cada rede deveria fazer. Como no foi encontrado em qualquer
bibliografia um mtodo ou modelo para definir o valor deste parmetro, optou-se,
inicialmente, por escolher um valor bem acima do normalmente empregado em outros
trabalhos, como, por exemplo, o de Mello [35], no qual o nmero de pocas variava
entre 20 (vinte) e 100 (cem). Com isso, definiu-se, inicialmente, o numero de pocas
deste trabalho em 30000 (trinta mil). Esta escolha, como visto no Captulo 5, no
produziu um resultado considerado satisfatrio e uma outra configurao se fez
necessria., desta vez utilizando 5000 (cinco mil) pocas.

4.3.3 INICIALIZAO DA REDE

Aps a obteno da planilha com os dados das variveis correspondentes a cada


dia de observao, estes foram separados na seguinte proporo: 70% para treinamento
da rede (dados de 11/07/1997 a 10/02/2005), 10% para validao (dados de 11/02/2005
a 09/03/2006) e 20% de teste (dados de 10/03/2006 a 09/05/2008).

O algoritmo para implementao da RN foi desenvolvido com a capacidade de


variar a janela de entrada dos dados. Como descrito anteriormente, as entradas da rede
consistiam nas variveis Abertura, Mximo, Mnimo e Fechamento, referentes a cada dia
do perodo de estudo. Proporcionado pela escolha da arquitetura TLFN, foi possvel
desenvolver um algoritmo cuja entrada de dados podia ser variada entre os dias D-3 e D-
7. Desta maneira, aps testar a entrada da rede considerando os trs dias imediatamente
anteriores ao dia a ser previsto (D-3), o algoritmo passava ento a considerar os quatros
dias anteriores ao dia da previso (D-4), e assim por diante, at o dia D-7. Este processo,

- 78 -
chamado algumas vezes de janelamento, juntamente com a variao do nmero de
neurnios da camada escondida, permitiu ao algoritmo, ao final da execuo, apontar a
rede com a melhor configurao.

Devido utilizao deste processo de janelamento, uma pequena adaptao em


parte dos dados de entrada foi necessria. Os dados de entrada foram utilizados a partir
do 8 (oitavo) dia a contar da data inicial. Por exemplo, a janela D-3 utiliza como entrada
os 3 (trs) dias anteriores a esta. Porm, no incio do perodo de observao estes dias
no existem. O mesmo ocorre para as outras janelas. Desta forma, optou-se por utilizar
os dados a partir do 8 (oitavo) dia, quando todas as janelas poderiam ser efetivamente
atendidas.

4.3.4 TREINAMENTO, VALIDAO E TESTE

O algoritmo de treinamento utilizado foi o trainrp, prprio do Matlab. Trata-se


de um algoritmo que atualiza os pesos de acordo com um algoritmo de backpropagation.

Como j mencionado, redes multicamadas geralmente utilizam funes de


transferncia sigmoidais em suas camadas escondidas. Devido ao fato dessas funes
possurem um range entre -1 e 1, medida que os valores de entrada aumentam, a
derivada se aproxima de zero. Desta maneira, ao treinar redes desse tipo, o gradiente
acabar por possuir valores muito pequenos e, com isso, apenas pequenas mudanas nos
pesos so efetuadas, mesmo que estes ainda estejam muito distantes dos seus valores
ideais.

A utilizao do algoritmo trainrp se d com o intuito de eliminar esses efeitos.


Com este algoritmo, o sinal da derivada utilizado para determinar somente a direo
em que o peso deve ser atualizado, e no o seu valor, o qual atualizado por um valor
em separado. O valor a ser alterado para cada peso acrescido de um fator INC sempre
que a derivada da funo performance tiver o mesmo sinal por duas iteraes sucessivas.
O valor do peso decrescido por um fator DEC sempre que o sinal da derivada se alterar
entre uma iterao e outra. Caso a derivada seja zero, o valor do peso no se altera.

- 79 -
A definio do valor de validao seguiu as recomendaes gerais para este tipo
de parmetro, sendo definido, inicialmente, com o valor de 25%. Porm, como
acontecido com o nmero inicial de pocas, esta configurao no teve um resultado
considerado satisfatrio e acabou, tambm, por ser alterada. Definiu-se ento em 10% o
valor do parmetro de validao. Desta forma, o algoritmo, durante o processo de
validao, verificava se o MSE da validao aumentou em relao ao erro mnimo
estabelecido. Caso este aumento ocorresse em 10% do total de pocas, o algoritmo
finalizava o processo de treino e validao da rede correspondente, exibindo a
mensagem Validation Stop.

Um teste para verificar a convergncia da rede tambm foi realizado. Ao fim do


processo de treino e validao de cada rede, uma comparao entre o 1 e o ltimo
MSEs da rede efetuada, de acordo com a equao 4.5 a seguir:

MSE1
CONV = (4.5)
MSE N

onde, CONV = convergncia da rede;

MSE1 = 1 MSE da rede; Se C ONV 10 rede converge.

MSEN = ltimo MSE da rede.

Aps os processos de treinamento e validao, cada rede , ento, submetida ao


conjunto de teste. Este, como mencionado em 4.3.3, consiste em 20% dos dados da
planilha com a srie histrica. Os testes so realizados para cada configurao de rede,
ou seja, cada rede com sua respectiva janela de entrada submetida ao processo de teste.
Isto quer dizer que, no presente trabalho, foram realizados teste em 100 (cem) redes
diferentes.

Ao trmino do processo de testes o algoritmo aponta a melhor configurao de


rede, baseado no menor MSE de teste obtido.

- 80 -
4. 4 MTRICAS PARA ANALISE DOS RESULTADOS

Para avaliao do modelo de previso utiizado neste trabalho foram empregados


dois mtodos distintos: clculo da taxa de acerto de direo e clculo do percentual de
acertos da sada da rede em relao ao valor original.

4.4.1 CLCULO DA TAXA DE ACERTO DE DIREO

O clculo da taxa de acerto de direo procurou medir se a rede neural fora capaz
de prever com sucesso as tendncias do mercado no perodo de teste. Desta maneira,
buscou-se comparar as tendncias de sada do sistema de previso proposto com as
tendncias reais apresentadas pelo ndice IBOVESPA. Isto se deu calculando as
diferenas entre dois dias consecutivos de ambos os casos e comparando os sinais entre
eles. Caso ambos tivessem sinais iguais, significava que a rede tinha acertado a previso.

O algoritmo a seguir ilustra o mtodo de clculo descrito:

onde: SaidaN o valor da varivel fechamento calculado pela Rede Neural para o dia
N;

- 81 -
SaidaN+1 o valor da varivel fechamento calculado pela Rede Neural para o dia
N+1;

RealN o valor real da varivel fechamento para o dia N;

RealN o valor real da varivel fechamento para o dia N+1.

- 82 -
4.4.2 CLCULO DO PERCENTUAL DE ACURCIA DA SADA DO
SISTEMA

Outro mtodo para medio dos resultados do sistema proposto foi o clculo do
percentual de acurcia da sada da rede em relao ao valor original. Como j
informado, a rede neural desenvolvida tem como sada a previso dia-a-dia da varivel
fechamento. Desta forma, comparou-se o nmero de vezes em que a rede neural fora
capaz de acertar o valor da varivel fechamento considerando uma margem de erro
que variava entre 1% e 5% .

- 83 -
5 APLICAO E RESULTADOS

5.1 INTRODUO
Este captulo apresenta a anlise dos resultados obtidos no desenvolvimento
deste trabalho e est dividido em trs partes. Primeiramente, so mostrados os resultados
de uma rede neural cuja configurao no apresentou um resultado considerado
satisfatrio e, por isso, fora descartada. Depois, uma segunda rede neural apresentada,
esta, sim, com um resultado satisfatrio; atendendo, dessa maneira, o objetivo principal
deste trabalho. Por fim, feita uma breve anlise dos resultados desta rede, com o intuito
de validar os dados obtidos com a rede neural.

5.1 REDE NEURAL COM CONFIGURAO NO


SATISFATRIA

O primeiro conjunto de redes neurais desenvolvido para este trabalho no foi


considerado eficiente na previso da varivel Fechamento. Os dados de entrada foram os
mesmo mencionados no captulo 4, porm a resposta da rede no foi satisfatria. A
tabela 5.1 a seguir contm os parmetros utilizados para treinamento, validao e teste
de tal conjunto:

Parmetro Valor

No de redes 20

Sadas 1

Janelas D-3 a D-7

Total de redes 100


No. inicial de neurnios na
17
camada escondida

- 84 -
Incremento no de neurnios da
camada escondida a cada nova 10
iterao

No de pocas 30000

Erro mnimo 10-6


Validao 25%
Algoritmo de treinamento trainrp

Funes de ativao tan-sigmoid, purelin


Tabela 5.1 Parmetros de configurao do 1o conjunto de redes desenvolvido.

Como pde ser observado da tabela anterior, o nmero de pocas escolhido foi
bastante elevado, juntamente com o valor de validao. Esta escolha deveu-se crena
de que o algoritmo sempre seria capaz de diminuir o erro medida que novas iteraes
fossem feitas. Da mesma forma, acreditava-se que a rede pudesse atingir ou chegar
prxima ao erro escolhido (10-6).

Ao final de todo processo de teste, o script apontou como melhor rede quela
com as caractersticas mostradas na tabela 5.2 a seguir.

No neurnios camada escondida 67

MSE 0.09726

Janela D-6

MSE mdio de teste 12.2035

Desvio padro do MSE de teste 32.7198


Tabela 5.2 Caractersticas da melhor rede.

O log deste processo encontra-se em um arquivo anexo a este documento.

Porm, esta configurao mostrou-se equivocada, produzindo um resultado


insatisfatrio, como pode ser visto na anlise do grfico de sada da rede, mostrado na
figura 5.1.

- 85 -
- 86 -
- 87 -
- 88 -
- 89 -
Figura 5.1 Grfico de sada da rede cujo resultado no foi satisfatrio.

A partir do grfico anterior percebe-se que a rede no retornou uma sada


satisfatria, principalmente a partir do ducentsimo dia, aproximadamente. A escolha de
um elevado nmero de pocas e de um alto valor de validao implicou um aumento do
MSE, ou seja, a rede tornou-se muito tolerante a erros.

Outro fator que tambm contribuiu para o mau resultado foi a escolha de um erro
mnimo com valor muito baixo. Isto acabou por fazer com que a rede buscasse sempe
esse valor desnecessariamente pequeno com a inteno de otimizar o resultado.
Entretanto, o que se viu foi um aumento do MSE, o que acabou por deteriorar a sada da
rede.

- 90 -
5.2 RESULTADOS DA REDE NEURAL COM CONFIGURAO
SATISFATRIA

Aps o desenvolvimento do primeiro conjunto de RN, percebeu-se que alguns


parmetros deveriam ser alterados de forma a melhorar a sada do sistema. Desta
maneira, optou-se pela configurao mostrada na tabela 5.3.

Parmetro Valor

No de redes 20

Sadas 1

Janelas D-3 a D-7

Total de redes 100


No. inicial de neurnios na
33
camada escondida
Incremento no de neurnios da
camada escondida a cada nova 10
iterao

No de pocas 5000

Erro mnimo 10-3


Validao 10%
Algoritmo de treinamento trainrp
Funes de ativao tan-sigmoid, purelin
Tabela 5.3 Parmetros de configurao do 2 conjunto de RNs.

Com a configurao anterior procurou-se diminuir o MSE de sada da rede a


partir da alterao do nmero inicial de neurnios na camada escondida, do nmero de
pocas, do erro mnimo e do valor de validao.

Baseado nas configuraes do conjunto de redes anterior a este, decidiu-se por


diminuir o nmero de pocas. Isto fez com que o novo conjunto de redes tivesse, em
geral, desempenho superior ao conjunto anterior em relao ao MSE de teste.

- 91 -
O erro mnimo a ser obtido pela rede tambm teve seu valor alterado em relao
ao conjunto anterior. Acreditava-se que o valor anterior (10-6) era desnecessariamente
baixo, tornando-se, assim, um parmetro desprezvel pela rede, j que dificilmente seria
alcanado. Na nova configurao, optou-se por um valor acima do anterior, porm ainda
bastante aceitvel para este tipo de aplicao. Desta maneira, escolheu-se o valor 10 -3
para este parmetro.

O valor de validao foi outro parmetro alterado nesta nova configurao. Com
o valor anterior (25%), a rede mostrou-se muito tolerante a erros. Com isso, ao substitu-
lo pelo valor de 10%, procurou-se diminuir tal tolernica, com a qual a rede no havia
apresentado bons resultados anteriormente.

O nmero inicial de neurnios na camada escondida tambm foi alterado,


passando de 17 para 33. Esta alterao deveu-se observao do resultado da primeira
configurao da rede; atravs dela percebeu-se que a melhor rede escolhida pelo script
possua um nmero de neurnios na camada escondida muito superior ao valor inicial.
Concluiu-se, assim, que seria razovel comear o novo treinamento com um valor mais
elevado de neurnios na camada escondida.

Com tais configuraes, a melhor rede escolhida pelo script teve as seguintes
caractersticas, mostradas na tabela 5.4 a seguir:

No neurnios camada escondida 93

MSE 0.041396

Janela D-7

MSE mdio de teste 7.3575.

Desvio padro do MSE de teste 11.4235


Tabela 5.4 Caractersticas da melhor rede.

O log deste processo encontra-se em um arquivo anexo a este documento.

O grfico de sada pode ser visto na figura 5.2. Nele encontram-se duas curvas da
varivel fechamento: a real e a prevista pela rede neural.

- 92 -
Figura 5.2 Grfico de sada da melhor rede.

A figura 5.3 a seguir mostra o mesmo grfico, porm com um perodo de 150
dias, para melhor visualizao.

- 93 -
Figura 5.3 Grfico de sada da melhor rede com range de 150 dias.

Pode-se perceber pelos dois grficos anteriores que a rede neural conseguiu
realizar uma previso altamente satisfatria da varivel Fechamento, principalmente nos
trezentos primeiros dias, quando o erro da rede foi menor. A partir da, a rede neural teve
mais dificuldade em realizar a previso, o que pode ser visto pelo aumento da distncia
entre os pontos da curva de previso e a curva real. Apesar disso, o resultado final
continuou satisfatrio, como ser mostrado na seo seguinte.

Vale ressaltar que nesta configurao percebeu-se, tambm, uma diminuio do


tempo de processamento do script em torno de 10 vezes em relao ao primeiro conjunto
de redes.

O resultado aqui obtido supera o resultado obtido por Almedia e Zanetti Jr [36].
Ao analisar um perodo compreendido entre os anos de 1994 e 1998 utilizando o mtodo
de aprendizado Vanilla Backpropagation (ou Online Backpropagation) para prever o
comportamento dirio das aes da Telebrs, estes autores no obtiveram sucesso.

- 94 -
Segundo os mesmos, na concluso do prprio trabalho, o (...) mtodo de avaliao e
seleo da melhor rede tambm poderia ser alterado de forma que a melhor rede fosse
aquela que apresentasse o menor MSE para o conjunto de dados de treinamento; e em
certos perodos o MSE do conjunto de validao seria avaliado, a fim dedeterminar
quando o treinamento deveria ser interrompido.

5.2.1 TAXA ACERTO DE DIREO E PERCENTUAL DE ACURCIA DA


SADA DO SISTEMA

Para efeitos de validao do sistema e considerando os valores da varivel


fechamento retornados pela rede, calculou-se o percentual de acurcia do modelo de
previso e a taxa de acertos de direo.

5.2.1.1 Percentual de acurcia do modelo de previso

Para essa anlise, foi desenvolvida uma planilha em Excel com os dados de sada
da rede referentes a cada dia de previso e com os dados reais do mesmo perodo.
Definiu-se, ento, as margens de tolerncia entre as quais os erros de previso seriam
tidos como aceitveis; estas foram 1%, 2%, 3%, 4% e 5%. Desta maneira,
verificou-se dia-a-dia se o resultado de previso da RN estava dentro das margens
estabelecidas. Assim, considerou-se como acerto os resultados de sada da rede que
estavam dentro das margens estabelecidas. A figura 5.4 a seguir ilustra os resultados
obtidos.

- 95 -
Percentual de acurcia da sada do sistema
considerando margens de erro

100%
Percentual de acertos

27,15
80% 40,64
56,93
60% 72,47
84,64 Erros
Acertos
40% 72,85
59,36
20% 43,07
27,53
15,36
0%
1 2 3 4 5
Margem (%)

Figura 5.4 Grfico do percentual de acurcia da sada do sistema.

A partir do grfico anterior possvel notar que, com uma margem entre 3% e
4%, o percentual de acertos comea a superar os 50%. Com uma margem de 5%, o
percentual de acertos chega a 72,85%.

5.2.1.2 Taxa de acerto de direo

Nesta anlise buscou-se saber qual a capacidade da rede de acertar a previso


diria de tendncias. A figura 5.5 a seguir ilustra o resultado obtido.

- 96 -
Percentual de acertos/erros da tendncia

100
90
80
70
60
55,91
Percentual 50 44,09
40
30
20
10
0
Acertos Erros

Figura 5.5 Grfico do percentual de acertos/erros da tendncia.

A rede neural desenvolvida para este trabalho conseguiu prever a tendncia


correta da movimentao do ndice em 55,91%. Isto significa dizer, em outras palavras,
que o modelo de previso desenvolvido tem por caracterstica acertar a previso de
tendncias na maioria dos casos.

- 97 -
6 CONCLUSES
Este estudo apresenta um modelo baseado em redes neurais de previso do ndice
da Bolsa de Valores de So Paulo. O perodo a ser previsto foi de 10 de maro de 2006 a
9 de maio 2008. Porm, para treinamento e validao da rede foram utilizados dados de
11 de julho de 1997 a 9 de maro de 2006.

Os obejtivos especficos definidos no incio deste trabalho foram todos


atendidos:
Foi desenvolvido um script para obteno dos dados do IBOVESPA
relativos ao perodo de estudo. Tal script foi fundamental para o
posterior desenvolvimento do projeto, pois, ao facilitar a obteno dos
dados, permitiu uma economia de tempo que pde ser usado em outras
fases;
A implementao da rede se deu, tambm, atravs de um script para
Matlab. A opo por implementar a rede atravs de linha de comando, ao
invs de utilizar uma toolbox especfica do prprio Matlab, mostrou-se
acertada, pois permitiu o desenvolvimento de uma lgica capaz de testar
inmeras redes e escolher a melhor entre elas. Esta opo possibilitou
tambm a alterao de parmetros mais facilmente, de forma a buscar a
melhor configurao da rede.

O modelo proposto retornou uma sada satisfatria, tanto em termos do


MSE medido entre a sada e o valor real, quanto para a medida de
acurcia e da taxa de acerto de direo. Os resultados obtidos mostraram-
se superiores aos de dois outros trabalhos.
Desta forma, ficou demonstrado que possvel aplicar o conceito de
Redes Neurais para a previso de sries histricas, em especial sries
financeiras, e obter resultados coerentes e satisfatrios.
H muitas possibilidades de trabalhos futuros. Uma delas a alterao do
algoritmo desenvolvido de forma a realizar previses semanais e no
dirias. Isto tornaria o sistema menos suscetvel a rudos e facilitaria a
previso de tendncias.

- 98 -
Outra possibilidade seria o desenvolvimento de um software comercial
capaz de obter os dados da srie histrica e realizar as previses para um
perodo de tempo escolhido pelo usurio.
A alterao das configuraes da rede neural tambm poderia ser feita,
de forma a tentar melhorar os resultados obtidos. Isto se daria com a
modificao dos parmetros nmero de pocas e valor de validao,
com a inteno de diminuir o MSE de teste e, com isso, ajudar o sistema
a aumentar sua acurcia.

- 99 -
BIBLIOGRAFIA

[1] ARMANO, G.; MARCHESI, M.; MURRU, A. A hybrid genetic-neural architecture


for stock indexes forecasting. Information Sciences. v. 170, p. 3-33, 2005.

[2] HAUGEN, R. A. Modern Investment Theory. Upper Saddle River, New Jersey:
Prentice Hall, 1997.

[3] JENSEN, M. C. Some anomalous evidence regarding market efficience. Journal of


Financial Economics. v. 6, p. 95-101, 1978.

[4] FAMA, E. F. Efficient capital markets; a review of theory and empirical work.
Journal of Finance. 1970

[5] DISORNTETIWAT, P. Global stock index forecasting using multiple generalized


regression neural networks with a gating network. PhD Thesis, University of Mis-
souri-Rolla, 2001.

[6] COSTA JR, N. C. A. Sazonalidades do IBOVEPA. Revista de Administrao de


Empresas, 1990.

[7] Desai, H., Jain, P. Long-run common stock returns following splits and reverse
splits. Journal of Business, 1997.

[8] DAVIDSSON, Marcus. Stock Market Anomalies - A Literature Review and Estima-
tion of Calendar affects on the S&P 500 index., 2006

[9] LEITE, J. C. Splits: ineficincia no mercado de aes. Revista de Administrao de


Empresas, 1994.

[10] NORONHA, Mrcio. Anlise Tcnica, 2005.

[11] DORFFNER, G. Neural Networks for Time Series Processing, Neural Network
World, 1996.

[12] Box, Jenkins G. E. Box & G. M. Jenkins, Time Series Analysis: Forecasting and
Control, Holden-Day, San Francisco, CA, 1970.

[13] PRUDNCIO, Ricardo Bastos Cavalcante. Projeto hbrido de redes neurais. Uni-
versidade Federal de Pernambuco, 2002

[14] Portal Capes. Site: www.portalcapes.com.br

[15] SOUTO-MAIOR, Csar Duarte. Previso da direo de movimento de ndices de


aes usando um sistema fuzzy. 2007.

- 100 -
[16] TEIXEIRA, J. C.; RODRIGUES, A. J. An applied study on recursive estimation
methods, neural networks and forecasting. European Journal of Operational Re-
search., 1997.

[17] GENAY, R. The predictability of security returns with simple technical trading
rules. Journal of Empirical Finance, 1998.

[18] YU, S. Forecasting and arbitrage of the Nikkei stock index futures: an application
of backpropagation networks. Asia-Pacific Financial Markets, 1999.

[19] PANDA, C.; NARASIMHAN, V. Predicting stock returns: an experiment of the


artificial neural network in Indian stock market. South Asia Economic Journal,
2006.

[20] GOMES, F.C. Os modelos ARIMA e a abordagem de Box-Jenkins: uma aplicao


na previso do IBOVEPA a curtssimo prazo. Revista de Administrao de Empre-
sas, 1989.

[21] RIBEIRO, T. S.; SILVA, A. L. C. Do artificial neural networks provide better fore-
casts? Evidence from latin american stock indexes. In: XXIX Enampad, 2005,
Braslia.

[22] GRUDNITSKI, G.; OSBURN, L. Forecasting S&P and gold futures prices: an ap-
plication of neural networks. Journal of Futures Markets, 1993.

[23] FERNNDEZ-RODRGUEZ, F.; GONZLEZ-MARTEL, C.; SOSVIL-


LA-RIVERO, S. On the profitability of technical trading rules based on artificial
neural networks: evidence from the Madrid stock market. Economics Letters, 2000.

[24] HAYKIN, Simmon Neural Networks A comprehensive foundation. 2nd Edition,


2005.

[25] W.S. McCulloch and W. Pitts. A Logical Calculus of the Ideas Immanent in
Nervous Activity. Bulletin of Mathematical Biophysics, 1943.

[26] D.O. Hebb's,. The Organization of Behavior. New York, Wiley, 1949

[27] ROSENBLATT, F. (1959). Principles of Neurodynamics. New York: Spartan


Books, 1959

[28] JONES, Edward R. An Introduction to Neural Networks - A White Paper. 2004

[29] G. Cybenko. Approximation by Superpositons of a Sigmoid Function. Mathematics


of Control, Signals and Systems. 1989.

[30] G. Cybenko. Continuos Valued Neural Network with two Hidden Layers are Suffi-
cient. Technical Report, Departament of Computer Science, Tufts University, 1988.

[31] HOPFIELD, J. Neural Networks and Physical Systems with Emergent Collectives
Computational Abilities. Proceedings of the National Academy of Sciences , 1982.

- 101 -
[32] JORDAN, M. I. Attractor dynamics and parallelism in a connectionist sequential
machine. In Proceedings of the Eighth Annual Conference of the Cognitive Science
Society, 1986

[33] JORDAN, M. I. Serial OPrder: A Parallel Distributed Processing Approach, San


Diego, La Jolla, CA: Institute for Cognitive Science, University of Califrnia,
1986.

[34] FAUSETT, L. Fundamentals of Neural Networks Architecture, Algorithms, and


Applications. [S.l.]: Prentice Hall International, Inc., 1994.

[35] MELLO, Marlia Terra de. Aplicao de redes neurais no processo de precificao
de aes. Universidade Estadual de Pelotas, 2004.

[36] ZANNETI Jr. Luiz Antonio e ALMEIDA. Fernando C. - Explorao do uso de re-
des neurais na previsao do comportamento de ativos financeiros. Faculdade de Eco-
nomia Administrao e Contabilidade USP. 1998.

[37] http://www.riskglossary.com/link/efficient_market_hypothesis.htm

[38] LAWRENCE, Ramon. Using Neural Networks to Forecast Stock Market Prices.
University of Manitoba. 1997.

[39] http://finance.yahoo.com

- 102 -

You might also like