You are on page 1of 4

UNIVERSIDADE FEDERAL DO PIAU UFPI

Universidade Aberta do Piau UAPI


Polo: So Joo do Piau
Disciplina: Inteligncia Computacional
Professor Coordenador: Vinicius Machado
Tutor a distncia: Jasson Paulo da Silva
Tutor presencial: Marcelo Barbosa Pereira
Aluno: Francisco Marcos Gomes Sousa
3 Lista de Exerccios
1. DADAS AS SEGUINTES SITUAES, DIZER SE O INDICADO A SE APLICAR
APRENDIZADO SUPERVISIONADO OU NO SUPERVISIONADO.

a. Classificao de classes de animais.


No supervisionado
b. Classificao de clientes de um banco em bons maus clientes.
Supervisionado
c. Diagnstico Mdico.
No supervisionado
d. Classificaes de aes no mercado de valores.
No supervisionado
2. EXPLIQUE AS DIFERENAS DOS TRS TIPOS BSICOS DE APRENDIZADO:
SUPERVISIONADO; NO SUPERVISIONADO; E APRENDIZADO POR REFORO.

R - O aprendizado supervisionado ocorre quando os conjuntos de exemplos so fornecidos


ao sistema com suas respectivas classes, com isto objetiva-se classificar os novos conjuntos
ainda no rotulados. So caractersticas desse aprendizado as atividades de predio, tais
como: a) Classificao: previso de classes discretas pr-definidas. b) Regresso: previso de
um valor numrico contnuo. No Aprendizado por Reforo o agente atua em um ambiente
descrito por um conjunto de possveis estados e pode executar, para cada estado, uma ao
dentro de um conjunto de aes possveis, recebendo um valor de reforo a cada vez que
executa uma ao. Este reforo indica o valor imediato da transio estado-ao-novo estado.
Ao longo do tempo, este processo produz uma sequncia de pares estado-ao, e seus
respectivos valores de reforos. O objetivo do agente aprender uma poltica que maximize
uma soma esperada destes reforos a longo prazo.
3. COM RELAO A APRENDIZAGEM POR REFORO, EXPLIQUE SEUS ELEMENTOS
FUNDAMENTAIS: POLTICA, FUNO GANHO, FUNO VALOR, MODELO DO
AMBIENTE.

R - A Poltica de Controle define o comportamento do agente sendo uma funo de estados


para aes Ao = p(estado). A poltica pode ser simplesmente uma tabela ou, em outros
casos, pode envolver computaes complexas. A funo ganho define a meta em um
problema AR. Ela associa um estado (ou par estado-ao) do ambiente a um nmero,

denominado ganho. O objetivo do aprendiz maximizar o ganho acumulado em longo prazo.


A funo valor indica o ganho acumulado em longo termo a partir de um estado, levando em
conta os estados que sucedem o estado em considerao. O Modelo do Ambiente imita o
comportamento do prprio ambiente. Dados o estado e a ao, o modelo antecipa o prximo
estado e o ganho: a) Estado corrente no instante t: s b) Ao a ser tomada: a c) Modelo
antecipa o prximo estado.
4. DESCREVA OS COMPONENTES DE UMA REDE NEURAL, EXPLICANDO A
FUNCIONALIDADE DE CADA UM DOS ELEMENTOS BSICOS DO ELEMENTO
PROCESSADOR (NEURNIO ARTIFICIAL) E AS SUAS POSSVEIS ESTRUTURAS DE
INTERCONEXO
(POSSVEIS
TOPOLOGIAS
PARA
INTERCONEXO
DOS
PROCESSADORES).

R - Uma rede neural artificial composta por vrias unidades de processamento, cujo
funcionamento bastante simples. Essas unidades, geralmente so conectadas por canais de
comunicao que esto associados a determinado peso. As unidades fazem operaes apenas
sobre seus dados locais, que so entradas recebidas pelas suas conexes. O comportamento
inteligente de uma Rede Neural Artificial vem das interaes entre as unidades de
processamento da rede.
5. COMO SE D O TREINAMENTO DE UM PERCPTRON?

R - O treinamento supervisionado do modelo de rede Perceptron, consiste em ajustar os


pesos e os thresholds de suas unidades para que a classificao desejada seja obtida. Para a
adaptao do threshold juntamente com os pesos podemos consider-lo como sendo o peso
associado a uma conexo, cuja entrada sempre igual -1 e adaptar o peso relativo a essa
entrada. Quando um padro inicialmente apresentado rede, ela produz uma sada. Aps
medir a distncia entre a resposta atual e a desejada, so realizados os ajustes apropriados nos
pesos das conexes de modo a reduzir esta distncia. Este procedimento conhecido como
Regra Delta. Esse principio se aplica a maioria dos treinamentos das redes neurais.
6. CONSIDERANDO REDES MULTI-LAYER PERCEPTRONS (MLP) TREINADAS COM O
ALGORITMO BACK PROPAGATION, RESPONDA S SEGUINTES QUESTES:

A. Para que servem os termos (taxa de aprendizado) e (momentum) do algoritmo Back


Propagation? Como e por que eles influenciam no aprendizado da rede neural?
R - - A taxa de aprendizado serve para indicar a velocidade do aprendizado.
A momentum determina o efeito das mudanas passadas dos pesos na direo atual do
movimento no espao de pesos.
B. Qual a diferena entre o treinamento BATCH e INCREMENTAL? Quais as vantagens e
desvantagens de cada um?
R - O modo batch possibilita uma melhor estimativa do vetor gradiente, o que torna o
treinamento mais estvel. Enquanto que o modo incremental um mtodo de agrupamento
do tipo rvore de classificao, cujos ns so conceitos probabilsticos, onde os objetos so
inseridos um a um. Em cada n se guardam as probabilidades (no. de instncias e nmeros de
exemplos contidos em cada classe). Baseado no princpio de que um bom agrupamento deve
minimizar a distncia entre objetos em um grupo (Similaridade inter-grupo) e maximizar a

distncia entre objetos de grupos diferentes (Similaridade intra-grupo). O objetivo encontrar


um bom equilbrio entre essas distncias, sendo uma troca entre a similaridade intra-grupo e a
dissimilaridade inter-grupo dos objetos. Ao tentar classificar um objeto o algoritmo faz quatro
operaes: Insero: Determinar que categoria 'melhor' hospeda um objeto novo. Criar
nova classe: Cria um novo agrupamento para o objeto Combinar: Combina duas classes e
coloca o novo objeto nela. Diviso: Divide uma classe e coloca o objeto em ambas as
classes.
C. Explique o funcionamento da Validao Cruzada e para que ela serve.
R - A validao cruzada uma ferramenta padro para anlise e um importante recurso
para ajudar a desenvolver e ajustar os modelos de minerao de dados. Utiliza-se a validao
cruzada depois de criar uma estrutura de minerao e os modelos de minerao relacionados,
para assegurar a validade do modelo. Serve para comparar o valor de duas propriedades e
falha se no forem iguais e evitar overfitting e para averiguar robustez dos resultados.
Algoritmo: 1) Divide o conjunto de exemplos em dois subconjuntos: conjuntos de
treinamento (TR) e de teste (TE). 2) Usa induo para gerar hiptese H sobre TR. 3) Mede
percentagem de erro de H aplicada TE. 4) Repete passos 1-3 com diferentes tamanhos de TE
e TR, e tendo elemento escolhidos aleatoriamente.
7. EXPLIQUE O FUNCIONAMENTO DO ALGORITMO GENTICO?

R Algoritmo gentico. O princpio bsico do funcionamento dos AGs que um critrio de


seleo que vai fazer com que depois de muitas geraes, o conjunto inicial de indivduos
gere indivduos mais aptos. Inicialmente, gerada uma populao formada por um conjunto
aleatrio de indivduos que podem ser vistos como possveis solues do problema. Durante o
processo evolutivo, esta populao avaliada: para cada indivduo dada uma nota, ou
ndice, refletindo sua habilidade de adaptao a determinado ambiente. Diferem dos mtodos
tradicionais de busca e otimizao, principalmente em quatro aspectos: 1- trabalham com uma
codificao do conjunto de parmetros e no com os prprios parmetros. 2- trabalham com
uma populao e no com um nico ponto. 3- utilizam informaes de custo ou recompensa e
no derivadas ou outro conhecimento auxiliar. 4 - utilizam regras de transio probabilsticas
e no determinsticas.
8. PARA QUE SERVE A APLICAO DO OPERADOR DE MUTAO NA
IMPLEMENTAO DOS ALGORTIMOS GENTICOS? 9. QUAL A FINALIDADE DOS
MTODOS DA ROLETA NA IMPLEMENTAO DOS ALGORITMOS GENTICOS?

R- O operador de mutao serve para introduzir e manter a diversidade gentica da


populao, alterando arbitrariamente um ou mais componentes de uma estrutura escolhida,
fornecendo assim, meios para introduo de novos elementos na populao. Desta forma, a
mutao assegura que a probabilidade de se chegar a qualquer ponto do espao de busca
nunca ser zero, alm de contornar o problema de mnimos locais, pois com este mecanismo,
altera-se levemente a direo da busca. O Mtodo da Roleta tem por finalidade a seleo de
indivduos de uma gerao, os quais, uma vez escolhidos faro parte da prxima gerao,
atravs de um sorteio de roleta. Assim, aos indivduos com alta aptido dada uma poro
maior da roleta, enquanto aos de aptido mais baixa dada uma poro relativamente menor

da roleta. Finalmente, a roleta girada um determinado nmero de vezes, dependendo do


tamanho da populao, e so escolhidos, como indivduos que participaro da prxima
gerao, aqueles sorteados na roleta.

You might also like