Professional Documents
Culture Documents
Intelligenza come capacit diverse Lapproccio moderno allIA: costruzione di agenti intelligenti La visione ad agenti ci offre un quadro di riferimento e una prospettiva diversa allanalisi dei sistemi
ricevono percezioni da un ambiente agiscono sullambiente mediante azioni sono capaci di comunicare sono capaci di collaborare sono capaci di difendersi da altri agenti
Gli agenti hanno credenze, obiettivi, intenzioni ... Gli agenti hanno un corpo e provano emozioni
Percezioni e azioni
Agenti reattivi semplici Agenti basati su modello Agenti con obiettivo Agenti con funzione di utilit Agenti che apprendono
Percezione: input da sensori Sequenza percettiva: storia completa delle percezioni La scelta dellazione funzione unicamente della sequenza percettiva Funzione agente: definisce lazione da compiere per ogni seguenza percettiva. Implementata da un programma agente
Agente e ambiente
Agenti razionali
Un agente razionale interagisce con il suo ambiente in maniera efficace (fa la cosa giusta; la sequenza di stati desiderabile). Serve un criterio di valutazione oggettivo delleffetto delle azioni dellagente (della sequenza di stati dellambiente)
Misura di prestazione
La razionalit relativa a:
Esterna (come vogliamo che il mondo evolva?) Scelta dal progettista a seconda del problema considerando una evoluzione desiderabile del mondo Valutazione su ambienti diversi
la misura di prestazioni le conoscenze pregressa dellambiente le percezioni presenti e passate le capacit dellagente
Agente razionale: per ogni sequenza di percezioni compie lazione che massimizza il valore atteso della misura delle prestazioni, considerando le sue percezioni passate e la sua conoscenza pregressa.
Razionalit e apprendimento
Non si pretendono perfezione e capacit predittive, basta massimizzare il risultato atteso Ma potrebbe essere necessarie azioni di acquisizione di informazioni o esplorative
Raramente tutta la conoscenza sullambiente pu essere fornita a priori. Lagente razionale deve essere in grado di modificare il proprio comportamento con lesperienza (le percezioni passate).
Agenti autonomi
Ambienti
Agente autonomo: un agente autonomo nella misura in cui il suo comportamento dipende dalla sua esperienza. Un agente il cui comportamento fosse determinato solo dalla sua conoscenza built-in, sarebbe non autonomo e poco flessibile
Definire un problema per un agente significa caratterizzare lambiente in cui lagente opera (ambiente operativo). Agente razionale=soluzione Descrizione PEAS dei problemi
A
Domande, suggerimenti test, diagnosi Raccogliere le parti e metterle nei cestini Dare calci al pallone, correre
S
Sintomi, Test clinici, risposte paziente Immagini (pixel di varia intensit) Locazione pallone altri giocatori, porte
Sensori
Telecamere, sensori a infrarossi e sonar, tachimetro, GPS, contachilometri, acelerometro, sensori sullo stato del motore, tastiera o microfono Robot selezionatore Giocatore di calcio Bibliotecario Information broker Insegnante di inglese
Diagnosi Pazienti, corretta, cura del ospedale paziente % delle parti correttamente classificate Fare pi goal dellavversario Nastro trasportatore Altri giocatori, campo di calcio, porte
Arrivare alla Strada, altri veicoli, destinazione, sicuro, pedoni, clienti veloce, ligio alla legge, viaggio confortevole, minimo consumo di benzina, profitti massimi
Propriet dellambiente-problema
Osservabilit
Lapparato percettivo in grado di dare una conoscenza completa dellambiente o almeno tutto quello che serve a decidere lazione Non c bisogno di mantenere uno stato del mondo Sono presenti limiti o inaccuratezze dellapparato sensoriale.
Ambiente singolo/multiagente
Predicibilit
Deterministico
Il mondo pu anche cambiare per eventi, non necessariamente per azioni di agenti.
Se lo stato successivo completamente determinato dallo stato corrente e dallazione. Esempio: scacchi Esistono elementi di incertezza con associata probabilit. Esempi: guida, tiro in porta Se gli stati possibili sono equiprobabili
Stocastico
Non deterministico
Episodico/sequenziale
Statico/dinamico
Episodico
Statico
Lesperienza dellagente divisa in episodi atomici indipendenti. In ambienti episodici non c bisogno di pianificare. Ogni decisione influenza le successive
il mondo non cambia mentre l agente decide lazione tardare equivale a non agire Lambiente non cambia ma la valutazione dellagente s. Esempio: Scacchi con timer.
Dinamico
Sequenziale
Semi-dinamico
Discreto/continuo
Noto/ignoto
Distinzione riferita allo stato di conoscenza dellagente Lagente conosce lambiente oppure deve compiere azioni esplorative? Noto diverso da osservabile Ambienti reali: parzialmente osservabili, stocastici, sequenziali, dinamici, continui, multi-agente, ignoti
Tipologie di ambiente
Osservabile? Deterministico/ stocastico Deterministico Episodico/ sequenziale Sequenziale Statico/ dinamico Statico Discreto/ continuo Discreto Mono/multiagente? Mono
Simulatore di ambienti
Uno strumento software che si occupa di: generare stimoli per gli agenti raccogliere le azioni in risposta aggiornare lo stato dellambiente [attivare altri processi che influenzano lambiente] valutare le prestazioni degli agenti
Osservabile
Simulatore
Struttura di un agente
Agente = Architettura + Programma Ag: P Az percezioni azioni Il programma dellagente implementa la funzione Ag
function Run-Eval-Environment (state, Update-Fn, agents, Performance-Fn) returns scores local variables: scores (a vector of size = #agents, all 0) repeat for each agent in agents do Percept[agent] Get-Percept(agent, state) end for each agent in agents do Action[agent] Program[agent](Percept[agent]) end state Update-Fn(actions, agents, state) scores Performance-Fn(scores, agents, state) until termination(state) return scores
Programma agente
function Skeleton-Agent (percept) returns action static: memory, the agents memory of the world memory UpdateMemory(memory, percept) action Choose-Best-Action(memory) memory UpdateMemory(memory, action) return action
A volte lazione migliore dipende da qual l'obiettivo da raggiungere (es. da che parte devo girare?). Devono pianificare una sequenza di azioni per raggiungere lobiettivo. Meno efficienti ma pi flessibili di un agente reattivo
Obiettivi alternativi
lagente deve decidere verso quali di questi muoversi. necessaria una funzione di utilit (che associa ad uno stato obiettivo un numero reale). la funzione di utilit tiene conto anche della probabilit di successo: utilit attesa
Componente di apprendimento
Produce cambiamenti al programma agente Il programma agente Osserva e da feedback sul comportamento Suggerisce nuove situazioni da esplorare
Elemento esecutivo
3. 4.
Elemento critico
Generatore di problemi
Tipi di rappresentazione
Conclusioni
C B C
(b) Structured
(a) Atomic
(b) Factored
Agenti e programmi agente Misure di prestazioni Classificazione degli ambienti operativi Diverse architetture di complessit crescente per i programmi agente Tutti gli agenti possono migliorarsi con lapprendimento