Processo decisionale di Markov

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

I processi decisionali di Markov (MDP), dal nome del matematico Andrej Andreevič Markov (1856-1922), forniscono un framework matematico per la modellizzazione del processo decisionale in situazioni in cui i risultati sono in parte casuali e in parte sotto il controllo di un decisore. Gli MDP sono utili per lo studio di una vasta gamma di problemi di ottimizzazione, risolti con la programmazione dinamica e l'apprendimento per rinforzo. Gli MDP sono noti fin dal 1950[1]. Essi sono utilizzati in una vasta area di discipline in cui il processo di presa di decisione avviene in un intorno dinamico, tra cui la robotica, l'automazione, l'economia, e la produzione industriale.

Più precisamente, un processo decisionale di Markov è un processo di controllo stocastico a tempo discreto. Se gli spazi degli stati e delle azioni sono finiti, allora il problema è chiamato MDP finito. Gli MDP finiti sono particolarmente importanti per la teoria dell'apprendimento per rinforzo (reinforcement learning).

Definizione[modifica | modifica wikitesto]

Un MDP finito è definito da:

  • uno spazio degli stati ;
  • uno spazio delle azioni che possono essere intraprese in funzione dello stato;
  • le probabilità di transizione definiscono le dinamiche one-step dell'ambiente, ovvero, la probabilità che, dato uno stato e un'azione al tempo , si raggiunga il possibile stato successivo : ;
  • il valore atteso della ricompensa : dato uno stato e un'azione , se si passa allo stato si ottiene una ricompensa pari a ( rappresenta il valore atteso o previsione) ;
  • è il fattore di sconto (discount) che rappresenta l'importante differenza tra le ricompense future (future rewards) e le ricompense presenti (present rewards).

(Nota: la teoria del processo decisionale di Markov non specifica che o sono finiti, ma i precedenti algoritmi di base assumono che lo siano.)

Problema[modifica | modifica wikitesto]

Il problema centrale di un MDP è quello di identificare quale sia la migliore azione da eseguire in un dato stato, in modo da ottenere il massimo valore possibile di una funzione cumulativa della ricompensa. La funzione che per ogni stato identifica l'azione da applicare è chiamata "politica" (policy) stazionaria . Tipicamente questa funzione che valuta la ricompensa è il valore atteso di una somma con sconto su un orizzonte potenzialmente infinito:

dove sono le azioni date dalla politica , è il fattore di sconto compreso fra 0 e 1.

Per via della proprietà di Markov, la politica ottimale che massimizza la ricompensa con sconto attesa, per questo problema può essere scritta come una funzione del solo stato . Per ottenere una politica ottimale in tempo polinomiale per un MDP dato, spesso si usano algoritmi di programmazione lineare o, più tradizionalmente, di programmazione dinamica[2].

Algoritmi[modifica | modifica wikitesto]

La famiglia standard di algoritmi che calcola questa politica ottimale fa uso di due vettori, indicizzati con lo stato, che si chiamano: "valore" , che contiene valori reali, e "politica"' , che contiene le azioni. Quando l'algoritmo termina, contiene la politica soluzione e contiene la somma con sconto delle ricompense da ottenere (in media) seguendo la soluzione a partire dallo stato .

L'algoritmo prevede due tipi di passo: un aggiornamento del valore e un aggiornamento della politica, i quali sono ripetuti in tutti gli stati e in un certo ordine, fintanto che non avvengano più cambiamenti ai valori. I due aggiornamenti, ricalcolano ricorsivamente un nuovo valore stimato per la politica ottimale e per il valore dello stato, usando una stima precedente di questi valori.

L'ordine degli aggiornamenti dipende dalla variante dell'algoritmo. Si possono applicare su tutti gli stati assieme, o stato per stato, sequenzialmente, o anche più spesso per certi stati che per altri. Fintanto che nessuno stato viene escluso dai passi di aggiornamento, l'algoritmo eventualmente convergerà verso una soluzione [3].

Note[modifica | modifica wikitesto]

  1. ^ Bellman, R., A Markovian Decision Process, in Journal of Mathematics and Mechanics, vol. 6, 1957.
  2. ^ Shoham, Y e Leyton-Brown, K, Multiagent systems (PDF), 2010 [2009], p. 476. URL consultato il 10 dicembre 2018.
  3. ^ (EN) Stewart N. Ethier, Markov processes : characterization and convergence, Wiley, 1986, ISBN 9780470316658, OCLC 264621186. URL consultato il 12 dicembre 2018.

Bibliografia[modifica | modifica wikitesto]

  • Ronald A. Howard, Dynamic Programming and Markov Processes, The M.I.T. Press, 1960.

Voci correlate[modifica | modifica wikitesto]