Una cadena de Màrkov , que rep el seu nom del matemàticrusAndrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior.[1][2][3] En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau.
Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907,[4] presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels deutors morosos, per planificar les necessitats de personal i per analitzar el reemplaçament d'equip.
S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov.[1][11]
Definició formal
En les matemàtiques, es defineix com un procés estocàstic discret que compleix amb la propietat de Màrkov, és a dir, si es coneix la història del sistema fins a la seva moment actual, el seu estat present resumeix tota la informació rellevant per descriure en probabilitat el seu estat futur.
Una cadena de Màrkov és una seqüència X 1 , X 2 , X 3 , ... de variables aleatòries. El rang d'aquestes variables, és anomenat espai estat, el valor de X n és l'estat del procés en el temps n . Si la distribució de probabilitat condicional de X n +1 en estats passats és una funció de X n per si sola, aleshores:
On x i és l'estat del procés en l'instant i . La identitat mostrada és la propietat de Màrkov.
Notació útil
Cadenes homogènies i no homogènies
Una cadena de Markov es diu homogènia si la probabilitat d'anar de l'estat i a l'estat j en un pas no depèn del temps en què es troba la cadena, és a dir:
per a tot ni per a qualsevol i, j.
Si per alguna parella d'estats i per algun temps n la propietat abans esmentada no es compleix direm que la cadena de Màrkov és no homogènia.
Probabilitats de transició i matriu de transició
La probabilitat d'anar de l'estat i a l'estat j a n unitats de temps és
,
en la probabilitat de transició en un pas s'omet el superíndex de manera que queda
Les probabilitats de transició solen venir donades mitjançant números reals. Si aquestes probabilitats no es coneixen de manera precisa, cal estimar-les d'alguna manera amb la incertesa que implica qualsevol procediment d'estimació.[12][13] Així, per exemple, es poden estimar mitjançant intervals modals[14] o per números borrosos.[15]
Un fet important és que les probabilitats de transició en n passos satisfan l'equació de Chapman-Kolmogórov, és a dir, per a qualsevol k tal que 0 < k < n es compleix que
on E denota l'espai d'estats.
Quan la cadena de Màrkov és homogènia, moltes de les seves propietats útils es poden obtenir a través de la seva matriu de transició, definida entrada a entrada com
és a dir, l'entrada i, j correspon a la probabilitat d'anar de l'estat iaj en un pas.
De la mateixa manera es pot obtenir la matriu de transició en n passos com:
, on .
Vector de probabilitat invariant
Es defineix la distribució inicial .
Direm que un vector de probabilitat (finit o infinit numerable) és invariant per a una cadena de Màrkov si
on P denota la matriu de transició de la cadena de Markov. Al vector de probabilitat invariant s'anomena distribució estacionària o distribució d'equilibri .
Classes de comunicació
Per dos estats i , j en l'espai d'estats E , direm que d' i s'accedeix a j (i es denotarà ) si
per algun n ,
si i llavors direm que i comunica amb j i es denotarà i ↔ j.
La propietat "↔" és una relació d'equivalència. Aquesta relació indueix una partició de l'espai d'estats. A aquestes classes d'equivalència les anomenarem classes de comunicació .
Donat un estat x , denotarem a la seva classe de comunicació com C (x) .
Direm que un subconjunt C de l'espai d'estats (al qual denotarem E ) és tancat si cap estat de E -C pot ser accedit des d'un estat de C, és a dir, si per a tot x ∈ C, per a tot i ∈ E -C i per a tot natural m> 0.
Una cadena de Màrkov es diu positiu-recurrent si tots els seus estats són positiu-recurrents. Si la cadena és més irreductible és possible demostrar que existeix un únic vector de probabilitat invariant i està donat per:
Cadenes regulars
Una cadena de Màrkov es diu regular (també primitiva o ergòdica ) si hi ha alguna potència positiva de la matriu de transició les entrades siguin totes estrictament majors que zero.
Quan l'espai d'estats E és finit, si P denota la matriu de transició de la cadena s'ha de:
on W és una matriu amb tots els seus línies iguals a un mateix vector de probabilitat w , que resulta ser el vector de probabilitat invariant de la cadena. En el cas de cadenes regulars, aquest vector invariant és únic.
Cadenes absorbents
Una cadena de Màrkov amb espai d'estats finit es diu absorbent si es compleixen les dues condicions següents:
1. La cadena té almenys un estat absorbent.
2. De qualsevol estat no absorbent s'accedeix a algun estat absorbent.
Si denotem com A al conjunt de tots els estats absorbents i al seu complement com D , tenim els següents resultats:
La seva matriu de transició sempre es pot portar a una de la forma
on la submatriu Q correspon als estats del conjunt D, I és la matriu identitat, 0 és la matriu nul i R alguna submatriu.
, és a dir, no importa on es trobi la cadena, eventualment acabarà en un estat absorbent.
Cadenes de Màrkov en temps continu
Si en lloc de considerar una seqüència discreta X 1 , X 2 ,..., X i , .. amb i indexat en el conjunt de nombres naturals, es consideren les variables aleatòries X t amb t que varia en un interval continu del conjunt de nombres reals, tindrem una cadena en temps continu. Per a aquest tipus de cadenes en temps continu la propietat de Markov s'expressa de la següent manera:
tal que
Aplicacions
Física
Les cadenes de Màrkov són usades en molts problemes de la termodinàmica i la física estadística. Exemples importants es poden trobar a la Cadena de Ehrenfest o el model de difusió de Laplace.
Meteorologia
Si considerem el clima d'una regió a través de diferents dies, és clar que l'estat actual només depèn de l'últim estat i no de tota la història en si, de manera que es poden utilitzar cadenes de Markov per formular models climatològics bàsics.
Models epidemiològics
Una important aplicació de les cadenes de Màrkov es troba en el procés de Galton-Watson. Aquest és un procés de ramificació que es pot fer servir, entre altres coses, per modelar el desenvolupament d'una epidèmia (vegeu modelatge matemàtic d'epidèmies).
Internet
El pagerank d'una pàgina web (usat per google en els seus motors de cerca) es defineix a través d'una cadena de Markov, on la posició que tindrà una pàgina en el cercador serà determinada pel seu pes en la distribució estacionària de la cadena.
Jocs d'atzar
Són molts els jocs d'atzar que es poden modelar a través d'una cadena de Màrkov. El model de la ruïna del jugador, que estableix la probabilitat que una persona que aposta en un joc d'atzar eventualment acabi sense diners, és una de les aplicacions de les cadenes de Màrkov en aquest rubro.
Economia i Finances
Les cadenes de Màrkov es poden utilitzar en models simples de valoració d'opcions per determinar quan hi ha oportunitat d'arbitratge, així com en el model de col·lapses d'una borsa de valors o per determinar la volatilitat de preus.
↑ 1,01,11,2Gagniuc, Paul A. Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons, 2017, p. 1–235. ISBN 978-1-119-38755-8.
↑Buckley, J.J.; Eslami, E. (2002). Fuzzy Markov Chains: Uncertain Probabilities. Mathware and Soft Computing 9, 33–41.
↑Villacorta, P.J.; Verdegay, J.L. (2016) FuzzyStatProb: An R Package for the Estimation of Fuzzy Stationary Probabilities from a Sequence of Observations of an Unknown Markov Chain. Journal of Statistical Software 71, 1–27, {{format ref}} https://doi.org/10.18637/jss.v071.i08
A.A.A Markov. "Rasprostranenie zákona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fizik-matematicheskogo obschestva primer Kazanskom universitet , 2-ja seriya, tom 15, pp. 135-156, 1906.
A.A.A Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B de: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains . John Wiley and Sons, 1971.
Leo Breim. Probability . Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (Vegeu Capítol 7.)
Booth, Taylor L. Sequential Machines and Automata Theory. Nova York: John Wiley and Sons, Inc, 1967. Library of Congress Card Catalog Number 67-25924.Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
Kemeny, John G.; Hazleton Mirkil, J. Laurie Snell, Gerald L. Thomas. Finite Mathematical Structures. Englewood Cliffs, NJ: Prentice-Hall, Inc, 1959. Library of Congress Card Catalog Number 59-12841.Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
E. Nummelin. "General irreductible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X