Saltar al conteníu

Cadena de Márkov

Esti artículu foi traducíu automáticamente y precisa revisase manualmente
De Wikipedia

Na teoría de la probabilidá, conozse como cadena de Márkov o modelu de Márkov a un tipu especial de procesu estocástico discretu nel que la probabilidá de qu'asoceda un eventu depende solamente del eventu darréu anterior. Esta carauterística de falta de memoria recibe'l nome de propiedá de Markov.

Cadena simple biestable de Markov.

Recibe'l so nome del matemáticu rusu Andréi Márkov (1856-1922), que lo introdució en 1907.[1]

Estos modelos estadísticos cunten con un gran númberu d'aplicaciones reales.

Definición formal

[editar | editar la fonte]

En matemática defínese como un procesu estocástico discretu que cumple cola propiedá de Márkov, esto ye, si conoz la hestoria del sistema hasta'l so intre actual, el so estáu presente resume tola información relevante pa describir en probabilidá'l so estáu futuru.

Una cadena de Márkov ye una secuencia X1, X2, X3,... de variables aleatories. El dominiu d'estes variables ye llamáu espaciu tao; el valor de Xn ye l'estáu del procesu nel tiempu n. Si la distribución de probabilidá condicional de Xn+1 n'estaos pasaos ye una función de Xn por sigo sola, entós:

Onde xi ye l'estáu del procesu nel intre i. La identidá amosada ye la propiedá de Márkov.

Notación útil

[editar | editar la fonte]

Cadenes homoxénees y non homoxénees

[editar | editar la fonte]
  • Una cadena de Márkov dizse homoxénea si la probabilidá de dir del estáu i al estáu j nun pasu nun depende del tiempu nel que s'atopa la cadena, esto ye:
pa tou n y pa cualesquier i, j.

Si pa dalguna pareya d'estaos y pa dalgún tiempu n la propiedá antes mentada nun se cumple vamos dicir que la cadena de Márkov ye non homoxénea.

Probabilidaes de transición y matriz de transición

[editar | editar la fonte]
  • La probabilidá de dir del estáu i al estáu j en n unidaes de tiempu ye
,

na probabilidá de transición nun pasu omítese'l superíndice de cuenta que queda

  • Un fechu importante ye que les probabilidaes de transición en n pasos satisfaen la ecuación de Chapman-Kolmogórov, esto ye, pa cualesquier k tal que 0 < k < n cumplir que

onde Y denota l'espaciu d'estaos.

  • Cuando la cadena de Márkov ye homoxénea, munches de les sos propiedaes útiles pueden llograse al traviés de la so matriz de transición, definida entrada a entrada como

esto ye, la entrada i, j correspuende a la probabilidá de dir del estáu i a j nun pasu.

De la mesma puede llograse la matriz de transición en n pasos como:

, onde .

Vector de probabilidá invariante

[editar | editar la fonte]
  • Defínese la distribución inicial .
  • Vamos Dicir qu'un vector de probabilidá (finito o infinitu numerable) ye invariante pa una cadena de Márkov si

onde P denota la matriz de transición de la cadena de Márkov. Al vector de probabilidá invariante tamién se-y llama distribución estacionaria o distribución d'equilibriu.

Clases de comunicación

[editar | editar la fonte]
  • Pa dos estaos i,j nel espaciu d'estaos Y, vamos dicir que de i aportar a j (y se denotará ) si
pa dalgún n,

si y entós vamos dicir que i comunica con j y se denotará i↔j.

La propiedá "↔" ye una rellación d'equivalencia. Esta rellación induz una partición nel espaciu d'estaos. A estes clases d'equivalencia vamos llamar clases de comunicación.

Dau un estáu x, denotaremos a la so clase de comunicación como C(x).

  • Vamos Dicir qu'un subconxuntu C del espaciu d'estaos (al que denotaremos Y) ye zarráu si nengún estáu de Y-C pue ser aportáu dende un estáu de C, esto ye, si pa tou x∈C, pa tou y∈Y-C y pa tou natural m>0.

Tiempos d'entrada

[editar | editar la fonte]

Si , definimos el primer tiempu d'entrada a C como la variable aleatoria

esto ye, denota la primer vegada que la cadena entra al conxuntu d'estaos C.

Recurrencia

[editar | editar la fonte]

Nuna cadena de Márkov con espaciu d'estaos Y, si xY defínese y vamos dicir que:

  • x ye tao recurrente si .
  • x ye transitoriu si
  • x ye absorbente si
  • Una clase de comunicación ye clase recurrente si tolos sos estaos son recurrentes.

Sía , si x∈Yvamos dicir que:

  • x ye cero-recurrente si
  • x ye positivu-recurrente si

El real interprétase como'l tiempu permediu de recurrencia.

Periodicidad

[editar | editar la fonte]
  • El periodu d'un estáu x∈Y defínese como:

onde denota el máximu común divisor.

  • Si d(x)=1 vamos dicir que x ye un estáu aperiódico.
  • Una cadena de Márkov dizse aperiódica si tolos sos estaos son aperiódicos.

Tipos de cadenes de Márkov

[editar | editar la fonte]

Cadenes errátiques

[editar | editar la fonte]

Una cadena de Márkov dizse irreducible si cumple cualesquier de les siguientes condiciones (equivalentes ente sigo):

  1. Dende cualquier estáu de Y puede aportase a cualesquier otru.
  2. Tolos estaos comunicar ente sigo.
  3. C(x)=Y pa dalgún x∈Y.
  4. C(x)=Y pa tou x∈Y.
  5. L'únicu conxuntu zarráu ye'l total.

La cadena de Ehrenfest o la caminada aleatoria ensin barreres absorbentes son exemplos de cadenes de Márkov irreducibles.

Cadenes positivu-recurrentes

[editar | editar la fonte]

Una cadena de Márkov dizse positivu-recurrente si tolos sos estaos son positivu-recurrentes. Si la cadena ye amás irreducible ye posible demostrar qu'esiste un únicu vector de probabilidá invariante y ta dau por:

Cadenes regulares

[editar | editar la fonte]

Una cadena de Márkov dizse regular (tamién primitiva o ergódica) si esiste dalguna potencia positiva de la matriz de transición que les sos entraes sían toes puramente mayores que cero.

Cuando l'espaciu d'estaos Y ye finito, si P denota la matriz de transición de la cadena tiense que:

onde W ye una matriz con tolos sos renglones iguales a un mesmu vector de probabilidá w, que resulta ser el vector de probabilidá invariante de la cadena. Nel casu de cadenes regulares, ésti vector invariante ye únicu.

Cadenes absorbentes

[editar | editar la fonte]

Una cadena de Márkov con espaciu d'estaos finito dizse absorbente si cumplir los dos condiciones siguientes:

  1. La cadena tien siquier un estáu absorbente.
  2. De cualesquier estáu non absorbente aportar a dalgún estáu absorbente.

Si denotamos como A al conxuntu de tolos estaos absorbentes y al so complementu como D, tenemos les siguientes resultaos:

  • El so matriz de transición siempres puede llevase a una de la forma
.


onde la submatriz Q correspuende a los estaos del conxuntu D, I ye la matriz identidá, 0 ye la matriz nula y R dalguna submatriz.

  • , esto ye, nun importa onde s'atope la cadena, eventualmente va terminar nun estáu absorbente.

Cadenes de Márkov en tiempu continuu

[editar | editar la fonte]

Si en llugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado nel conxuntu de númberos naturales, considérense les variables aleatories Xt con t que varia nun intervalu continuu del conxuntu de númberos reales, vamos tener una cadena en tiempu continuu. Pa esti tipu de cadenes en tiempu continuu la propiedá de Márkov espresar de la siguiente manera:

tal que

Pa una cadena de Márkov continua con un númberu finito d'estaos puede definise una matriz estocástica dada por:

La cadena denominar homoxénea si . Pa una cadena de Márkov en tiempu continuu homoxénea y con un númberu finito d'estaos puede definise'l llamáu xenerador infinitesimal como:[2]

Y puede demostrase que la matriz estocástica vien dada por:

Aplicaciones

[editar | editar la fonte]

Meteorología

[editar | editar la fonte]

Si consideramos el tiempu atmosféricu d'una rexón al traviés de distintos díes, ye plausible asumir que l'estáu actual namái depende del últimu estáu y non de tola historia en sí, de cuenta que pueden usase cadenes de Márkov pa formular modelos climatolóxicos básicos. Por casu, desenvolviéronse modelos de recurrencia de les agües basaos en cadenes de Márkov.[3]

Modelos epidemiolóxicos

[editar | editar la fonte]

Una importante aplicación de les cadenes de Márkov atopar nel procesu Galton-Watson. Ésti ye un procesu de ramificación que puede usase, ente otres coses, pa modelar el desenvolvimientu d'una epidemia (vease modelaje matemáticu d'epidemies).

El pagerank d'una páxina web (usáu por Google nos sos motores de busca) defínese al traviés d'una cadena de Márkov, onde la posición que va tener una páxina nel buscador va ser determinada pol so pesu na distribución estacionaria de la cadena.

Simulación

[editar | editar la fonte]

Les cadenes de Márkov son utilizaes p'aprovir una solución analítica a ciertos problemes de simulación, por casu en teoría de coles el Modelu M/M/1[4] ye de fechu un modelu de cadenes de Márkov.

Xuegos d'azar

[editar | editar la fonte]

Son munchos los xuegos d'azar que pueden modelase al traviés d'una cadena de Márkov. El modelu de la ruina del xugador, (Gambler's ruin), qu'establez la probabilidá de qu'una persona qu'apuesta nun xuegu d'azar finalmente termine ensin dineru, ye una de les aplicaciones de les cadenes de Márkov nesti rubro.

Economía y finances

[editar | editar la fonte]

Les cadenes de Márkov pueden utilizase en modelos simples de valuación d'opciones pa determinar cuándo esiste oportunidá d'arbitraxe, según nel modelu de colapsos d'una bolsa de valores o pa determinar la volatilidá de los precios. Nos negocios, les cadenes de Márkov utilizáronse p'analizar los patrones de compra de los deldores morosos, pa entamar les necesidaes d'alministración de personal personal y p'analizar el reemplazu d'equipu.

Xenética

[editar | editar la fonte]

Empléguense cadenes de Márkov en teoría de xenética de poblaciones, pa describir el cambéu de frecuencies xéniques nuna población pequeña con xeneraciones discretes, sometida a deriva xenética. Foi emplegada na construcción del modelu d'espardimientu de Motō Kimura.

Diversos algoritmos de composición musical usen cadenes de Márkov, por casu el software Csound o Max

=== Operaciones empleguen cadenes de Márkov n'inventarios, caltenimientu, fluxu de procesu

Redes Neuronales

[editar | editar la fonte]

Utilizar nes máquines de Boltzmann (redes neuronales)

Referencies

[editar | editar la fonte]
  1. Basharin, Gely P. (2004). «The Life and Work of A. A. Markov» (n'inglés). Linear Algebra and its Applications 386:  páxs. 3-26. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.4.4887. Consultáu'l 31 de marzu de 2010. 
  2. Masaki Kijima, 1997, p. 175
  3. R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv
  4. Masaki Kijima, 1997, páxs. 287-290.

Bibliografía

[editar | editar la fonte]
  • A.A. Márkov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-yá seriya, tom 15, pp. 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: [1] . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. online: https://web.archive.org/web/20100619011046/https://netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory, 1st, Nueva York: John Wiley and Sons, Inc.. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures, 1st, Englewood Cliffs, N.J.: Prentice-Hall, Inc.. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling, 1st, Cambridge: Chapman & Hall. ISBN 0 412 60660 7.
  • Y. Nummelin. "Xeneral irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

Enllaces esternos

[editar | editar la fonte]