Propietat de Màrkov

De testwiki
Salta a la navegació Salta a la cerca

Plantilla:Falten referències La propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn:

P(Xn+1|Xn)

Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1.

Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així:

fτ(t)=λeλtt>0

Comprovem que un procés definit per aquesta fdp no té memòria. La probabilitat que hi haja una transició entre 0 i un temps t qualsevol és:

P(0<τ<t)=P(τ<t)=0tλeλτdτ

Si integrem, obtenim:

P(τ <t)=eλ0eλt=1eλt

Ara anem a calcular la probabilitat per al mateix interval t, però amb un instant d'inici diferent t0. Calculem la probabilitat de tindre una transició en l'interval t (de t0 fins a t0+t) condicionat al fet que abans de t0 no hi ha hagut cap transició:

P(t0<τ<t0+t|τ>t0)=p(t0<τ<t0+t)p(τ>t0)

Substituint per les fdp i substituint:

P(t0<τ<t0+t|τ>t0)=t0t0+tλeλτdτt0λeλτdτ=eλt0eλ(t0+t)eλt0eλ=eλt0(1eλt)eλt00=1eλt

Amb la qual cosa queda demostrat que la probabilitat de tindre una transició en un estat no depèn del temps anterior.