- Est un processus de Markov un martingale?
- Quelle est la différence entre un Martingale et une chaîne Markov?
- Sont toutes les chaînes martingales markov?
- Comment vérifier si un processus stochastique est un martingale?
Est un processus de Markov un martingale?
Propriété de Markov
XN est un processus de Markov. Martingale est un cas particulier de Markov avec F = x et g = x. Cependant, pour que le processus soit Markov, nous avons besoin pour chaque fonction F une fonction correspondante g telle que (6) tient. Donc tous les martingales ne sont pas Markov.
Quelle est la différence entre un Martingale et une chaîne Markov?
Que: Quelle est la différence entre la propriété Markov et un Martingale? Markov signifie où aller ensuite dépend au maximum de l'endroit où nous sommes maintenant. Tout processus avec des incréments indépendants a la propriété Markov, par exemple le mouvement brownien. Martingale signifie que nous nous attendons à ce que la valeur future soit la valeur actuelle.
Sont toutes les chaînes martingales markov?
Non, tous les martingales ne sont pas des processus de Markov.
Comment vérifier si un processus stochastique est un martingale?
Formellement, un processus stochastique comme ci-dessus est un martingale si e [xt+1 | ℱt] = Xt. Souvent, nous remplaçons ℱt avec le σ-algèbre généré par x0... Xt Et écrivez ceci comme e [xt+1| X0... Xt] = Xt.