Présentation
En anglaisRÉSUMÉ
La notion de chaîne a été introduite en 1902 par Andrei Markov dans le but de formaliser des problèmes d'épistémologie et de cryptage. Plus tard, vers 1940-1950, est apparu un formalisme beaucoup mieux adapté, proposant des modes opératoires effectifs s'inspirant de la théorie générale des processus stochastiques et de la théorie du potentiel. Cette présentation est élémentaire et ne nécessite que des connaissances de base en probabilités. Des exemples illustrent la théorie débouchant sur des procédures algorithmiques génériques : algorithmes de recherche de mesures invariantes, de la programmation dynamique et des chaînes de Markov cachées.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
The concept of the chain was introduced in 1902 by Andrei Markov in order to formalize epistemologic and encryption issues. Later, around the years 1940-1950, a much better and adapted formalism appeared, offering effective operating modes inspired by the general theory of stochastic processes and the potential theory. This presentation is basic and only requires a basic knowledge in probabilities. Examples illustrate the theory leading to generic algorithmic approaches: algorithms for invariant measures, dynamic programming and hidden Markov chains.
Auteur(s)
-
Jean LACROIX : Professeur à l'université Paris VI
INTRODUCTION
La notion de chaîne a été introduite en 1902 par Andrei Markov dans le but de formaliser des problèmes d'épistémologie et de cryptage.
L'espace d'états est alors fini et, durant une longue période, beaucoup d'utilisateurs se sont contentés de manipulations matricielles qui trouvent rapidement leurs limites, même avec les moyens informatiques actuels. Ce n'est que vers les années 1940-1950 qu'est apparu un formalisme beaucoup mieux adapté, proposant des modes opératoires effectifs qui s'inspirent de la théorie générale des processus stochastiques et de la théorie du potentiel. La présentation qui en est faite ici est volontairement élémentaire et ne nécessite que des connaissances de base en probabilités. En effet, l'on se restreint ici à un espace d'états dénombrable et l'on ne fait pas usage de concepts plus élaborés comme les filtrations ou la théorie des martingales. La notion de dépendance markovienne est très intuitive ; par contre, les techniques de calcul demandent plus de dextérité et d'entraînement. C'est pourquoi un grand nombre de preuves et d'exemples sont fournis, pour permettre au lecteur de s'exercer à la manipulation d'outils nouveaux. Quelques preuves sont aussi rédigées pour pallier la lourdeur de certaines présentations, principalement en ce qui concerne celles décrites dans le paragraphe . En ce qui concerne les applications, qui sont extrêmement nombreuses, le choix s'est porté sur quelques exemples qui débouchent sur des procédures algorithmiques génériques, relativement récentes et d'un usage très répandu : algorithmes de recherche de mesures invariantes (Propp-Wilson, Metropolis), de la programmation dynamique (Bellman) et des chaînes de Markov cachées (E.M.).
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
3. Comportement asymptotique des chaînes de Markov
3.1 Théorème ergodique
On appelle théorèmes ergodiques des théorèmes concernant le comportement, lorsque n → +∞, de :
Un tel théorème ne peut avoir de formulation simple que dans le cas irréductible. Or, dans le cas transitoire, il ne présente guère d’intérêt puisque, par exemple, pour , on a et il n’y a donc pas de forme indéterminée. Dans le cas récurrent irréductible, on sait qu’il n’existe qu’une mesure invariante à une constante multiplicative près, qui est donc proportionnelle à toutes les mesures λx définies dans la proposition 12.
Théorème 3. Soit X une chaîne irréductible récurrente de mesure invariante λ. Soit ƒ, g ∈ L1 (λ) avec λ(g) ≠ 0, alors pour toute loi initiale μ on a :
La notation p.s. signifie « pour presque toute trajectoire de loi initiale μ ». En particulier, lorsque μ est une masse de Dirac au point x ∈ E, on retrouve la notation p.s. déjà utilisée. On pourra trouver une preuve complète, par exemple dans , mais on peut constater que l’indépendance des excursions d’une chaîne de Markov est l’argument essentiel dans la preuve de ce théorème. En effet, si pour p ≥ 0, l’on pose (les temps de retour successifs au point x, soit , p ≥ 0, ont été définis dans la définition 7) alors ...
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Comportement asymptotique des chaînes de Markov
BIBLIOGRAPHIE
-
(1) - BREMAUD (P.) - Chaînes de Markov - Springer-verlag, New-York (2001).
-
(2) - DELMAS (J.F.), JOURDAIN (B.) - Modéles aléatoires - Mathématiques et applications (57) Springer-verlag, Berlin (2006).
-
(3) - DURRETT (R.) - Probability : Theory and examples - Wadsworth and Brooks, Pacific Grove (1991).
-
(4) - LACROIX (J.) - Chaînes de Markov et processus de Poisson - Cours en ligne de l’université de Paris VI http://www.proba.jussieu.fr/supports.php.
-
(5) - LACROIX (J.), PRIOURET (P.) - Probabilités approfondies - Cours en ligne de l’université de Paris VI http://www.proba.jussieu.fr/supports.php.
-
(6) - MAZLIAK (L.), PRIOURET (P.), BALDI (P.) - Martingales et chaînes de Markov - Hermann, (2001).
-
...
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive