Expertes · CH 08Graphes
Chaînes de Markov
📂 Section C — Graphes & Matrices
Matrice de transition, évolution Pₙ₊₁=PₙM, état stable π=πM, convergence.
📊 2 théorèmes·📝 1 exercices·⏱ ~4h
Légende :ThéorèmeDéfinitionFormule cléPropriétéMéthode
📐 Cours — Définitions & Théorèmes
Matrice de transition
DéfinitionUn graphe probabiliste (chaîne de Markov) modélise un système pouvant se trouver dans différents états.
La matrice de transition M est telle que M[i][j] = probabilité de passer de l'état i à l'état j.
• Chaque ligne de M somme à 1 (matrice stochastique)
• M[i][j] ≥ 0 pour tout i,j
Évolution et état stable
Formule cléSi P₀ = (p₁, p₂, …) est la distribution initiale (vecteur ligne), après n étapes :
Pₙ = P₀ × Mⁿ
État stable (distribution stationnaire) π :
π = π × M (π est un vecteur propre gauche pour la valeur propre 1)
Condition : Σ πᵢ = 1
Convergence : sous certaines conditions (chaîne régulière), Pₙ → π quelle que soit la distribution initiale.