Bac FranceMaths ExpertesCH 08Chaînes de Markov
Expertes · CH 08Graphes

Chaînes de Markov

📂 Section C — Graphes & Matrices

Matrice de transition, évolution Pₙ₊₁=PₙM, état stable π=πM, convergence.

📊 2 théorèmes·📝 1 exercices·~4h
Légende :ThéorèmeDéfinitionFormule cléPropriétéMéthode

📐 Cours — Définitions & Théorèmes

Matrice de transition
Définition
Un graphe probabiliste (chaîne de Markov) modélise un système pouvant se trouver dans différents états. La matrice de transition M est telle que M[i][j] = probabilité de passer de l'état i à l'état j. • Chaque ligne de M somme à 1 (matrice stochastique) • M[i][j] ≥ 0 pour tout i,j
Évolution et état stable
Formule clé
Si P₀ = (p₁, p₂, …) est la distribution initiale (vecteur ligne), après n étapes : Pₙ = P₀ × Mⁿ État stable (distribution stationnaire) π : π = π × M (π est un vecteur propre gauche pour la valeur propre 1) Condition : Σ πᵢ = 1 Convergence : sous certaines conditions (chaîne régulière), Pₙ → π quelle que soit la distribution initiale.

📝 Exercices

EX01IntermédiaireÉtat stable

M=[[0,7;0,3],[0,4;0,6]]. Trouver l'état stable π=(a,b).

🧮 Résoudre avec IA
← Précédent
Calcul matriciel