Definition: Übergangswahrscheinlichkeit der Markovkette

Sei eine abzählbare Menge (hier auch Zustandsraum).
Sei ein Wahrscheinlichkeitsraum.
Sei eine zeithomogene Markovkette mit .
Seien zwei Zustände.

Als Übergangswahrscheinlichkeit von Zustand nach bezeichnen wir

falls ein existiert, sodass .
Andernfalls setzen wir (konsequenterweise) .