A cadeia de Markov {X(t)} é um processo estocástico periódico.
Os estados dessa cadeia de Markov são transientes (ou transitórios).
A cadeia de Markov em questão é duplamente estocástica.
O processo {X(t)} é uma cadeia de Markov irredutível.
Navegue em mais questões
{TITLE}
{CONTENT}