A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z 

chaînes de Markov (loc. f. p.)

Définition(s) du mot chaînes de Markov


Modèle servant à analyser des situations dans lesquelles un état à venir dépend de l'état actuel et d'une série de probabilités de passage.
V. Chaîne, aléatoire.

Traductions du mot chaînes de Markov

Anglais (GB)
Allemand
Espagnol
Italien
  Pas de traduction à ce jour