A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z 

Il n'y a qu'un terme pour 'Markov's chains' en Anglais (GB)

chaînes de Markov (loc. f. p.)

Définition(s)


Modèle servant à analyser des situations dans lesquelles un état à venir dépend de l'état actuel et d'une série de probabilités de passage.
V. Chaîne, aléatoire.

Traductions

Anglais (GB)
Allemand
Espagnol
Italien
  Pas de traduction à ce jour

Synonymes

Cette 'rubrique' n'a pas encore été définie