Nouveaux mots
chaînes de Markov (loc. f. p.)
Définition(s)
Modèle servant à analyser des situations dans lesquelles un état à venir dépend de l'état actuel et d'une série de probabilités de passage.
V. Chaîne, aléatoire.
Traductions
Anglais (GB)
Allemand
Espagnol
Italien
Pas de traduction à ce jour
Nouveaux mots