chaîne de Markov

Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.

Nom

  • Représentation de la prédiction du futur grâce à l’état présent du processus.

Nous travaillons sur des applications mobiles?


Dictionnaire français moderne

Explorez et recherchez un énorme catalogue de mots.

Mot du jour

Obtenez un mot mémorable organisé chaque jour.

Mettez-vous au défi

Améliorez votre vocabulaire en vous fixant des objectifs personnels.