| 🔗 Projet | ||
| Session | Lecture | Idea/Concept |
| 1 | 🔗 Lecture 1 | Basics |
|     → Probabilité | ||
|     → Variable aléatoire | ||
|     → Chaine de Markov temps discret ordre 1 | ||
|     → Théorème ergodique | ||
|     → Absorption | ||
|     → Etude d’une chaîne | ||
| 2 | 🔗 Lecture 2 | Hidden Markov Chain |
|     → Définitions | ||
|     → Backward-Forward | ||
|     → Viterbi | ||
|     → Baum-Welch | ||
|     → sklearn | ||
| 3 | 🔗 Lecture 3 | Probabilistic automaton |
|     → Automate probabiliste | ||
|     → Automate de fréquence | ||
|     → HMMT | ||
|     → Merge & Fold | ||
|     → Mots interdits | ||
|     → ALERGIA | ||
| Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â REFERENCES | ||
| Introduction to Algorithms: Cormen, T et Leiserson, C | ||
| The Algorithm Design Manual: Steven S. Skiena | ||
| Grammatical Inference: Learning Automata and Grammars: C. de la Higuera | ||
