| 🔗 Proyecto | | |
|
|
| Sesión | Leer | Idea / Concepto |
| 1 | 🔗 Lectura 1 | Lo esencial |
| → Probabilidad |
| → Variable aleatoria |
| → cadena de Markov tiempo discreto orden 1 |
| → Teorema ergódico |
| → Absorción |
| → Estudio de una cadena |
| 2 | 🔗 Lectura 2 | Cadena de Markov oculta |
| → Definiciones |
| → Hacia atrás-adelante |
| → Viterbi |
| → Baum-Welch |
| → sklearn |
| 3 | 🔗 Lectura 3 | Autómata probabilístico |
| → Autómata probabilístico |
| → Autómata de frecuencia |
| → HMMT |
| → Combinar y doblar |
| → palabras prohibidas |
| → ALERGIA |
| | |
|
| REFERENCIAS |
| Introducción a los algoritmos: Cormen, T y Leiserson, C |
| El manual de diseño de algoritmos: Steven S. Skiena |
| Inferencia gramatical: aprendizaje de autómatas y gramáticas: C. de la Higuera |