🔗 Proyecto | | |
|
|
Sesión | Leer | Idea / Concepto |
1 | 🔗 Lectura 1 | Lo esencial |
→ Probabilidad |
→ Variable aleatoria |
→ cadena de Markov tiempo discreto orden 1 |
→ Teorema ergódico |
→ Absorción |
→ Estudio de una cadena |
2 | 🔗 Lectura 2 | Cadena de Markov oculta |
→ Definiciones |
→ Hacia atrás-adelante |
→ Viterbi |
→ Baum-Welch |
→ sklearn |
3 | 🔗 Lectura 3 | Autómata probabilístico |
→ Autómata probabilístico |
→ Autómata de frecuencia |
→ HMMT |
→ Combinar y doblar |
→ palabras prohibidas |
→ ALERGIA |
| | |
|
REFERENCIAS |
Introducción a los algoritmos: Cormen, T y Leiserson, C |
El manual de diseño de algoritmos: Steven S. Skiena |
Inferencia gramatical: aprendizaje de autómatas y gramáticas: C. de la Higuera |