🔗 Proyecto | ||
Sesión | Leer | Idea / Concepto |
1 | 🔗 Lectura 1 | Lo esencial |
→ Probabilidad | ||
→ Variable aleatoria | ||
→ cadena de Markov tiempo discreto orden 1 | ||
→ Teorema ergódico | ||
→ Absorción | ||
→ Estudio de una cadena | ||
2 | 🔗 Lectura 2 | Cadena de Markov oculta |
→ Definiciones | ||
→ Hacia atrás-adelante | ||
→ Viterbi | ||
→ Baum-Welch | ||
→ sklearn | ||
3 | 🔗 Lectura 3 | Autómata probabilístico |
→ Autómata probabilístico | ||
→ Autómata de frecuencia | ||
→ HMMT | ||
→ Combinar y doblar | ||
→ palabras prohibidas | ||
→ ALERGIA | ||
REFERENCIAS | ||
Introducción a Algoritmos: Cormen, T y Leiserson, C | ||
El manual de diseño de algoritmos: Steven S. Skiena | ||
Inferencia gramatical: aprendizaje de autómatas y gramáticas: C. de la Higuera |