Terminé la última entrada describiendo el inusual comportamiento al entrenar dos modelos de transcripción en PyLaia, 7P y Lucidario B : Cuando las tasas de error en los sets de entrenamiento y de validación de un modelo HTR son demasiado altas, el modelo puede volverse a entrenar —que no es lo mismo que re-entrenarlo , algo que desaconsejo— para lograr nuevas iteraciones (versiones) que corrijan el problema.