Ep. 04: Regularización en Redes Neuronales Recurrentes
Variabilis • February 01, 2026 • Solo Episode
Guests
No guests identified for this episode.
Description
Hoy traemos un paper que resolvió uno de los problemas más frustrantes al trabajar con RNNs y LSTMs: ¿cómo evitar el overfitting? La técnica de regularización más exitosa para redes feedforward (dropout) simplemente NO funcionaba en RNNs. Este paper de 2014 por Wojciech Zaremba, Ilya Sutskever y Oriol Vinyals mostró por qué, y cómo arreglarlo.