El presente repositorio se refiere a un curso sobre Redes Neuronales Recurrentes, impartido en colaboración con el Colegio de Matemáticas Bourbaki
En este repositorio se implementa una red neuronal recurrente con una capa de encajes de palabras utilizando un modelo preentrenado Word2Vec, así como LSTM (Long-Short Time Memory) Bidireccionales,con la finalidad de ubicar y clasificar tokens en un texto no estructurado, en categorías predefinidas (nombres de personas, fechas, porcentajes, cantidades monetarias, organizaciones, entidades geográficas o geopolíticas).
La base de datos utilizada, disponibles en en el presente repositorio fue tomado de Kaggle
Otros recursos:
- word2vec en español 300 dimensiones disponible en kaggle y en esta carpeta compartida