Saltar al contenido

Modelado del lenguaje con redes neuronales recurrentes en TensorFlow

Descripción

El rendimiento de las redes neuronales recurrentes (RNN) y las capacidades de predicción pueden mejorarse utilizando células de larga memoria como la LSTM y la célula GRU.

Modelado del lenguaje con redes neuronales recurrentes en TensorFlow
Modelado del lenguaje con redes neuronales recurrentes en TensorFlow

En este curso, Modelado de Lenguaje con Redes Neurales Recurrentes en Tensorflow, aprenderá cómo los RNNs son un ajuste natural para el modelado de lenguaje debido a su habilidad inherente para almacenar estado. El rendimiento de las RNN y las capacidades de predicción pueden ser mejoradas usando células de larga memoria como la LSTM y la célula GRU.

Primero, aprenderás a modelar el OCR como un problema de etiquetado de secuencias.

A continuación, explorará cómo puede diseñar un RNN para predecir el próximo personaje basándose en secuencias pasadas.

Finalmente, se centrará en la comprensión de las funciones avanzadas que ofrece la biblioteca de TensorFlow, como los RNN bidireccionales y la célula multi-RNN.

Al final de este curso, sabrá cómo aplicar y diseñar RNNs para casos de uso como el reconocimiento de imágenes, la predicción de caracteres y la generación de texto; y se sentirá cómodo con el uso de las librerías TensorFlow para funciones avanzadas, como el RNN bidireccional y la célula multi-RNN.