Sección Introducción Transcripciones
Resumen del curso
Hola. Me llamo Janani Ravi, y bienvenidos a este curso de Transferencia de Estilo con PyTorch. Un poco sobre mí. Tengo una maestría en ingeniería eléctrica de Stanford y he trabajado en compañías como Microsoft, Google y Flipkart. En Google, fui uno de los primeros ingenieros que trabajó en la edición colaborativa en tiempo real en Google Docs, y tengo cuatro patentes por sus tecnologías subyacentes. Actualmente trabajo en mi propia empresa, Loonycorn, un estudio de contenido de video de alta calidad. La transferencia de estilo se refiere al uso de una red neuronal para transformar una imagen de manera que llegue a parecerse artísticamente a otra imagen sin perder su contenido original. En este curso, obtendrás la habilidad de usar redes neuronales convolucionales preentrenadas que salen de la caja en PyTorch para la transferencia de estilo. En primer lugar, aprenderás cómo la transferencia de estilo implica una imagen de estilo, así como una imagen de contenido y una red neural preentrenada que, inusualmente, no cambia en absoluto durante el proceso de formación. A continuación, descubrirás cómo las capas intermedias de la CNN se designan como capas de estilo de interés y capas de contenido de interés. Entonces se minimizan dos funciones de pérdida, una de estilo y otra de contenido. La minimización de estas dos pérdidas conduce a una imagen de destino de salida con contenido de la imagen de contenido y estilo de la imagen de estilo. Finalmente, explorará cómo aprovechar una nueva y muy exagerada familia de modelos ML conocidos como GAN, o redes generativas de adversarios. Verás cómo las GAN pueden ser usadas para crear imágenes y videos realistas de prácticamente cualquier cosa. Cuando termines este curso, tendrás las habilidades y el conocimiento para realizar transferencia de estilo neural para obtener imágenes que combinen contenido y estilo artístico a partir de dos entradas diferentes y utilizar las GAN para generar imágenes realistas a partir del ruido.