Saltar al contenido

Diseñando arquitecturas de datos escalables en la nube de Google

Sección Introducción Transcripciones

Resumen del curso

Diseñando arquitecturas de datos escalables en la nube de Google
Diseñando arquitecturas de datos escalables en la nube de Google

¡Hola! Me llamo Janani Ravi, y bienvenidos a este curso de Diseño de Arquitecturas de Datos Escalables en la Nube de Google. Un poco sobre mí. Tengo un máster en ingeniería eléctrica de Stanford y he trabajado en empresas como Microsoft, Google y Flipkart. En Google, fui uno de los primeros ingenieros que trabajó en la edición colaborativa en tiempo real en Google Docs, y tengo cuatro patentes por sus tecnologías subyacentes. Actualmente trabajo en mi propia empresa, Loonycorn, un estudio de contenido de video de alta calidad. El GCP ofrece un gran número de servicios para cada aspecto importante de la computación pública en nube. Este conjunto de servicios y opciones a menudo puede parecer intimidante. Incluso un profesional que entiende varios servicios importantes puede tener problemas para conectar los puntos, por así decirlo, y encajar esos servicios de manera significativa. En tales términos, se siente la necesidad de contar con ejemplos integrados de extremo a extremo que abarquen diferentes servicios y se centren en la forma en que todos ellos encajan en el panorama general. En este curso, obtendrá la capacidad de diseñar arquitecturas Lambda y Kappa que integren la transmisión por lotes y en flujo, planificar la migración inteligente y las estrategias de recuperación de desastres, y elegir el flujo de trabajo de aprendizaje automático adecuado para su empresa. En primer lugar, aprenderá por qué la elección correcta de la arquitectura de procesamiento de flujos se está convirtiendo en la clave para todo el diseño de una infraestructura basada en la nube. Esto tiene que ver con la necesidad de procesamiento de datos en tiempo real y un problema específico en el modelado de aprendizaje automático conocido como sesgo de servicio de formación. Cada vez más, las organizaciones se enfrentan a modelos de ML que funcionan bien en el laboratorio pero que no funcionan bien en la predicción en tiempo real. Ello se debe a menudo a que los datos en tiempo real no se procesan con la misma precisión y limpieza que los datos por lotes. Aprenderás dos patrones arquitectónicos específicos, Arquitecturas Lambda y Kappa, que buscan mitigar esto. A continuación, descubrirá cómo el Servicio de Transferencia es una herramienta inestimable en la planificación de estrategias de migración y recuperación de desastres en el GCP. Actualmente, la GCP no ofrece un equivalente del Servicio de Migración de Datos de AWS, por lo que cuando se migra a la GCP, es racional trasladar primero todos sus datos estructurados y no estructurados al almacenamiento en la nube, en lugar de comprometerse por adelantado con una solución específica de almacenamiento estructurado. El Servicio de Transferencia es ideal para este caso de uso específico. Por último, explorará cómo elegir la tecnología de aprendizaje automático adecuada para su uso específico. Puede aprovechar las API de ML pre-entrenadas si no necesita construir un modelo personalizado en absoluto. O puede aprovechar la ML automática para implementar el aprendizaje por transferencia, que reentrena un modelo sofisticado a sus datos específicos. Incluso puedes construir modelos ML en SQL usando BigQuery ML. Cuando termine este curso, tendrá las habilidades y el conocimiento de toda la sección transversal de grandes datos y ofertas de aprendizaje automático en el GCP para construir arquitecturas en nube optimizadas para la escalabilidad, el procesamiento en tiempo real y el uso apropiado de tecnologías de aprendizaje profundo y de IA.