Building Batch Data Pipelines on GCP en Español
Google Cloud and Google via Coursera
-
11
-
- Write review
Overview
Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Syllabus
- Introducción
- En este módulo, presentamos el curso y el temario
- Introducción a Building Batch Data Pipelines
- En este módulo, se revisan los diferentes métodos de carga de datos: EL, ELT y ETL, y cuándo corresponde usarlos
- Ejecución de Spark en Dataproc
- En este módulo, se muestra cómo ejecutar Hadoop en Dataproc, usar Cloud Storage y optimizar sus trabajos de Dataproc.
- Procesamiento de datos sin servidor con Dataflow
- En este módulo, se aborda el uso de Dataflow para compilar sus canalizaciones de procesamiento de datos
- Administración de canalizaciones de datos con Cloud Data Fusion y Cloud Composer
- En este módulo, se muestra como administrar canalizaciones de datos con Cloud Data Fusion y Cloud Composer
- Resumen del curso
- Resumen del curso
Taught by
Google Cloud Training