Building Batch Data Pipelines on Google Cloud Azerbaijan Eğitimi

  • Eğitim Tipi: Online Instructor-Led / Classroom Based / Onsite
  • Süre: 1 Gün
  • Seviye: Intermediate
  • En Yakın Tarih:
  • UK & Türkiye Based Training Provider

Data pipelines typically fall under one of the Extra-Load, Extract-Load-Transform or Extract-Transform-Load paradigms. This course describes which paradigm should be used and when for batch data. Furthermore, this course covers several technologies on Google Cloud for data transformation including BigQuery, executing Spark on Dataproc, pipeline graphs in Cloud Data Fusion and serverless data processing with Dataflow. Learners will get hands-on experience building data pipeline components on Google Cloud using Qwiklabs.

Bu eğitimi dilediğiniz tarih ve lokasyonda organize edebiliriz. Bize Ulaşın!

Eğitim İçeriği

Introduction to Building Batch Data Pipelines

This module reviews different methods of data loading: EL, ELT and ETL and when to use what

  • Module introduction
  • EL, ELT, ETL
  • Quality considerations
  • How to carry out operations in BigQuery
  • Shortcomings
  • ETL to solve data quality issues
  • QUIZ
  • Introduction to Building Batch Data Pipelines

Executing Spark on Dataproc

This module shows how to run Hadoop on Dataproc, how to leverage Cloud Storage, and how to optimize your Dataproc jobs.

  • Module introduction
  • The Hadoop ecosystem
  • Running Hadoop on Dataproc
  • Cloud Storage instead of HDFS
  • Optimizing Dataproc
  • Optimizing Dataproc storage
  • Optimizing Dataproc templates and autoscaling
  • Optimizing Dataproc monitoring
  • Lab Intro: Running Apache Spark jobs on Dataproc
  • LAB: Running Apache Spark jobs on Cloud Dataproc: This lab focuses on running Apache Spark jobs on Cloud Dataproc.
  • Summary
  • QUIZ

Serverless Data Processing with Dataflow

This module covers using Dataflow to build your data processing pipelines

  • Module introduction
  • Introduction to Dataflow
  • Why customers value Dataflow
  • Building Dataflow pipelines in code
  • Key considerations with designing pipelines
  • Transforming data with PTransforms
  • Lab Intro: Building a Simple Dataflow Pipeline
  • LAB: A Simple Dataflow Pipeline (Python) 2.5: In this lab, you learn how to write a simple Dataflow pipeline and run it both locally and on the cloud.
  • LAB: Serverless Data Analysis with Dataflow: A Simple Dataflow Pipeline (Java): In this lab you will open a Dataflow project, use pipeline filtering, and execute the pipeline locally and on the cloud using Java.
  • Aggregate with GroupByKey and Combine
  • Lab Intro: MapReduce in Beam
  • LAB: MapReduce in Beam (Python) 2.5: In this lab, you learn how to use pipeline options and carry out Map and Reduce operations in Dataflow.
  • LAB: Serverless Data Analysis with Beam: MapReduce in Beam (Java): In this lab you will identify Map and Reduce operations, execute the pipeline, use command line parameters.
  • Side inputs and windows of data
  • Lab Intro: Practicing Pipeline Side Inputs
  • LAB: Serverless Data Analysis with Dataflow: Side Inputs (Python): In this lab you will try out a BigQuery query, explore the pipeline code, and execute the pipeline using Python.
  • LAB: Serverless Data Analysis with Dataflow: Side Inputs (Java): In this lab you will try out a BigQuery query, explore the pipeline code, and execute the pipeline using Java.
  • Creating and re-using pipeline templates
  • Summary
  • QUIZ

Manage Data Pipelines with Cloud Data Fusion and Cloud Composer

This module shows how to manage data pipelines with Cloud Data Fusion and Cloud Composer.

  • Module introduction
  • Introduction to Cloud Data Fusion
  • Components of Cloud Data Fusion
  • Cloud Data Fusion UI
  • Build a pipeline
  • Explore data using wrangler
  • Lab Intro: Building and executing a pipeline graph in Cloud Data Fusion
  • LAB: Building and Executing a Pipeline Graph with Data Fusion 2.5: This tutorial shows you how to use the Wrangler and Data Pipeline features in Cloud Data Fusion to clean, transform, and process taxi trip data for further analysis.
  • Orchestrate work between Google Cloud services with Cloud Composer
  • Apache Airflow environment
  • DAGs and Operators
  • Workflow scheduling
  • Monitoring and Logging
  • Lab Intro: An Introduction to Cloud Composer
  • LAB: An Introduction to Cloud Composer 2.5: In this lab, you create a Cloud Composer environment using the GCP Console. You then use the Airflow web interface to run a workflow that verifies a data file, creates and runs an Apache Hadoop wordcount job on a Dataproc cluster, and deletes the cluster.
  • QUIZ

Neden Bizi Seçmelisiniz

Building Batch Data Pipelines on Google Cloud Azerbaijan Eğitimi, Bilginç IT Academy'nin canlı ve etkileşimli platformu üzerinden evinizin veya ofisinizin konforunda deneyimleyin. Uzman eğitmenlerimizle doğrudan iletişim kurun ve sınıf ortamının dinamizmini sanal dünyada yaşayın.

  • Canlı Oturumlar: Belirlenmiş bir takvim dahilinde, eğitmen ve diğer katılımcılarla eş zamanlı derslere katılın.
  • Tam Etkileşim: Aktiviteler, grup çalışmaları ve soru-cevap seanslarıyla eğitmeniniz ve iş arkadaşlarınızla sürekli iletişimde kalın.
  • Global Uzman Kadrosu: Sektörde derin tecrübeye sahip, uluslararası yetkinlikteki eğitmenlerden en güncel bilgileri öğrenin.
  • Uzmanlık: Bilginç IT Academy'nin 30 yılı aşkın eğitim tecrübesiyle, profesyonel kariyerinizde kalıcı beceriler edinin.
  • Ölçeklenebilir Çözümler: Azerbaijan ve dünya genelinde erişilebilen sınıflarımızla, bireysel veya kurumsal ihtiyaçlarınıza yönelik esnek planlama yapın.

Building Batch Data Pipelines on Google Cloud Azerbaijan Eğitimi için geleneksel ve en etkili öğrenme yöntemi olan yüz yüze eğitimi tercih edin. Bilginc IT Academy’nin özenle seçilmiş lokasyonlarında, profesyonel bir atmosferde kendinizi eğitime odaklayın.

  • Kıdemli Eğitmenler: Sektörde 10-20+ yıl saha deneyimi olan uzmanlardan, gerçek dünya senaryolarını dinleyin.
  • Modern Eğitim Alanları: Konforlu ve teknolojik altyapısı güçlü sınıflarda eğitim görün.
  • Butik Sınıf Yapısı: Sınırlı kontenjanla düzenlenen sınıflarımızda, eğitmeninizle birebir iletişim kurma fırsatı yakalayın.
  • Fiyat Garantisi: Sertifikasyon yolculuğunuzu en yüksek kalite ve rekabetçi fiyat garantisiyle tamamlayın.

Şirketinizin büyük ölçekli eğitim ihtiyaçlarını, Bilginç IT Academy’nin Building Batch Data Pipelines on Google Cloud Azerbaijan Eğitimi Onsite çözümüyle kendi ofisinizde çözün.

  • Özelleştirilmiş Müfredat: Şirketinizin projelerine veya spesifik iş ihtiyaçlarına göre uyarlanmış bir program.
  • Bütçe Optimizasyonu: Seyahat ve konaklama giderlerini ortadan kaldırarak bütçenizi verimli kullanın.
  • Takım Sinerjisi: Ekibinizle birlikte öğrenme deneyimini zenginleştirin ve iş birliğini artırın.
  • Performans Takibi: Çalışanlarınızın gelişimini ve katılımını kolaylıkla takip edin.


Eğitimlerle ilgili bilgi almak ve diğer tüm sorularınız için bize ulaşın!

Building Batch Data Pipelines on Google Cloud Azerbaijan Eğitimi ve Kurs Takvimi

Sınıf eğitimlerimizi Azerbaijan ofislerimizde düzenlemekteyiz. Kurumunuza özel eğitimleri ise, dilediğiniz tarih ve lokasyonda organize edebiliriz.

Bu eğitimi dilediğiniz tarih ve lokasyonda organize edebiliriz.
25 aprel 2026 (1 Gün)
Baku, Sumqayit
11 may 2026 (1 Gün)
Baku, Sumqayit
23 may 2026 (1 Gün)
Baku, Sumqayit
13 iyun 2026 (1 Gün)
Baku, Sumqayit
17 iyun 2026 (1 Gün)
Baku, Sumqayit
19 iyun 2026 (1 Gün)
Baku, Sumqayit
04 iyul 2026 (1 Gün)
Baku, Sumqayit
06 iyul 2026 (1 Gün)
Baku, Sumqayit

Azerbaycan, özellikle Bakü merkezli olmak üzere akıllı şehir projeleri ve dijital devlet altyapısını hızla modernize ederek bölgenin yükselen yıldızı haline gelmiştir. Bakü ve Sumqayıt gibi endüstriyel merkezler, ADA Üniversitesi ve Bakü Devlet Üniversitesi gibi kurumların akademik desteğiyle ICT sektöründe devasa bir inovasyon hamlesi başlatmıştır. Hazar bölgesinin teknoloji üssü olma vizyonuyla hareket eden ülkede, siber güvenlikten bulut bilişim sistemlerine kadar geniş bir yelpazede uzman ihtiyacı bulunmaktadır. Eğitim programlarımız, Azerbaycan'daki profesyonellerin küresel standartlarda teknik yetkinlik kazanmalarını ve yerel teknoloji ekosistemine yüksek katma değer sağlamalarını hedeflemektedir.

Sitemizi kullanarak çerezlere (cookie) izin vermektesiniz. Detaylı bilgi için Çerez Politika'mızı inceleyebilirsiniz.