Présentation de la formation GCP – Professional Data Engineer
Cette formation de 4 jours vous donne les compétences nécessaires pour piloter l’écosystème Data de Google Cloud. Vous apprendrez à concevoir des architectures de traitement de données (batch et streaming), à orchestrer des pipelines via Pub/Sub, Dataflow et Composer, à manipuler les bases relationnelles et NoSQL, et à intégrer des modèles ML via Vertex AI. Vous explorerez aussi les aspects de sécurité, gouvernance, optimisation et supervision des plateformes Data. À travers des ateliers concrets, vous développerez un projet complet de bout en bout, prêt à évoluer en environnement de production.
Objectifs de la formation GCP – Professional Data Engineer
Objectifs pédagogiques :
- Comprendre l’écosystème Data de Google Cloud
- Maîtriser la conception et la gestion d’architectures de traitement de données dans GCP
- Savoir déployer des pipelines batch et temps réel
- Apprendre à sécuriser, superviser et optimiser les plateformes de données
- Préparer la certification Google Cloud Professional Data Engineer
Objectifs opérationnels :
- Concevoir, déployer et exploiter une architecture Data complète sur GCP : ingestion temps réel ou batch, traitement de données, stockage (BigQuery, NoSQL), intégration ML, sécurité et optimisation de performance.
Programme de la formation GCP – Professional Data Engineer
Jour 1 – Fondations de la Data dans GCP
Introduction au rôle de Data Engineer dans GCP
Présentation des services Data : BigQuery, Pub/Sub, Dataflow, Dataproc, Firestore, Bigtable
Modélisation de données dans le Cloud
Lab pratique : chargement et interrogation de données avec BigQuery
Jour 2 – Pipelines de données et traitement batch/streaming
Pub/Sub : ingestion d’événements et messages en temps réel
Dataflow : pipelines batch et streaming (Apache Beam)
Dataproc : clusters Hadoop/Spark pour le Big Data
Orchestration de pipelines avec Composer (Airflow)
Lab pratique : construire un pipeline Pub/Sub → Dataflow → BigQuery
Jour 3 – Bases de données et intégration IA/ML
Bases de données relationnelles avec Cloud SQL
Bases NoSQL : Firestore et Bigtable
Utilisation de Vertex AI pour entraîner et déployer un modèle
Intégration IA dans une architecture Data
Cas pratique : pipeline Data enrichi par un modèle ML (prédictions temps réel)
Jour 4 – Sécurité, Optimisation et Certification
Sécurité des données dans GCP : IAM, DLP, KMS
Gouvernance des données : Data Catalog, contrôle d’accès
Supervision et optimisation des performances BigQuery et Dataflow
Projet fil rouge : conception d’une plateforme Data complète (ingestion, traitement, stockage, visualisation)
Préparation à la certification Professional Data Engineer : quiz, études de cas
Les autres formations en Data Engineering & Big Data
AWS – Big Data & Analytics
Exploiter les services Big Data et Analytics d’AWS pour traiter et visualiser des données massives
AWS – Data Engineering
Construire des pipelines de données et un data lake sur AWS pour l’analyse et la BI
Azure – Big Data & Analytics
Intégrer, transformer et visualiser des données massives avec les services Azure pour une analyse avancée
GCP – BigQuery & Data Warehouse
Exploiter BigQuery pour construire un entrepôt de données moderne : performance, modélisation & intégration BI
GCP – Dataflow & Streaming Analytics
Créer des pipelines temps réel sur GCP avec Dataflow et Apache Beam