> Toutes nos certifications > Data Engineering on Microsoft Azure (Microsoft DP-203)

Formation : Data Engineering on Microsoft Azure (Microsoft DP-203)

Cours officiel DP-203, préparation à l'examen

Data Engineering on Microsoft Azure (Microsoft DP-203)

Cours officiel DP-203, préparation à l'examen
Télécharger le programme Partager cette formation


Avec cette formation, vous découvrirez les modèles et les pratiques d'ingénierie des données dans le cadre de solutions analytiques en temps réel et par lots utilisant les technologies de la plateforme de données Azure (à savoir, les technologies de calcul et de stockage de base utilisées pour construire une solution analytique, concevoir des couches de service analytiques, se concentrer sur les considérations d'ingénierie des données pour travailler avec des fichiers sources, explorer de manière interactive les données stockées dans des fichiers du data lake, etc.).


Intra
Sur mesure

Formation dans vos locaux, chez nous ou à distance

Réf. AZR
  4j - 28h
Vous souhaitez transposer cette formation, sans modification, pour votre entreprise ?




Avec cette formation, vous découvrirez les modèles et les pratiques d'ingénierie des données dans le cadre de solutions analytiques en temps réel et par lots utilisant les technologies de la plateforme de données Azure (à savoir, les technologies de calcul et de stockage de base utilisées pour construire une solution analytique, concevoir des couches de service analytiques, se concentrer sur les considérations d'ingénierie des données pour travailler avec des fichiers sources, explorer de manière interactive les données stockées dans des fichiers du data lake, etc.).

Objectifs pédagogiques
À l’issue de la formation, le participant sera en mesure de :
  • Explorer les options de calcul et de stockage pour les charges de travail d'ingénierie des données dans Azure
  • Concevoir et mettre en œuvre la couche de service
  • Comprendre les considérations relatives à l'ingénierie des données
  • Exécuter des requêtes interactives à l'aide de pools SQL sans serveur
  • Explorer, transformer et charger des données dans le Data Warehouse à l'aide d'Apache Spark
  • Effectuer l'exploration et la transformation des données dans Azure Databricks
  • Ingérer et charger des données dans l'entrepôt de données
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse
  • Analyser et optimiser le stockage de l'entrepôt de données
  • Prise en charge du traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Sécurité de bout en bout avec Azure Synapse Analytics
  • Effectuer un traitement de flux en temps réel avec Stream Analytics
  • Créer une solution de traitement de flux avec Event Hubs et Azure Databricks
  • Créer des rapports à l'aide de l'intégration de Power BI avec Azure Synapse Analytics
  • Effectuer des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics

Public concerné
Professionnels des données, architectes de données et professionnels BI. Analystes de données et data scientists qui travaillent avec des solutions analytiques basées sur Microsoft Azure.

Prérequis
Bonnes connaissances du cloud et des concepts de base de données. Avoir une expérience avec des solutions de données. Avoir suivi les cours officiels : AZ-900 (Réf. MKV) et DP-900 (Réf. MZP).
Vous recevrez par mail des informations permettant de valider vos prérequis avant la formation.

Programme de la formation

Explorer les options de calcul et de stockage pour les charges de travail analytiques

  • Introduction à Azure Synapse Analytics.
  • Décrire Azure Databricks.
  • Introduction au stockage Azure Data Lake.
  • Décrire l'architecture du data lake.
  • Travailler avec des flux de données à l'aide d'Azure Stream Analytics.
Travaux pratiques
Combiner le streaming et le traitement par lots avec un seul pipeline. Organiser le data lake en niveaux de transformation de fichiers. Indexer le stockage du data lake pour l'accélération des requêtes et de la charge de travail.

Concevoir et implémenter la couche de service

  • Concevoir un schéma multidimensionnel pour optimiser les charges de travail analytiques.
  • Savoir transformer sans code à grande échelle avec Azure Data Factory.
  • Remplir les dimensions qui changent lentement dans les pipelines Azure Synapse Analytics.
Travaux pratiques
Concevoir un schéma en étoile pour les charges de travail analytiques. Remplir les dimensions à évolution lente avec Azure Data Factory et mapper les flux de données.

Considérations d'ingénierie des données pour les fichiers source

  • Concevoir un entrepôt de données moderne à l'aide d'Azure Synapse Analytics.
  • Sécuriser un entrepôt de données dans Azure Synapse Analytics.
Travaux pratiques
Gestion des fichiers et sécurisation des fichiers stockés dans un data lake Azure.

Exécuter des requêtes interactives à l'aide de pools SQL sans serveur ASA

  • Explorer les capacités des pools SQL sans serveur Azure Synapse.
  • Interroger les données dans le lac à l'aide des pools SQL sans serveur Azure Synapse.
  • Créer des objets de métadonnées dans les pools SQL sans serveur Azure Synapse.
  • Sécuriser les données et gérer les utilisateurs dans les pools SQL sans serveur Azure Synapse.
Travaux pratiques
Exécuter des requêtes interactives à l'aide de pools SQL sans serveur Azure Synapse Analytics (ASA) : interroger les données Parquet avec des pools SQL sans serveur, créer des tables externes pour les fichiers Parquet et CSV, créer des vues avec des pools SQL sans serveur, etc.

Explorer, transformer et charger des données dans l'entrepôt de données

  • Comprendre l'ingénierie big data avec Apache Spark dans Azure Synapse Analytics.
  • Ingérer des données avec des blocs-notes Apache Spark dans Azure Synapse Analytics.
  • Transformer les données avec les DataFrames dans les pools Apache Spark dans Azure Synapse Analytics.
  • Intégrer les pools SQL et Apache Spark dans Azure Synapse Analytics.
Travaux pratiques
Explorer, transformer et charger des données dans le data warehouse à l'aide d'Apache Spark.

Explorer et transformer des données dans Azure Databricks

  • Décrire Azure Databricks.
  • Lire et écrire des données dans Azure Databricks.
  • Utiliser des DataFrames dans Azure Databricks.
  • Travailler avec les méthodes avancées DataFrames dans Azure Databricks.
Travaux pratiques
Utilisez DataFrames dans Azure Databricks pour explorer et filtrer les données. Mettre en cache un DataFrame pour des requêtes ultérieures plus rapides. Supprimer les données en double. Manipuler les valeurs de date/heure. Supprimer et renommer des colonnes DataFrame, etc.

Ingérer et charger des données dans l'entrepôt de données

  • Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics.
  • Ingérer à l'échelle du pétaoctet avec Azure Data Factory.
Travaux pratiques
Réaliser une ingestion à l'échelle du pétaoctet avec Azure Synapse Pipelines. Importer des données avec PolyBase et COPIER à l'aide de T-SQL. Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics.

Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines

  • Intégrer des données avec Azure Data Factory ou Azure Synapse Pipelines.
  • Transformer sans code à grande échelle avec Azure Data Factory ou Azure Synapse Pipelines.
Travaux pratiques
Exécuter des transformations sans code à grande échelle avec Azure Synapse Pipelines. Créer un pipeline de données pour importer des fichiers CSV mal formatés. Créer des flux de données cartographiques.

Utiliser Azure Synapse Pipelines

  • Orchestrer le mouvement et la transformation des données dans Azure Data Factory.
Travaux pratiques
Intégrer les données des notebooks avec Azure Data Factory ou Azure Synapse Pipelines.

Optimiser les performances des requêtes avec des pools SQL

  • Optimiser les performances des requêtes d'entrepôt de données dans Azure Synapse Analytics.
  • Comprendre les fonctionnalités de développement d'entrepôt de données d'Azure Synapse Analytics.
Travaux pratiques
Comprendre les fonctionnalités de développement d'Azure Synapse Analytics. Optimiser les performances des requêtes d'entrepôt de données dans Azure Synapse Analytics. Améliorer les performances des requêtes.

Analyser et optimiser le stockage de l'entrepôt de données

  • Analyser et optimiser le stockage de l'entrepôt de données dans Azure Synapse Analytics.
Travaux pratiques
Vérifier les données faussées et l'utilisation de l'espace. Comprendre les détails du stockage du magasin de colonnes. Étudier l'impact des vues matérialisées. Explorer les règles pour les opérations minimalement enregistrées.

Prendre en charge du traitement analytique transactionnel hybride (HTAP)

  • Concevoir un traitement transactionnel et analytique hybride à l'aide d'Azure Synapse Analytics.
  • Configurer Azure Synapse Link avec Azure Cosmos DB.
  • Interroger Azure Cosmos DB avec les pools Apache Spark.
  • Interroger Azure Cosmos DB avec des pools SQL sans serveur.
Travaux pratiques
Prise en charge du traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link.

Sécuriser de bout en bout avec Azure Synapse Analytics

  • Sécuriser un entrepôt de données dans Azure Synapse Analytics.
  • Configurer et gérer les secrets dans Azure Key Vault.
  • Mettre en œuvre des contrôles de conformité pour les données sensibles.
Travaux pratiques
Sécuriser l'infrastructure de support Azure Synapse Analytics. Sécuriser l'espace de travail et des services gérés Azure Synapse Analytics. Sécuriser les données de l'espace de travail Azure Synapse Analytics.

Effectuer des traitements de flux en temps réel avec Stream Analytics

  • Ingérer des flux de données avec Azure Stream Analytics.
  • Activer une messagerie fiable pour les applications big data à l'aide d'Azure Event Hubs.
  • Travailler avec des flux de données à l'aide d'Azure Stream Analytics.
Travaux pratiques
Utiliser Stream Analytics pour traiter les données en temps réel des Event Hubs. Utiliser les fonctions de fenêtrage de Stream Analytics pour créer des agrégats et générer des sorties vers Synapse Analytics. Mettre à l'échelle le travail Azure Stream Analytics pour augmenter le débit, etc.

Créer une solution de traitement de flux avec Event Hubs et Azure Databricks

  • Traiter les données de streaming avec le streaming structuré Azure Databricks.
Travaux pratiques
Créer une solution de traitement de flux avec Event Hubs et Azure Databricks : explorer les principales fonctionnalités et utilisations du streaming structuré, diffuser des données à partir d'un fichier et les écrire dans un système de fichiers distribué, etc.

Créer des rapports à l'aide de Power BI avec Azure Synapse Analytics

  • Créer des rapports avec Power BI en utilisant son intégration avec Azure Synapse Analytics.
Travaux pratiques
Intégrer un espace de travail Azure Synapse et Power BI. Optimiser l'intégration avec Power BI. Améliorer les performances des requêtes avec des vues matérialisées et la mise en cache des résultats. Visualiser les données avec SQL sans serveur et créer un rapport Power BI.

Processus d'apprentissage automatique intégrés dans Azure Synapse Analytics

  • Utiliser le processus d'apprentissage automatique intégré dans Azure Synapse Analytics.
Travaux pratiques
Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics : créer un service lié Azure Machine Learning. Déclencher une expérience Auto ML à l'aide des données d'une table Spark. Enrichir les données à l'aide de modèles entraînés. Diffuser les résultats avec Power BI.


Certification en option
La réussite de l'examen permet d'obtenir la certification "Microsoft Certified: Azure Data Engineer Associate".
Comment passer votre examen ?

Méthodes et moyens pédagogiques
Méthodes pédagogiques;
Animation de la formation en français. Support de cours officiel au format numérique et en anglais. Bonne compréhension de l'anglais à l'écrit.

Modalités d'évaluation
Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…
Le participant complète également un test de positionnement en amont et en aval pour valider les compétences acquises.

Options
Certification : 200 € HT
Certifiez-vous pour faire reconnaître vos compétences sur le marché et booster votre carrière.
L’option de certification se présente sous la forme d’un voucher et de « practice tests » qui vous permettront de vous entraîner et de passer l’examen à l’issue de la formation.

Solutions de financement
Pour trouver la meilleure solution de financement adaptée à votre situation : contactez votre conseiller formation.
Il vous aidera à choisir parmi les solutions suivantes :
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • France Travail sous réserve de l’acceptation de votre dossier par votre conseiller France Travail.
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • France Travail sous réserve de l’acceptation de votre dossier par votre conseiller France Travail.

Avis clients
3,9 / 5
Les avis clients sont issus des évaluations de fin de formation. La note est calculée à partir de l’ensemble des évaluations datant de moins de 12 mois. Seules celles avec un commentaire textuel sont affichées.
QUENTIN L.
02/07/24
3 / 5

Trop centré sur les outils Microsoft sans trop approfondir les concepts de BIQuelques coquilles / erreur dans le support de l’intervenant
OUMI HOUZAIMAT A.
02/07/24
4 / 5

J’ai aimé le seul inconvénient est le temps 4 jours c’est insuffisant
SÉBASTIEN L.
19/03/24
4 / 5

Le contenu du cours est bien mais la gestion des environnements via Go Deploy est à revoir. Certains exercices n’ont pas pu être faits. Je pensais que l’on aurait un peu plus abordé Azure Data Lake ainsi que l’administration des différents outils que l’on a vu.




Horaires
En présentiel, les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45. Les pauses et déjeuners sont offerts.
En classe à distance, la formation démarre à partir de 9h.
Pour les stages pratiques de 4 ou 5 jours, quelle que soit la modalité, les sessions se terminent à 16h le dernier jour.