Explorer les options de calcul et de stockage pour les charges de travail analytiques
- Introduction à Azure Synapse Analytics.
- Décrire Azure Databricks.
- Introduction au stockage Azure Data Lake.
- Décrire l'architecture du data lake.
- Travailler avec des flux de données à l'aide d'Azure Stream Analytics.
Travaux pratiques
Combiner le streaming et le traitement par lots avec un seul pipeline. Organiser le data lake en niveaux de transformation de fichiers. Indexer le stockage du data lake pour l'accélération des requêtes et de la charge de travail.
Concevoir et implémenter la couche de service
- Concevoir un schéma multidimensionnel pour optimiser les charges de travail analytiques.
- Savoir transformer sans code à grande échelle avec Azure Data Factory.
- Remplir les dimensions qui changent lentement dans les pipelines Azure Synapse Analytics.
Travaux pratiques
Concevoir un schéma en étoile pour les charges de travail analytiques. Remplir les dimensions à évolution lente avec Azure Data Factory et mapper les flux de données.
Considérations d'ingénierie des données pour les fichiers source
- Concevoir un entrepôt de données moderne à l'aide d'Azure Synapse Analytics.
- Sécuriser un entrepôt de données dans Azure Synapse Analytics.
Travaux pratiques
Gestion des fichiers et sécurisation des fichiers stockés dans un data lake Azure.
Exécuter des requêtes interactives à l'aide de pools SQL sans serveur ASA
- Explorer les capacités des pools SQL sans serveur Azure Synapse.
- Interroger les données dans le lac à l'aide des pools SQL sans serveur Azure Synapse.
- Créer des objets de métadonnées dans les pools SQL sans serveur Azure Synapse.
- Sécuriser les données et gérer les utilisateurs dans les pools SQL sans serveur Azure Synapse.
Travaux pratiques
Exécuter des requêtes interactives à l'aide de pools SQL sans serveur Azure Synapse Analytics (ASA) : interroger les données Parquet avec des pools SQL sans serveur, créer des tables externes pour les fichiers Parquet et CSV, créer des vues avec des pools SQL sans serveur, etc.
Explorer, transformer et charger des données dans l'entrepôt de données
- Comprendre l'ingénierie big data avec Apache Spark dans Azure Synapse Analytics.
- Ingérer des données avec des blocs-notes Apache Spark dans Azure Synapse Analytics.
- Transformer les données avec les DataFrames dans les pools Apache Spark dans Azure Synapse Analytics.
- Intégrer les pools SQL et Apache Spark dans Azure Synapse Analytics.
Travaux pratiques
Explorer, transformer et charger des données dans le data warehouse à l'aide d'Apache Spark.
Explorer et transformer des données dans Azure Databricks
- Décrire Azure Databricks.
- Lire et écrire des données dans Azure Databricks.
- Utiliser des DataFrames dans Azure Databricks.
- Travailler avec les méthodes avancées DataFrames dans Azure Databricks.
Travaux pratiques
Utilisez DataFrames dans Azure Databricks pour explorer et filtrer les données. Mettre en cache un DataFrame pour des requêtes ultérieures plus rapides. Supprimer les données en double. Manipuler les valeurs de date/heure. Supprimer et renommer des colonnes DataFrame, etc.
Ingérer et charger des données dans l'entrepôt de données
- Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics.
- Ingérer à l'échelle du pétaoctet avec Azure Data Factory.
Travaux pratiques
Réaliser une ingestion à l'échelle du pétaoctet avec Azure Synapse Pipelines. Importer des données avec PolyBase et COPIER à l'aide de T-SQL. Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics.
Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
- Intégrer des données avec Azure Data Factory ou Azure Synapse Pipelines.
- Transformer sans code à grande échelle avec Azure Data Factory ou Azure Synapse Pipelines.
Travaux pratiques
Exécuter des transformations sans code à grande échelle avec Azure Synapse Pipelines. Créer un pipeline de données pour importer des fichiers CSV mal formatés. Créer des flux de données cartographiques.
Utiliser Azure Synapse Pipelines
- Orchestrer le mouvement et la transformation des données dans Azure Data Factory.
Travaux pratiques
Intégrer les données des notebooks avec Azure Data Factory ou Azure Synapse Pipelines.
Optimiser les performances des requêtes avec des pools SQL
- Optimiser les performances des requêtes d'entrepôt de données dans Azure Synapse Analytics.
- Comprendre les fonctionnalités de développement d'entrepôt de données d'Azure Synapse Analytics.
Travaux pratiques
Comprendre les fonctionnalités de développement d'Azure Synapse Analytics. Optimiser les performances des requêtes d'entrepôt de données dans Azure Synapse Analytics. Améliorer les performances des requêtes.
Analyser et optimiser le stockage de l'entrepôt de données
- Analyser et optimiser le stockage de l'entrepôt de données dans Azure Synapse Analytics.
Travaux pratiques
Vérifier les données faussées et l'utilisation de l'espace. Comprendre les détails du stockage du magasin de colonnes. Étudier l'impact des vues matérialisées. Explorer les règles pour les opérations minimalement enregistrées.
Prendre en charge du traitement analytique transactionnel hybride (HTAP)
- Concevoir un traitement transactionnel et analytique hybride à l'aide d'Azure Synapse Analytics.
- Configurer Azure Synapse Link avec Azure Cosmos DB.
- Interroger Azure Cosmos DB avec les pools Apache Spark.
- Interroger Azure Cosmos DB avec des pools SQL sans serveur.
Travaux pratiques
Prise en charge du traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link.
Sécuriser de bout en bout avec Azure Synapse Analytics
- Sécuriser un entrepôt de données dans Azure Synapse Analytics.
- Configurer et gérer les secrets dans Azure Key Vault.
- Mettre en œuvre des contrôles de conformité pour les données sensibles.
Travaux pratiques
Sécuriser l'infrastructure de support Azure Synapse Analytics. Sécuriser l'espace de travail et des services gérés Azure Synapse Analytics. Sécuriser les données de l'espace de travail Azure Synapse Analytics.
Effectuer des traitements de flux en temps réel avec Stream Analytics
- Ingérer des flux de données avec Azure Stream Analytics.
- Activer une messagerie fiable pour les applications big data à l'aide d'Azure Event Hubs.
- Travailler avec des flux de données à l'aide d'Azure Stream Analytics.
Travaux pratiques
Utiliser Stream Analytics pour traiter les données en temps réel des Event Hubs. Utiliser les fonctions de fenêtrage de Stream Analytics pour créer des agrégats et générer des sorties vers Synapse Analytics. Mettre à l'échelle le travail Azure Stream Analytics pour augmenter le débit, etc.
Créer une solution de traitement de flux avec Event Hubs et Azure Databricks
- Traiter les données de streaming avec le streaming structuré Azure Databricks.
Travaux pratiques
Créer une solution de traitement de flux avec Event Hubs et Azure Databricks : explorer les principales fonctionnalités et utilisations du streaming structuré, diffuser des données à partir d'un fichier et les écrire dans un système de fichiers distribué, etc.
Créer des rapports à l'aide de Power BI avec Azure Synapse Analytics
- Créer des rapports avec Power BI en utilisant son intégration avec Azure Synapse Analytics.
Travaux pratiques
Intégrer un espace de travail Azure Synapse et Power BI. Optimiser l'intégration avec Power BI. Améliorer les performances des requêtes avec des vues matérialisées et la mise en cache des résultats. Visualiser les données avec SQL sans serveur et créer un rapport Power BI.
Processus d'apprentissage automatique intégrés dans Azure Synapse Analytics
- Utiliser le processus d'apprentissage automatique intégré dans Azure Synapse Analytics.
Travaux pratiques
Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics : créer un service lié Azure Machine Learning. Déclencher une expérience Auto ML à l'aide des données d'une table Spark. Enrichir les données à l'aide de modèles entraînés. Diffuser les résultats avec Power BI.