Mise en œuvre d'un Lakehouse avec Microsoft Fabric (DP-601)
- Référence M-DP601
- Durée 1 Jour
Modalité pédagogique
Classe inter en présentiel Prix
Nous contacter
Demander une formation en intra-entreprise S'inscrireAller à:
Modalité pédagogique
La formation est disponible dans les formats suivants:
-
Classe inter à distance
Depuis n'importe quelle salle équipée d'une connexion internet, rejoignez la classe de formation délivrée en inter-entreprises.
-
Classe inter en présentiel
Formation délivrée en inter-entreprises. Cette méthode d'apprentissage permet l'interactivité entre le formateur et les participants en classe.
-
Intra-entreprise
Cette formation est délivrable en groupe privé, et adaptable selon les besoins de l’entreprise. Nous consulter.
Demander cette formation dans un format différent
Résumé
Haut de pageCe cours est conçu pour développer vos compétences fondamentales en ingénierie des données sur Microsoft Fabric, en se concentrant sur le concept Lakehouse.
Ce cours explorera les puissantes capacités d'Apache Spark pour le traitement des données distribuées et les techniques essentielles pour une gestion efficace des données, des versions et de la fiabilité en travaillant avec les tables Delta Lake, ainsi que l'ingestion et l'orchestration des données en utilisant les pipelines Dataflows Gen2 et Data Factory.
Ce cours comprend une combinaison de parties magistrales et d'exercices pratiques qui vous prépareront à travailler avec des Lakehouses dans Microsoft Fabric.
Mis à jour Mars 2024.
Prochaines dates
Haut de pagePublic
Haut de pageCe cours s'adresse principalement aux professionnels des données qui sont familiers avec la modélisation, l'extraction et l'analyse des données.
Il est conçu pour les professionnels qui souhaitent acquérir des connaissances sur l'architecture Lakehouse, la plate-forme Microsoft Fabric et la façon de mettre en œuvre l'analyse de bout en bout à l'aide de ces technologies.
Objectifs de la formation
Haut de pageÀ l'issue de la formation, les participants seront capables de :
- Comprendre l'analyse de bout en bout avec Microsoft Fabric
- Démarrer avec lakehouses dans Microsoft Fabric
- Utiliser Apache Spark dans Microsoft Fabric
- Travailler avec les tables Delta Lake dans Microsoft Fabric
- Ingérer des données avec Dataflows Gen2 dans Microsoft Fabric
- Utiliser les pipelines Data Factory dans Microsoft Fabric
Programme détaillé
Haut de pageModule 1 : Introduction à l'analyse de bout en bout avec Microsoft Fabric
- Décrire l'analyse de bout en bout dans Microsoft Fabric
Module 2 : Démarrer avec les centres d'hébergement (lakehouses) dans Microsoft Fabric
- Décrire les principales caractéristiques et capacités des centres de données (lakehouses) dans Microsoft Fabric
- Créer un lakehouse
- Intégrer des données dans des fichiers et des tables dans un lakehouse
- Interroger les tables d'un lakehouse avec SQL
Module 3 : Utiliser Apache Spark dans Microsoft Fabric
- Configurer Spark dans un espace de travail Microsoft Fabric
- Identifier les scénarios appropriés pour les notebooks et les jobs Spark
- Utiliser les dataframes Spark pour analyser et transformer les données
- Utiliser Spark SQL pour interroger les données dans les tables et les vues
- Visualiser les données dans un notebook Spark
Module 4 : Travailler avec des tables Delta Lake dans Microsoft Fabric
- Comprendre Delta Lake et les tables delta dans Microsoft Fabric
- Créer et gérer des tables delta à l'aide de Spark
- Utiliser Spark pour interroger et transformer les données dans les tables delta
- Utiliser les tables delta avec Spark structured streaming
Module 5 : Intégrer des données avec Dataflows Gen2 dans Microsoft Fabric
- Décrire les capacités de Dataflow (Gen2) dans Microsoft Fabric
- Créer des solutions de flux de données (Gen2) pour ingérer et transformer des données
- Inclure un Dataflow (Gen2) dans un pipeline
Module 6 : Utiliser les pipelines Data Factory dans Microsoft Fabric
- Décrire les capacités des pipelines dans Microsoft Fabric
- Utiliser l'activité Copy Data dans un pipeline
- Créer des pipelines basés sur des modèles prédéfinis
- Exécuter et surveiller les pipelines
Pré-requis
Haut de pageLes participants doivent avoir le prérequis suivant :
- Etre familiarisé avec les concepts et la terminologie de base des données
Bon à savoir
Haut de pageLes participants réalisent un test d'évaluation des connaissances en amont et en aval de la formation pour valider les connaissances acquises pendant la formation.
Un support de cours officiel sera remis aux participants.