Skip to main Content

Mise en œuvre d'un Lakehouse avec Microsoft Fabric (DP-601)

  • Référence M-DP601
  • Durée 1 Jour

Modalité pédagogique

Classe inter en présentiel Prix

Nous contacter

Demander une formation en intra-entreprise S'inscrire

Modalité pédagogique

La formation est disponible dans les formats suivants:

  • Classe inter à distance

    Depuis n'importe quelle salle équipée d'une connexion internet, rejoignez la classe de formation délivrée en inter-entreprises.

  • Classe inter en présentiel

    Formation délivrée en inter-entreprises. Cette méthode d'apprentissage permet l'interactivité entre le formateur et les participants en classe.

  • Intra-entreprise

    Cette formation est délivrable en groupe privé, et adaptable selon les besoins de l’entreprise. Nous consulter.

Demander cette formation dans un format différent

Ce cours est conçu pour développer vos compétences fondamentales en ingénierie des données sur Microsoft Fabric, en se concentrant sur le concept Lakehouse.

Ce cours explorera les puissantes capacités d'Apache Spark pour le traitement des données distribuées et les techniques essentielles pour une gestion efficace des données, des versions et de la fiabilité en travaillant avec les tables Delta Lake, ainsi que l'ingestion et l'orchestration des données en utilisant les pipelines Dataflows Gen2 et Data Factory.

Ce cours comprend une combinaison de parties magistrales et d'exercices pratiques qui vous prépareront à travailler avec des Lakehouses dans Microsoft Fabric.

Mis à jour Mars 2024.

Prochaines dates

Haut de page

Ce cours s'adresse principalement aux professionnels des données qui sont familiers avec la modélisation, l'extraction et l'analyse des données.

Il est conçu pour les professionnels qui souhaitent acquérir des connaissances sur l'architecture Lakehouse, la plate-forme Microsoft Fabric et la façon de mettre en œuvre l'analyse de bout en bout à l'aide de ces technologies.

Objectifs de la formation

Haut de page

À l'issue de la formation, les participants seront capables de :

  • Comprendre l'analyse de bout en bout avec Microsoft Fabric
  • Démarrer avec lakehouses dans Microsoft Fabric
  • Utiliser Apache Spark dans Microsoft Fabric
  • Travailler avec les tables Delta Lake dans Microsoft Fabric
  • Ingérer des données avec Dataflows Gen2 dans Microsoft Fabric
  • Utiliser les pipelines Data Factory dans Microsoft Fabric

Programme détaillé

Haut de page

Module 1 : Introduction à l'analyse de bout en bout avec Microsoft Fabric

  • Décrire l'analyse de bout en bout dans Microsoft Fabric

Module 2 : Démarrer avec les centres d'hébergement (lakehouses) dans Microsoft Fabric

  • Décrire les principales caractéristiques et capacités des centres de données (lakehouses) dans Microsoft Fabric
  • Créer un lakehouse
  • Intégrer des données dans des fichiers et des tables dans un lakehouse
  • Interroger les tables d'un lakehouse avec SQL

Module 3 : Utiliser Apache Spark dans Microsoft Fabric

  • Configurer Spark dans un espace de travail Microsoft Fabric
  • Identifier les scénarios appropriés pour les notebooks et les jobs Spark
  • Utiliser les dataframes Spark pour analyser et transformer les données
  • Utiliser Spark SQL pour interroger les données dans les tables et les vues
  • Visualiser les données dans un notebook Spark

Module 4 : Travailler avec des tables Delta Lake dans Microsoft Fabric

  • Comprendre Delta Lake et les tables delta dans Microsoft Fabric
  • Créer et gérer des tables delta à l'aide de Spark
  • Utiliser Spark pour interroger et transformer les données dans les tables delta
  • Utiliser les tables delta avec Spark structured streaming

Module 5 : Intégrer des données avec Dataflows Gen2 dans Microsoft Fabric

  • Décrire les capacités de Dataflow (Gen2) dans Microsoft Fabric
  • Créer des solutions de flux de données (Gen2) pour ingérer et transformer des données
  • Inclure un Dataflow (Gen2) dans un pipeline

Module 6 : Utiliser les pipelines Data Factory dans Microsoft Fabric

  • Décrire les capacités des pipelines dans Microsoft Fabric
  • Utiliser l'activité Copy Data dans un pipeline
  • Créer des pipelines basés sur des modèles prédéfinis
  • Exécuter et surveiller les pipelines

Pré-requis

Haut de page

Les participants doivent avoir le prérequis suivant :

  • Etre familiarisé avec les concepts et la terminologie de base des données

Bon à savoir

Haut de page

Les participants réalisent un test d'évaluation des connaissances en amont et en aval de la formation pour valider les connaissances acquises pendant la formation.

Un support de cours officiel sera remis aux participants.