icon pour séléctionner cette formation en favoris

Formation : Mettre en œuvre des solutions d’ingénierie des données à l’aide de Microsoft Fabric

Dernière mise à jour : 18 février 2026

icone d'un cours officiel

Cours officiel

Microsoft
icone d'une formation certifiante

Formation certifiante

Déployez des solutions d’ingénierie des données robustes et industrialisables avec Microsoft Fabric.

En 4 jours, cette formation vous accompagne pas à pas pour concevoir des modèles de chargement efficaces, structurer une architecture data (lakehouse, entrepôt, temps réel), orchestrer les traitements et fiabiliser l’exploitation au quotidien.

Vous mettez en pratique l’ingestion et la transformation via Dataflows Gen2, pipelines, Apache Spark et Delta Lake, puis abordez la Real-Time Intelligence (Eventstreams, eventhouse/KQL, tableaux de bord temps réel, Activator).

La formation couvre également les dimensions essentielles en environnement entreprise : supervision (capacités, activités, hub de monitoring), sécurisation des accès (rôles, permissions, RLS/CLS, masquage dynamique), ainsi que l’industrialisation via CI/CD et l’intégration Git.

Conçue pour des professionnels data disposant déjà d’une première expérience ETL, elle combine démonstrations et travaux pratiques progressifs, avec un positionnement opérationnel.

Objectifs pédagogiques

  • Mettre en œuvre des scénarios d’ingestion et de transformation de données dans Microsoft Fabric (lakehouse, Dataflows Gen2, Spark, pipelines)
  • Concevoir une architecture data orientée analytics (médaillon, warehouse, temps réel) et orchestrer les traitements associés
  • Surveiller et diagnostiquer l’activité et la performance d’une solution Fabric (capacités, activités, monitoring hub)
  • Appliquer des mécanismes de sécurité et de gestion des accès (workspace, permissions, rôles OneLake, RLS/CLS, masquage dynamique)
  • Mettre en place une chaîne CI/CD et une gestion de versions adaptées aux développements Fabric
Public concerné

Cette formation s’adresse aux professionnels (ingénieurs data, ingénieurs analytiques, ingénieurs BI, architectes de données) qui doivent créer et déployer des solutions d’ingénierie des données à l’aide de Microsoft Fabric pour l’analytique de données à l’échelle de l’entreprise.

Prérequis

  • Expérience en extraction, transformation et chargement de données (ETL).
  • Expérience de manipulation/transformation avec l’un des langages de programmation suivants : Structured Query Language (SQL), PySpark ou Kusto Query Language (KQL)
Programme détaillé

Explorer l’analytique de bout en bout avec Microsoft Fabric (0h45)

  • Microsoft Fabric : périmètre et composants
  • Organisation des équipes data et rôle de Fabric dans la chaîne analytique
  • Activer et utiliser Microsoft Fabric (workspaces, items, bonnes pratiques de démarrage)

Bien démarrer avec les lakehouses dans Microsoft Fabric (1h15)

  • Qu’est-ce qu’un lakehouse ?
  • Travailler avec un lakehouse Fabric (objets, fichiers, tables)
  • Charger des données dans un lakehouse
  • Explorer, transformer et visualiser les données dans le lakehouse
  • Travail pratique : créer un lakehouse Microsoft Fabric et ingérer des données

Utiliser Apache Spark dans Microsoft Fabric (1h30)

  • Qu’est-ce qu’Apache Spark ?
  • Comment utiliser Apache Spark
  • Préparer l’utilisation de Apache Spark dans Fabric
  • Configurer l’environnement Apache Spark
  • Exécuter Apache Spark dans Fabric
  • Ingérer des données avec Apache Spark
  • Charger des données dans un DataFrame Spark
  • Transformer des données dans un DataFrame Spark
  • Travailler les données avec Spark SQL
  • Interroger les données avec l’API Spark SQL
  • Visualiser les données
  • Travail pratique : analyser des données avec Apache Spark

Travailler avec des tables Delta Lake dans Microsoft Fabric (1h15)

  • Comprendre Delta Lake
  • Créer des tables Delta à l’aide de code dans Apache Spark
  • Tables managées vs externes
  • Travailler avec des tables Delta dans Spark
  • Spark Structured Streaming (principes)
  • Utiliser Delta Lake comme source de streaming
  • Utiliser Delta Lake comme cible (sink) de streaming
  • Optimisation : OptimizeWrite, Optimize, V-Order
  • Maintenance : Vacuum, partitionnement des fichiers
  • Versionnement des données et voyage dans le temps (time travel)
  • Travail pratique : utiliser des tables Delta dans Apache Spark

Ingérer des données avec Dataflow Gen2 dans Microsoft Fabric (1h00)

  • Comprendre Dataflow Gen2
  • Avantages et limites de Dataflow Gen2
  • Explorer Dataflow Gen2
  • Intégrer Dataflow Gen2 et les pipelines
  • Travail pratique : créer et utiliser un Dataflow Gen2 dans Microsoft Fabric

Orchestrer les processus et les mouvements de données avec Microsoft Fabric (1h45)

  • Les pipelines dans Microsoft Fabric
  • Activités courantes – copie de données
  • Utiliser des modèles pour les activités courantes
  • Exécuter et superviser un pipeline
  • Travail pratique : ingérer des données avec un pipeline

Organiser un lakehouse Fabric avec l’architecture médaillon (1h30)

  • Présentation de l’architecture en médaillon
  • Déplacer et transformer les données entre les couches
  • Mettre en œuvre une architecture en médaillon
  • Interroger et produire des rapports sur les données dans votre lakehouse Fabric
  • Sécuriser les couches de l’architecture en médaillon
  • Travail pratique : organiser un lakehouse Fabric à l’aide d’une architecture en médaillon

Bien démarrer avec l’intelligence en temps réel dans Microsoft Fabric (1h15)

  • Qu’est-ce que l’analytique en temps réel ?
  • L’intelligence en temps réel dans Microsoft Fabric
  • Real-Time Hub
  • Ingérer et transformer des données en temps réel
  • Stocker et interroger des données en temps réel
  • Visualiser des données en temps réel
  • Automatiser des actions
  • Travail pratique : bien démarrer avec l’intelligence en temps réel dans Microsoft Fabric

Utiliser les Eventstreams en temps réel dans Microsoft Fabric (1h15)

  • Composants d’un eventstream
  • Sources et destinations des eventstreams
  • Transformations des eventstreams
  • Travail pratique : ingérer des données en temps réel avec les Eventstreams dans Microsoft Fabric

Travailler avec des données en temps réel dans un eventhouse Microsoft Fabric (1h15)

  • Bien démarrer avec un eventhouse
  • Utiliser efficacement KQL
  • Vues matérialisées et fonctions stockées
  • Travail pratique : travailler avec des données dans un eventhouse Microsoft Fabric

Créer des tableaux de bord temps réel avec Microsoft Fabric (1h15)

  • Bien démarrer avec les tableaux de bord en temps réel
  • Organiser et filtrer les données des tableaux de bord
  • Gestion et optimisation des tableaux de bord
  • Travail pratique : bien démarrer avec les tableaux de bord en temps réel dans Microsoft Fabric

Utiliser Activator dans Microsoft Fabric (1h00)

  • Qu’est-ce qu’Activator ?
  • Configurer Activator sur vos données
  • Créer des règles dans Activator
  • Configurer des actions dans Activator
  • Travail pratique : utiliser Activator dans Fabric

Bien démarrer avec les entrepôts de données dans Microsoft Fabric (1h15)

  • Fondamentaux des entrepôts de données (Data Warehouse)
  • Comprendre les entrepôts Fabric
  • Créer un entrepôt de données dans Fabric
  • Concevoir un entrepôt de données
  • Types particuliers de tables de dimensions
  • Conception du schéma d’un entrepôt de données
  • Ingérer des données dans un entrepôt de données
  • Cloner des tables
  • Interroger les données
  • Visualiser les requêtes
  • Créer des relations
  • Comprendre le modèle sémantique par défaut
  • Visualiser les données
  • Vue d’ensemble de la sécurité
  • Autorisations des espaces de travail et des éléments
  • Travail pratique : analyser des données dans un entrepôt de données

Charger des données dans un entrepôt de données Microsoft Fabric (1h15)

  • Comprendre l’ETL (Extract, Transform and Load)
  • Mettre en zone de transit (staging) les données
  • Différents types de chargement de données
  • Clés de dimension
  • Créer des tables avec T-SQL
  • Charger les tables de dimensions
  • Charger les tables de faits
  • Charger des données avec les pipelines Fabric
  • Configurer l’assistant de copie de données
  • Charger des données avec T-SQL
  • Charger à partir d’autres ressources
  • Charger des données avec Dataflows Gen2
  • Transformer les données avec Copilot
  • Travail pratique : charger des données dans un entrepôt de données dans Microsoft Fabric

Surveiller un entrepôt de données Microsoft Fabric (1h00)

  • Surveiller les métriques de capacité
  • Catégories d’opérations de l’entrepôt de données
  • Graphique d’exploration des points temporels
  • Considérations d’utilisation
  • Surveiller l’activité en cours
  • Interroger les vues d’analyses (insights)
  • Travail pratique : surveiller un entrepôt de données dans Microsoft Fabric

Sécuriser un entrepôt de données Microsoft Fabric (1h15)

  • Masquage dynamique des données
  • Règles de masquage
  • Comment configurer le masquage dynamique des données
  • Sécurité au niveau des lignes (Row-Level Security)
  • Comment mettre en œuvre la sécurité au niveau des lignes
  • Exemple de sécurité au niveau des lignes
  • Sécurité au niveau des colonnes
  • Autorisations granulaires à l’aide de T-SQL
  • Travail pratique : sécuriser les données dans un entrepôt de données

Mettre en œuvre l’intégration continue et la livraison continue (CI/CD) (1h45)

  • CI/CD : concepts appliqués à Fabric
  • Bonnes pratiques lors du travail avec plusieurs développeurs
  • Utiliser le CI/CD dans Fabric
  • Mettre en œuvre le contrôle de version et l’intégration Git
  • Valider (commit) et synchroniser les modifications
  • Scénarios de branchement
  • Mettre en œuvre des pipelines de déploiement
  • Utiliser les pipelines de déploiement avec Git
  • Utiliser les API REST de Fabric
  • Travail pratique : mettre en œuvre des pipelines de déploiement dans Microsoft Fabric

Surveiller les activités dans Microsoft Fabric (1h30)

  • Surveiller les activités Fabric
  • Bonnes pratiques de supervision
  • Utiliser le Hub de supervision (Monitoring Hub)
  • Agir avec Activator
  • Cas d’usage d’Activator
  • Travail pratique : surveiller l’activité Fabric dans le hub de supervision

Sécuriser l’accès aux données dans Microsoft Fabric (1h45)

  • Sécuriser les données selon les charges de travail et les responsabilités des rôles
  • Comprendre le modèle de sécurité Fabric
  • Conception de la sécurité des données
  • Comprendre les rôles des espaces de travail
  • Configurer les autorisations au niveau des espaces de travail et des éléments
  • Configurer l’accès en lecture au lakehouse
  • Utiliser T-SQL pour configurer des autorisations granulaires
  • Utiliser les rôles d’accès aux données OneLake pour sécuriser les données
  • Travail pratique : sécuriser l’accès aux données dans Microsoft Fabric

Administrer Microsoft Fabric (1h15)

  • Comprendre l’architecture Fabric
  • Comprendre les concepts Fabric
  • Tâches d’administration Fabric
  • Outils d’administration Fabric
  • Portail d’administration Fabric
  • Espace de travail de supervision de l’administration Fabric
  • Application des métriques de capacité Fabric
  • Gérer la sécurité Fabric
  • Attribuer et gérer les licences utilisateurs
  • Gouvernance des données dans Fabric
Certification

Cette formation prépare à l’examen « DP-700: Implementing Data Engineering Solutions Using Microsoft Fabric » qui permet d’obtenir la certification Microsoft Certified: Fabric Data Engineer Associate.

Délais d'accès à la formation

Les inscriptions sont possibles jusqu'à 48 heures avant le début de la formation.

Dans le cas d'une formation financée par le CPF, ENI Service est tenu de respecter un délai minimum obligatoire de 11 jours ouvrés entre la date d'envoi de sa proposition et la date de début de la formation.

Modalités et moyens pédagogiques, techniques et d'encadrement

Formation avec un formateur, qui peut être suivie selon l’une des 3 modalités ci-dessous :

1 - Dans la salle de cours en présence du formateur.

2 - Dans l’une de nos salles de cours immersives, avec le formateur présent physiquement à distance. Les salles immersives sont équipées d’un système de visio-conférence HD et complétées par des outils pédagogiques qui garantissent le même niveau de qualité.

3 - Depuis votre domicile ou votre entreprise. Vous rejoignez un environnement de formation en ligne, à l’aide de votre ordinateur, tout en étant éloigné physiquement du formateur et des autres participants. Vous êtes en totale immersion avec le groupe et participez à la formation dans les mêmes conditions que le présentiel. Pour plus d’informations : Le téléprésentiel – notre solution de formation à distance.


Le nombre de stagiaires peut varier de 1 à 12 personnes (5 à 6 personnes en moyenne), ce qui facilite le suivi permanent et la proximité avec chaque stagiaire.

Chaque stagiaire dispose d’un poste de travail adapté aux besoins de la formation, d’un support de cours et/ou un manuel de référence au format numérique ou papier.

Pour une meilleure assimilation, le formateur alterne tout au long de la journée les exposés théoriques, les démonstrations et la mise en pratique au travers d’exercices et de cas concrets réalisés seul ou en groupe.

Modalités d'évaluation des acquis

En début et en fin de formation, les stagiaires réalisent une auto-évaluation de leurs connaissances et compétences en lien avec les objectifs de la formation. L’écart entre les deux évaluations permet ainsi de mesurer leurs acquis.

En complément, pour les stagiaires qui le souhaitent, certaines formations peuvent être validées officiellement par un examen de certification. Les candidats à la certification doivent produire un travail personnel important en vue de se présenter au passage de l'examen, le seul suivi de la formation ne constitue pas un élément suffisant pour garantir un bon résultat et/ou l'obtention de la certification.

Pour certaines formations certifiantes (ex : ITIL, DPO, ...), le passage de l'examen de certification est inclus et réalisé en fin de formation. Les candidats sont alors préparés par le formateur au passage de l'examen tout au long de la formation.

Moyens de suivi d'exécution et appréciation des résultats

  • Feuille de présence, émargée par demi-journée par chaque stagiaire et le formateur.
  • Evaluation qualitative de fin de formation, qui est ensuite analysée par l'équipe pédagogique ENI.
  • Attestation de fin de formation, remise au stagiaire en main propre ou par courrier électronique.
Qualification du formateur

La formation est animée par un professionnel de l’informatique et de la pédagogie, dont les compétences techniques, professionnelles et pédagogiques ont été validées par des certifications et/ou testées et approuvées par les éditeurs et/ou notre équipe pédagogique.

Il est en veille technologique permanente et possède plusieurs années d’expérience sur les produits, technologies et méthodes enseignés.

Il est présent auprès des stagiaires pendant toute la durée de la formation.

Accessibilité de la formation

ENI Service s'engage en faveur de l'accessibilité pour les personnes en situation de handicap (PSH). Toutes nos formations sont ainsi accessibles aux PSH. Pour en savoir plus, nous vous invitons à consulter la page Accueil des personnes en situation de handicap de notre site internet.

FORMATIONS ASSOCIÉES