Cours officiel
Formation certifiante
Déployez des solutions d’ingénierie des données robustes et industrialisables avec Microsoft Fabric.
En 4 jours, cette formation vous accompagne pas à pas pour concevoir des modèles de chargement efficaces, structurer une architecture data (lakehouse, entrepôt, temps réel), orchestrer les traitements et fiabiliser l’exploitation au quotidien.
Vous mettez en pratique l’ingestion et la transformation via Dataflows Gen2, pipelines, Apache Spark et Delta Lake, puis abordez la Real-Time Intelligence (Eventstreams, eventhouse/KQL, tableaux de bord temps réel, Activator).
La formation couvre également les dimensions essentielles en environnement entreprise : supervision (capacités, activités, hub de monitoring), sécurisation des accès (rôles, permissions, RLS/CLS, masquage dynamique), ainsi que l’industrialisation via CI/CD et l’intégration Git.
Conçue pour des professionnels data disposant déjà d’une première expérience ETL, elle combine démonstrations et travaux pratiques progressifs, avec un positionnement opérationnel.
Explorer l’analytique de bout en bout avec Microsoft Fabric (0h45)
- Microsoft Fabric : périmètre et composants
- Organisation des équipes data et rôle de Fabric dans la chaîne analytique
- Activer et utiliser Microsoft Fabric (workspaces, items, bonnes pratiques de démarrage)
Bien démarrer avec les lakehouses dans Microsoft Fabric (1h15)
- Qu’est-ce qu’un lakehouse ?
- Travailler avec un lakehouse Fabric (objets, fichiers, tables)
- Charger des données dans un lakehouse
- Explorer, transformer et visualiser les données dans le lakehouse
- Travail pratique : créer un lakehouse Microsoft Fabric et ingérer des données
Utiliser Apache Spark dans Microsoft Fabric (1h30)
- Qu’est-ce qu’Apache Spark ?
- Comment utiliser Apache Spark
- Préparer l’utilisation de Apache Spark dans Fabric
- Configurer l’environnement Apache Spark
- Exécuter Apache Spark dans Fabric
- Ingérer des données avec Apache Spark
- Charger des données dans un DataFrame Spark
- Transformer des données dans un DataFrame Spark
- Travailler les données avec Spark SQL
- Interroger les données avec l’API Spark SQL
- Visualiser les données
- Travail pratique : analyser des données avec Apache Spark
Travailler avec des tables Delta Lake dans Microsoft Fabric (1h15)
- Comprendre Delta Lake
- Créer des tables Delta à l’aide de code dans Apache Spark
- Tables managées vs externes
- Travailler avec des tables Delta dans Spark
- Spark Structured Streaming (principes)
- Utiliser Delta Lake comme source de streaming
- Utiliser Delta Lake comme cible (sink) de streaming
- Optimisation : OptimizeWrite, Optimize, V-Order
- Maintenance : Vacuum, partitionnement des fichiers
- Versionnement des données et voyage dans le temps (time travel)
- Travail pratique : utiliser des tables Delta dans Apache Spark
Ingérer des données avec Dataflow Gen2 dans Microsoft Fabric (1h00)
- Comprendre Dataflow Gen2
- Avantages et limites de Dataflow Gen2
- Explorer Dataflow Gen2
- Intégrer Dataflow Gen2 et les pipelines
- Travail pratique : créer et utiliser un Dataflow Gen2 dans Microsoft Fabric
Orchestrer les processus et les mouvements de données avec Microsoft Fabric (1h45)
- Les pipelines dans Microsoft Fabric
- Activités courantes – copie de données
- Utiliser des modèles pour les activités courantes
- Exécuter et superviser un pipeline
- Travail pratique : ingérer des données avec un pipeline
Organiser un lakehouse Fabric avec l’architecture médaillon (1h30)
- Présentation de l’architecture en médaillon
- Déplacer et transformer les données entre les couches
- Mettre en œuvre une architecture en médaillon
- Interroger et produire des rapports sur les données dans votre lakehouse Fabric
- Sécuriser les couches de l’architecture en médaillon
- Travail pratique : organiser un lakehouse Fabric à l’aide d’une architecture en médaillon
Bien démarrer avec l’intelligence en temps réel dans Microsoft Fabric (1h15)
- Qu’est-ce que l’analytique en temps réel ?
- L’intelligence en temps réel dans Microsoft Fabric
- Real-Time Hub
- Ingérer et transformer des données en temps réel
- Stocker et interroger des données en temps réel
- Visualiser des données en temps réel
- Automatiser des actions
- Travail pratique : bien démarrer avec l’intelligence en temps réel dans Microsoft Fabric
Utiliser les Eventstreams en temps réel dans Microsoft Fabric (1h15)
- Composants d’un eventstream
- Sources et destinations des eventstreams
- Transformations des eventstreams
- Travail pratique : ingérer des données en temps réel avec les Eventstreams dans Microsoft Fabric
Travailler avec des données en temps réel dans un eventhouse Microsoft Fabric (1h15)
- Bien démarrer avec un eventhouse
- Utiliser efficacement KQL
- Vues matérialisées et fonctions stockées
- Travail pratique : travailler avec des données dans un eventhouse Microsoft Fabric
Créer des tableaux de bord temps réel avec Microsoft Fabric (1h15)
- Bien démarrer avec les tableaux de bord en temps réel
- Organiser et filtrer les données des tableaux de bord
- Gestion et optimisation des tableaux de bord
- Travail pratique : bien démarrer avec les tableaux de bord en temps réel dans Microsoft Fabric
Utiliser Activator dans Microsoft Fabric (1h00)
- Qu’est-ce qu’Activator ?
- Configurer Activator sur vos données
- Créer des règles dans Activator
- Configurer des actions dans Activator
- Travail pratique : utiliser Activator dans Fabric
Bien démarrer avec les entrepôts de données dans Microsoft Fabric (1h15)
- Fondamentaux des entrepôts de données (Data Warehouse)
- Comprendre les entrepôts Fabric
- Créer un entrepôt de données dans Fabric
- Concevoir un entrepôt de données
- Types particuliers de tables de dimensions
- Conception du schéma d’un entrepôt de données
- Ingérer des données dans un entrepôt de données
- Cloner des tables
- Interroger les données
- Visualiser les requêtes
- Créer des relations
- Comprendre le modèle sémantique par défaut
- Visualiser les données
- Vue d’ensemble de la sécurité
- Autorisations des espaces de travail et des éléments
- Travail pratique : analyser des données dans un entrepôt de données
Charger des données dans un entrepôt de données Microsoft Fabric (1h15)
- Comprendre l’ETL (Extract, Transform and Load)
- Mettre en zone de transit (staging) les données
- Différents types de chargement de données
- Clés de dimension
- Créer des tables avec T-SQL
- Charger les tables de dimensions
- Charger les tables de faits
- Charger des données avec les pipelines Fabric
- Configurer l’assistant de copie de données
- Charger des données avec T-SQL
- Charger à partir d’autres ressources
- Charger des données avec Dataflows Gen2
- Transformer les données avec Copilot
- Travail pratique : charger des données dans un entrepôt de données dans Microsoft Fabric
Surveiller un entrepôt de données Microsoft Fabric (1h00)
- Surveiller les métriques de capacité
- Catégories d’opérations de l’entrepôt de données
- Graphique d’exploration des points temporels
- Considérations d’utilisation
- Surveiller l’activité en cours
- Interroger les vues d’analyses (insights)
- Travail pratique : surveiller un entrepôt de données dans Microsoft Fabric
Sécuriser un entrepôt de données Microsoft Fabric (1h15)
- Masquage dynamique des données
- Règles de masquage
- Comment configurer le masquage dynamique des données
- Sécurité au niveau des lignes (Row-Level Security)
- Comment mettre en œuvre la sécurité au niveau des lignes
- Exemple de sécurité au niveau des lignes
- Sécurité au niveau des colonnes
- Autorisations granulaires à l’aide de T-SQL
- Travail pratique : sécuriser les données dans un entrepôt de données
Mettre en œuvre l’intégration continue et la livraison continue (CI/CD) (1h45)
- CI/CD : concepts appliqués à Fabric
- Bonnes pratiques lors du travail avec plusieurs développeurs
- Utiliser le CI/CD dans Fabric
- Mettre en œuvre le contrôle de version et l’intégration Git
- Valider (commit) et synchroniser les modifications
- Scénarios de branchement
- Mettre en œuvre des pipelines de déploiement
- Utiliser les pipelines de déploiement avec Git
- Utiliser les API REST de Fabric
- Travail pratique : mettre en œuvre des pipelines de déploiement dans Microsoft Fabric
Surveiller les activités dans Microsoft Fabric (1h30)
- Surveiller les activités Fabric
- Bonnes pratiques de supervision
- Utiliser le Hub de supervision (Monitoring Hub)
- Agir avec Activator
- Cas d’usage d’Activator
- Travail pratique : surveiller l’activité Fabric dans le hub de supervision
Sécuriser l’accès aux données dans Microsoft Fabric (1h45)
- Sécuriser les données selon les charges de travail et les responsabilités des rôles
- Comprendre le modèle de sécurité Fabric
- Conception de la sécurité des données
- Comprendre les rôles des espaces de travail
- Configurer les autorisations au niveau des espaces de travail et des éléments
- Configurer l’accès en lecture au lakehouse
- Utiliser T-SQL pour configurer des autorisations granulaires
- Utiliser les rôles d’accès aux données OneLake pour sécuriser les données
- Travail pratique : sécuriser l’accès aux données dans Microsoft Fabric
Administrer Microsoft Fabric (1h15)
- Comprendre l’architecture Fabric
- Comprendre les concepts Fabric
- Tâches d’administration Fabric
- Outils d’administration Fabric
- Portail d’administration Fabric
- Espace de travail de supervision de l’administration Fabric
- Application des métriques de capacité Fabric
- Gérer la sécurité Fabric
- Attribuer et gérer les licences utilisateurs
- Gouvernance des données dans Fabric