Ce cours s’adresse principalement aux professionnels des données, aux architectes des données et aux professionnels du décisionnel qui souhaitent en savoir plus sur l’Engineering données et la création de solutions analytiques à l’aide des technologies de plateforme de données présentes sur Microsoft Azure.  

 Il s’adresse également aux analystes de données et aux chercheurs de données qui travaillent avec des solutions analytiques basées sur Microsoft Azure. 

A l'issue de la formation, les participants seront capables de : 

  • Explorer les options de calcul et de stockage pour les charges de travail d'ingénierie des données dans Azure 
  • Concevoir et mettre en œuvre la couche de service 
  • Exécuter des requêtes interactives à l'aide de pools SQL sans serveur 
  • Explorer, transformer et charger des données dans l'entrepôt de données à l'aide d'Apache Spark. 
  • Effectuer l'exploration et la transformation des données dans Azure Databricks 
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines 
  • Intégrer les données des ordinateurs portables avec Azure Data Factory ou Azure Synapse Pipelines 
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse 
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link 
  • Effectuer un traitement de flux en temps réel avec Stream Analytics 

  • Les participants doivent avoir une connaissance du cloud computing et des concepts de données de base et une expérience professionnelle des solutions de données.
  • Pré-requis recommandés par nos formateurs : 
    • MSAZ900 - Microsoft Azure Fundamentals pour les professionnels IT 
    • MSDP900 - Principes fondamentaux des données 

  • Explorer les options de calcul et de stockage pour les charges de travail d'ingénierie des données

    • Introduction à Azure Synapse Analytics 
    • Description d'Azure Databricks 
    • Introduction au stockage Azure Data Lake 
    • Décrire l'architecture Delta Lake 
    • Travailler avec des flux de données à l'aide d'Azure Stream Analytics 
  • Conception et mise en oeuvre de la couche de service

    • Concevoir un schéma multidimensionnel pour otimiser les charges de travail analytiques
    • Transformation sans code à l'échelle avec Azure Data Factory
    • Remplissage de dimensions à évolution lente dans les pipelines Azure Synapse Analytics
  • Considérations d'ingénierie des données pour les fichiers sources

    • Concevoir un entrepôt de données moderne à l'aide d'Azure Synapse Analytics 
    • Sécuriser un entrepôt de données dans Azure Synapse Analytics 
  • Exécution de requêtes interactives à l'aide des pools SQL sans serveur Azure Synapse Analytics
    • Explorer les fonctionnalités des pools SQL sans serveur Azure Synapse 
    • Interroger les données dans le lac à l'aide des pools SQL sans serveur Azure Synapse 
    • Créer les objets de métadonnées dans les pools SQL sans serveur Azure Synapse 
    • Sécuriser les données et gérer les utilisateurs dans les pools SQL sans serveur Azure Synapse 
  • Explorer, transformer et charger des données dans l'entrepôt de données avec Apache Spark 
    • Comprendre l'ingénierie du big data avec Apache Spark dans Azure Synapse Analytics 
    • Ingérer des données avec Apache Spark notebooks dans Azure Synapse Analytics 
    • Transformer les données avec DataFrames dans les pools Apache Spark dans Azure Synapse Analytics. 
    • Intégrer des pools SQL et Apache Spark dans Azure Synapse Analytics 
  • Exploration et transformation des données dans Azure Databricks 
    • Décrire Azure Databricks 
    • Lire et écrire des données dans Azure Databricks 
    • Travailler avec des DataFrames dans Azure Databricks 
    • Utiliser les méthodes avancées des DataFrames dans Azure Databricks 
  • Ingérer et charger des données dans l'entrepôt de données 
    • Utiliser les meilleures pratiques de chargement de données dans Azure Synapse Analytics 
    • Ingérer à l'échelle du pétaoctet avec Azure Data Factory 
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines 
    • Intégrer des données avec Azure Data Factory ou Azure Synapse Pipelines 
    • Transformer sans code à l'échelle avec Azure Data Factory ou Azure Synapse Pipelines 
  • Orchestrer le mouvement et la transformation des données dans Azure Synapse Pipelines 
    • Orchestrer le mouvement et la transformation des données dans Azure Data Factory 
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse 
    • Optimiser les performances des requêtes de l'entrepôt de données dans Azure Synapse Analytics. 
    • Comprendre les fonctions de développement d'entrepôt de données d'Azure Synapse Analytics 
  • Analyser et optimiser le stockage de l'entrepôt de données
    • Analyser et optimiser le stockage de l'entrepôt de données dans Azure Synapse Analytics.
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
    • Concevoir un traitement transactionnel et analytique hybride à l'aide d'Azure Synapse Analytics. 
    • Configurer Azure Synapse Link avec Azure Cosmos DB 
    • Interroger Azure Cosmos DB avec des pools Apache Spark 
    • Interroger Azure Cosmos DB avec des pools SQL sans serveur 
  • Sécurité de bout en bout avec Azure Synapse Analytics
    • Sécurisation d'un entrepôt de données dans Azure Synpase Analytics
    • Configuration et gestion des secrets dans Azure Key Vault
    • Mise en oeuvre de contrôles de conformité pour les données sensibles
  • Traitement des flux en temps réel avec Stream Analytics
    • Activation d'une messagerie fiable pour les applications Big Data à l'aide d'Azure Event Hubs 
    • Travailler avec des flux de données à l'aide d'Azure Stream Analytics
    • Ingérer des flux de données avec Azure Stream Analytics 
  • Créer une solution de traitement de flux avec Event Hubs et Azure Databricks
    • Traitement des données en continu avec le streaming structuré d'Azure Databricks
  • Créer des rappots en utilisant l'intégration de Power BI avec Azure Synapse Analytis
    • Créer des rapports avec Power BI en utilisant son intégration avec Azure Synapse Analytics
  • Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics 
    • Utiliser le processus d'apprentissage automatique intégré dans Azure Synapse Analytics

  • Les consultants spécialistes d'Azure apportent leurs conseils et leur expérience avec plusieurs Labs durant cette formation de 4 jours  
  • Cette formation prépare à l'examen DP-203 (non inclus) qui permet d'atteindre le titre de certification Microsoft Certified Azure Data Engineer Associate (Certification éditeur).  
  • La qualité d'une formation officielle Microsoft (support de cours numérique en anglais). 
  • Votre formateur :  
    • Est un consultant formateur certifié Microsoft  
    • Possède plusieurs années d'expérience  sur l’environnement Azure 
    • En veille permanente pour suivre son évolution. 

  • Les certifications vous donnent un avantage professionnel en fournissant des preuves de maîtrise des compétences reconnues dans le monde entier, démontrant vos capacités et votre volonté d'adopter de nouvelles technologies.
  • Un candidat à la certification Azure Data Engineer Associate doit avoir une expertise en matière d’intégration, de transformation et de regroupement de données issues de différents systèmes de données structurées et non structurées dans des structures adaptées à la création de solutions analytiques.
  • Les responsabilités de ce rôle impliquent d’aider les parties prenantes à comprendre les données par l’exploration, de créer et gérer des pipelines de traitement de données sécurisés et conformes à l’aide de différents outils et techniques. Ce professionnel utilise divers services et langages de données Azure pour stocker et produire des jeux de données nettoyés et optimisés à des fins d’analyse. 
  • Compétences mesurées : 
    • Concevoir et implémenter le stockage des données (15 à 20 %)
    • Développer le traitement des données (40 à 45 %)
    • Sécuriser, superviser et optimiser le stockage des données et le traitement des données (30 à 35 %) 

  • Vous rejoignez la formation avec un PC/Mac équipé d'une webcam, d'un micro, de haut-parleurs et d'Internet.
  • Un 2ème écran est nécessaire pour suivre la formation dans les meilleures conditions.
  • Les participants n’ayant pas accès à l’espace « Mon compte ARRIOPH » recevront un lien URL lors de la formation pour récupérer le support de formation
  • A l'issue de la formation, le participant est invité à s’auto-évaluer par rapport aux objectifs énoncés.
    • En cours de formation, par des études de cas ou des travaux pratiques
    • en fin de formation, par un questionnaire d'auto-évaluation ou le passage de certification (en option)

  • Nous nous engageons à garantir l’accessibilité de nos formations pour tous, y compris les personnes en situation de handicap. Nous mettons un point d'honneur à adapter nos services pour répondre aux besoins spécifiques de chacun, afin que tous puissent bénéficier d'une expérience d'apprentissage inclusive et enrichissante.
  • Pour en savoir plus sur les dispositifs mis en place et pour organiser votre accueil, veuillez consulter notre page dédiée.
  • Nous restons à votre écoute pour toute question ou besoin d'information complémentaire afin de garantir une formation accessible à tous.

* Nos préstations de formations sont exonérées de TVA

Cette formation sur mesure ou en intra-entreprise

On peut adapter cette formation à votre besoin et la réaliser en intra-entreprise, dans vos locaux ou dans notre centre de formation

Contactez-nous