DP-100 : Comment réussir l’examen ?

-
2
 m de lecture
-

Le certificat DP-100 est un titre donné aux experts excellant en Science des données et en Machine Learning (ML). Cela signifie qu’ils peuvent former et déployer des solutions sur Azure (Designing and Implementing a Data Science Solution on Azure), et entre autres, exécuter les charges de travail d’apprentissage automatique sur Azure avec Azure ML Service. Cela implique de savoir planifier et générer un paramètre de travail pertinent pour les charges de travail Data Science sur Azure.

Prérequis pour le DP-100 Exam

Avant de passer l’examen DP-100, chaque candidat doit avoir quelques connaissances :

  • Fondamentaux sur les services Azure
  • Expérience dans le langage Python pour travailler avec des données, en utilisant des bibliothèques telles que Numpy, Pandas et Matplotlib.
  • Compréhension de la Data Science pour savoir préparer des données et former des modèles d’apprentissage automatique à l’aide de bibliothèques ML courantes telles que Scikit-Learn, PyTorch ou Tensorflow.

Sujets du DP-100 Exam

Les domaines suivants sont les principaux sujets sur lesquels sont mesurées les connaissances nécessaires à l’acquisition du certificat Microsoft DP-100.

1. Configurer un espace de travail Azure Machine Learning

  • Créer un espace de travail Azure Machine Learning (création d’un espace de travail Azure Machine Learning dans Azure ML Studio).
  • Créer et gérer des banques de données et des ensembles de données (enregistrement des banques de données et la création d’ensembles de données).
  • Créer des cibles de calcul nécessaires au déploiement des charges de travail de ML et pour l’expérience.

2. Exécution des expériences et formation des modèles

  • Créer des modèles ML à l’aide du concepteur Azure ML (automatiser un pipeline Microsoft Certified Azure Data Scientist Associate à l’aide d’un concepteur).
  • Exécuter des scripts de formation dans un espace de travail Azure ML (création et l’exécution d’une expérience à l’aide du SDK Azure ML, l’utilisation des données d’un ensemble de données, la configuration des paramètres d’exécution d’un script, etc.).
  • Générer des métriques, récupérer les résultats d’expérience et dépanner l’exécution d’une expérience (cela consiste à couvrir les métriques de journal générées à partir d’une exécution d’expérience et à afficher les sorties d’expérience).

3. Optimisation et gestion des modèles

  • Créer un modèle de ML à l’aide du Machine Learning automatisé d’Azure ML Studio et du SDK Azure ML
  • Régler les hyperparamètres à l’aide d’hyperdrive (définition des valeurs des hyperparamètres pour le modèle, la sélection des méthodes d’échantillonnage, etc.).
  • Interpréter chaque modèle et générer des données par importance de leurs caractéristiques (sélection d’un interpréteur de modèle et de données).
  • Enregistrer et surveiller le modèle pour éviter toute dérive de données (enregistrement du modèle entraîné et la surveillance de la dérive des données).

4. Déploiement et utilisation des modèles ML

  • Créer des cibles de calcul pour la production (porter attention sur la sécurité pour les services déployés et l’évaluation des options de calcul).
  • Déployer le modèle ML en tant que service (configuration des paramètres de déploiement, utilisation des services déployés, etc.).
  • Créer et exécuter un pipeline d’inférence par lots (création d’un pipeline d’inférence par lots et obtention de sorties.
  • Déployer un pipeline de concepteur en tant que service Web (création d’une ressource cible de calcul et utilisation du point de terminaison déployé).
Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?