GSP514

Présentation
Dans un atelier challenge, vous devez suivre un scénario et effectuer une série de tâches. Aucune instruction détaillée n'est fournie : vous devez utiliser les compétences acquises au cours des ateliers du cours correspondant pour déterminer comment procéder par vous-même. Vous saurez si vous avez exécuté correctement les différentes tâches grâce au score calculé automatiquement (affiché sur cette page).
Lorsque vous participez à un atelier challenge, vous n'étudiez pas de nouveaux concepts Google Cloud. Vous allez approfondir les compétences précédemment acquises. Par exemple, vous devrez modifier les valeurs par défaut ou encore examiner des messages d'erreur pour corriger vous-même les problèmes.
Pour atteindre le score de 100 %, vous devez mener à bien l'ensemble des tâches dans le délai imparti.
Cet atelier est recommandé aux personnes inscrites au cours associé au badge de compétence Créer un maillage de données avec Dataplex. Êtes-vous prêt pour le challenge ?
Préparation
Avant de cliquer sur le bouton "Démarrer l'atelier"
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
- Vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome).
Remarque : Ouvrez une fenêtre de navigateur en mode incognito (recommandé) ou de navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
- Vous disposez d'un temps limité. N'oubliez pas qu'une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Utilisez uniquement le compte de participant pour cet atelier. Si vous utilisez un autre compte Google Cloud, des frais peuvent être facturés à ce compte.
Scénario du challenge
Vous venez d'être embauché en tant qu'ingénieur de données junior. Jusqu'à présent, vous avez aidé des équipes à créer et gérer des éléments Dataplex.
Vous êtes censé disposer des compétences et des connaissances requises pour ces tâches.
Votre challenge
Il vous est demandé d'aider une équipe de développement récemment constituée à créer un maillage de données à l'aide de Dataplex. Plus spécifiquement, vous devez créer un lac Dataplex comprenant plusieurs zones et éléments. Vous devez également créer des types d'aspects et ajouter des aspects aux éléments du nouveau lac ainsi qu'évaluer la qualité des données. Les tâches que vous devez effectuer sont les suivantes :
- Créer un lac Dataplex comprenant deux zones et deux éléments
- Créer un type d'aspect pour les données protégées et ajouter un aspect à une zone
- Attribuer un rôle IAM Dataplex à un autre utilisateur
- Créer un fichier de spécification de la qualité des données et l'importer dans Cloud Storage
- Définir et exécuter un job d'évaluation de la qualité des données dans Dataplex
Voici quelques normes que vous devez respecter :
- Vérifiez que toutes les API nécessaires (par exemple, Dataplex, Data Catalog et Dataproc) sont activées.
- Sauf instruction contraire, créez toutes les ressources dans la région.
Chaque tâche est décrite en détail ci-dessous. Bonne chance !
Tâche 1 : Créer un lac Dataplex comprenant deux zones et deux éléments
Remarque : Sauf instruction contraire, créez les ressources dans la région pour toutes les tâches de cet atelier challenge.
Le bucket Cloud Storage et l'ensemble de données BigQuery de l'étape 2 ont été préalablement créés dans cet atelier.
- Créez un lac Dataplex nommé Sales Lake comprenant deux zones régionales :
- Une zone brute nommée Raw Customer Zone
- Une zone organisée nommée Curated Customer Zone
- Associez un élément précréé à chaque zone :
- Associez à la zone brute le bucket Cloud Storage -customer-online-sessions et nommez ce nouvel élément Customer Engagements.
- Associez à la zone organisée l'ensemble de données BigQuery .customer_orders et nommez ce nouvel élément Customer Orders.
Conseil pour créer un lac Dataplex :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Créer un lac Dataplex comprenant deux zones et deux éléments
Tâche 2 : Créer un type d'aspect et ajouter un aspect à une zone
- Créez un type d'aspect nommé Protected Customer Data Aspect et doté de deux champs énumérés :
- Un premier champ nommé Raw Data Flag comportant deux valeurs : Yes et No.
- Un second champ nommé Protected Contact Information Flag comportant deux valeurs : Yes (oui) et No (non).
- Ajoutez cet aspect à la zone Raw Customer Zone avec la valeur Yes pour les deux options.
Conseil pour créer et appliquer des types d'aspects :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Créer un type d'aspect et ajouter un aspect à une zone
Tâche 3 : Attribuer un rôle IAM Dataplex à un autre utilisateur
- Selon le principe du moindre privilège, attribuez le rôle IAM Dataplex approprié à l'utilisateur 2 () afin qu'il puisse importer de nouveaux fichiers Cloud Storage dans l'élément Dataplex Customer Engagements.
Conseil pour attribuer des rôles IAM Dataplex :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Attribuer un rôle IAM Dataplex à un autre utilisateur
Tâche 4 : Créer et importer un fichier de spécification de la qualité des données dans Cloud Storage
Le bucket Cloud Storage de l'étape 2 a été préalablement créé dans cet atelier.
- Créez un fichier de spécification de la qualité des données nommé dq-customer-orders.yaml avec les spécifications suivantes :
- Règle NOT NULL appliquée (avec un seuil de 100 %) à la colonne user_id de la table customer_orders.ordered_items
- Règle NOT NULL appliquée (avec un seuil de 100 %) à la colonne order_id de la table customer_orders.ordered_items
- Table de destination BigQuery pour les résultats : .orders_dq_dataset.results
- Importez le fichier dans le bucket Cloud Storage nommé -dq-config.
Conseil pour créer des fichiers de spécification de la qualité des données :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Créer et importer un fichier de spécification de la qualité des données
Tâche 5 : Définir et exécuter un job d'évaluation automatique de la qualité des données dans Dataplex
L'ensemble de données BigQuery de l'étape 1 a été préalablement créé dans cet atelier.
- Définissez un job d'évaluation automatique de la qualité des données à l'aide du fichier dq-customer-orders.yaml avec les spécifications suivantes :
Propriété |
Valeur |
Nom du job d'évaluation de la qualité des données |
Customer Orders Data Quality Job |
Données sources |
.customer_orders.ordered_items |
Compte de service utilisateur |
Compte de service Compute Engine par défaut |
- Exécutez immédiatement le job d'évaluation automatique de la qualité des données.
L'exécution du job peut prendre plusieurs minutes. Vous devrez peut-être actualiser la page pour voir s'il a bien été exécuté.
Conseil pour définir et exécuter les jobs d'évaluation de la qualité des données :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Définir et exécuter un job d'évaluation de la qualité des données dans Dataplex
Félicitations !
Vous avez conçu un maillage de données en créant un lac Dataplex constitué de plusieurs zones et éléments, en définissant des types d'aspects et en ajoutant ces aspects aux éléments, et en évaluant la qualité des données.

Gagnez un badge de compétence
Cet atelier d'auto-formation fait partie du cours associé au badge de compétence Créer un maillage de données avec Dataplex. Une fois le cours terminé, vous recevrez ce badge attestant de votre réussite. Ajoutez-le à votre CV et partagez-le sur vos réseaux sociaux via le hashtag #GoogleCloudBadge.
Ce cours fait partie du parcours de formation Data Engineer de Google Cloud. Si vous avez déjà complété les autres cours de ce parcours de formation, parcourez le catalogue pour découvrir les autres quêtes auxquelles vous pouvez vous inscrire pour gagner des badges de compétence.
Formations et certifications Google Cloud
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 04 septembre 2025
Dernier test de l'atelier : 04 septembre 2025
Copyright 2025 Google LLC. Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.