Chargement...
Aucun résultat.

Mettez en pratique vos compétences dans la console Google Cloud

Google Cloud Storage and Containers for Azure Professionals

Accédez à plus de 700 ateliers et cours

Google Cloud Fundamentals : Premiers pas avec GKE (Azure)

Atelier 35 minutes universal_currency_alt 5 crédits show_chart Débutant
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Accédez à plus de 700 ateliers et cours

En tant qu'architecte cloud, vous concevez des architectures à plusieurs niveaux qui incluent la couche de calcul. En général, vous déployez des conteneurs pour répondre aux besoins en calcul de votre organisation. Voici quelques-unes des questions à vous poser lorsque vous réalisez vos conceptions :

  • Comment déployer les conteneurs et les gérer de façon centralisée à l'aide de Kubernetes ?
  • Comment regrouper vos conteneurs dans des clusters ?
  • Comment vous assurer que vos clusters sont optimisés pour offrir des performances et une efficacité optimales ?

Dans Azure, vous créez un réseau virtuel ou en choisissez un préexistant pour le cluster. Vous déployez les conteneurs sur le cluster Azure Kubernetes Service (AKS) et créez un fichier YAML pour le déploiement Kubernetes. Pour assurer une disponibilité élevée, vous lancez le fichier YAML du service Kubernetes qui spécifie le type d'équilibreur de charge et les mappages de ports des conteneurs.

Sur l'écran de surveillance, vous vérifiez le déploiement, identifiez les problèmes éventuels et configurez les alertes selon les exigences.

Vous allez maintenant apprendre à configurer le cluster GKE et à utiliser un équilibreur de charge pour gérer le trafic.

Présentation

Dans cet atelier, vous allez créer un cluster Google Kubernetes Engine comportant plusieurs conteneurs. Chacun d'entre eux comprendra un serveur Web. Vous allez placer un équilibreur de charge devant ce cluster et afficher son contenu.

Objectifs

Dans cet atelier, vous allez apprendre à effectuer les opérations suivantes :

Tâche 1 : Se connecter à la console Google Cloud

Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.

  1. Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.

  2. Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
    Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.

  3. Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.

  4. Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.

  5. Cliquez sur Ouvrir la console Google.

  6. Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
    Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.

  7. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.

Tâche 2 : Vérifier que les API dont vous avez besoin sont activées

  1. Notez le nom de votre projet Google Cloud. Cette valeur est disponible dans la barre supérieure de la console Google Cloud. Elle se compose de la chaîne qwiklabs-gcp-, suivie de nombres hexadécimaux.

  2. Dans la console Google Cloud, accédez au menu de navigation (), puis cliquez sur API et services.

  3. Faites défiler la liste des API activées et assurez-vous que les deux API suivantes y figurent :

  • API Kubernetes Engine

S'il en manque une, cliquez sur Activer les API et les services en haut de la page. Recherchez le nom des API mentionnées ci-dessus et activez chacune d'elles dans votre projet actuel (vous avez noté le nom de votre projet GCP plus haut).

Tâche 3 : Démarrer un cluster Kubernetes Engine

  1. Dans la barre d'outils située en haut à droite de la console Google Cloud, cliquez sur le bouton Activer Cloud Shell.

  2. Cliquez sur Continuer.

  3. Lorsque Cloud Shell vous y invite, saisissez la commande suivante pour exporter la variable d'environnement nommée MY_ZONE :

    export MY_ZONE={{{project_0.default_zone|ZONE}}}
  4. Démarrez un cluster Kubernetes géré par Kubernetes Engine. Nommez le cluster webfrontend et configurez-le pour qu'il exécute deux nœuds :

    gcloud container clusters create webfrontend --zone $MY_ZONE --num-nodes 2

    La création du cluster prend plusieurs minutes, le temps que Kubernetes Engine provisionne les machines virtuelles.

  5. Une fois le cluster créé, vérifiez quelle version de Kubernetes est installée à l'aide de la commande kubectl version :

    kubectl version

    La commande gcloud container clusters create authentifie automatiquement kubectl.

  6. Affichez les nœuds en cours d'exécution dans la console GCP. Pour ce faire, dans le menu de navigation (), cliquez sur Compute Engine > Instances de VM.

    Votre cluster Kubernetes est maintenant prêt.

    Cliquez sur Vérifier ma progression pour valider l'objectif. Démarrer un cluster Kubernetes Engine

Tâche 4 : Exécuter et déployer un conteneur

  1. Lancez une instance unique du conteneur nginx depuis votre invite Cloud Shell. (Nginx est un serveur Web couramment utilisé.)

    kubectl create deploy nginx --image=nginx:1.17.10

    Dans Kubernetes, tous les conteneurs sont exécutés dans des pods. Avec cette commande kubectl create, Kubernetes n'a déployé qu'un seul pod, comportant lui-même le conteneur nginx. Dans un déploiement Kubernetes, un certain nombre de pods restent opérationnels, même en cas de défaillance des nœuds sur lesquels ils sont exécutés. Avec cette commande, vous avez lancé le nombre de pods par défaut, soit un seul.

Remarque : Si un avertissement d'abandon concernant les futures versions s'affiche, vous pouvez l'ignorer pour l'instant et continuer.
  1. Affichez le pod exécutant le conteneur nginx :

    kubectl get pods
  2. Exposez le conteneur nginx sur Internet :

    kubectl expose deployment nginx --port 80 --type LoadBalancer

    Kubernetes a créé un service et un équilibreur de charge externe associés à une adresse IP publique. L'adresse IP reste la même pendant toute la durée de vie du service. Le trafic réseau envoyé à cette adresse IP est redirigé vers les pods associés à ce service, en l'occurrence, le pod nginx.

  3. Affichez le nouveau service :

    kubectl get services

    Vous pouvez utiliser l'adresse IP externe affichée pour tester et contacter le conteneur nginx à distance.

    Le remplissage du champ Adresse IP externe pour votre service peut prendre quelques secondes. Ceci est normal. Il vous suffit d'exécuter la commande kubectl get services plusieurs fois à quelques secondes d'intervalle jusqu'à ce que le champ soit renseigné.

  4. Ouvrez un nouvel onglet dans votre navigateur Web et collez l'adresse IP externe de votre cluster dans la barre d'adresse. La page d'accueil par défaut du navigateur Nginx s'affiche.

  5. Augmentez le nombre de pods exécutés dans votre service :

    kubectl scale deployment nginx --replicas 3

    Le scaling à la hausse d'un déploiement permet d'augmenter le nombre de ressources disponibles pour une application qui est de plus en plus utilisée.

  6. Vérifiez que Kubernetes a mis à jour le nombre de pods :

    kubectl get pods
  7. Vérifiez que l'adresse IP externe n'a pas changé :

    kubectl get services
  8. Revenez à l'onglet du navigateur Web dans lequel vous avez affiché l'adresse IP externe de votre cluster. Actualisez la page pour vérifier que le serveur Web nginx répond toujours.

Cliquez sur Vérifier ma progression pour valider l'objectif. Exécuter et déployer un conteneur

Félicitations !

Au cours de cet atelier, vous avez configuré un cluster Kubernetes dans Kubernetes Engine. Vous avez déployé le cluster avec plusieurs pods contenant une application, vous avez exposé l'application, puis vous avez effectué son scaling.

Comme Kubernetes est Open Source, cet environnement conteneurisé offre une portabilité et une adaptabilité élevées. Le déploiement de Kubernetes est donc équivalent pour toutes les plates-formes.

Voici un récapitulatif des similitudes et des différences entre ces services :

Similitudes :

  • AKS et GKE sont des services Kubernetes gérés qui permettent aux clients de déployer, de gérer et de faire évoluer des applications conteneurisées dans le cloud.
  • Google Cloud et Azure proposent tous deux le service Kubernetes en mode Platform as a Service (PaaS).
  • GKE et AKS peuvent utiliser des fichiers YAML pour les déploiements.
  • GKE et AKS appliquent les mêmes principes aux conteneurs et aux déploiements pour alimenter un cluster.
  • GKE et AKS peuvent utiliser kubectl pour déployer et gérer des conteneurs Docker.

Différences :

  • Il y a très peu de différences entre GKE et AKS concernant l'implémentation de Kubernetes. Les quelques différences portent sur le provisionnement de l'infrastructure et la gestion du service.
  • Google GKE offre une fonctionnalité appelée GKE Autopilot, qui fournit une expérience Kubernetes entièrement gérée et optimisée pour que les utilisateurs n'aient pas à gérer l'infrastructure sous-jacente. Autopilot n'est pas traité dans ce cours. Pour en savoir plus, cliquez ici.

Terminer l'atelier

Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.

Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.

Le nombre d'étoiles correspond à votre degré de satisfaction :

  • 1 étoile = très insatisfait(e)
  • 2 étoiles = insatisfait(e)
  • 3 étoiles = ni insatisfait(e), ni satisfait(e)
  • 4 étoiles = satisfait(e)
  • 5 étoiles = très satisfait(e)

Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.

Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.

Copyright 2020 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Précédent Suivant

Sorry, access denied to this resource.

close

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Ouvrez une fenêtre de navigateur en mode navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
Aperçu