arrow_back

Améliorer la fiabilité et l'évolutivité des applications grâce à l'équilibrage de charge interne

Accédez à plus de 700 ateliers et cours

Améliorer la fiabilité et l'évolutivité des applications grâce à l'équilibrage de charge interne

Atelier 50 minutes universal_currency_alt 5 crédits show_chart Intermédiaire
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Accédez à plus de 700 ateliers et cours

GSP216

Logo des ateliers d'auto-formation Google Cloud

Présentation

L'équilibrage de charge interne de Google Cloud est un service essentiel pour gérer et faire évoluer votre infrastructure d'applications privées. Il vous permet de distribuer efficacement le trafic basé sur TCP/UDP entre les instances de machines virtuelles internes, ce qui assure la haute disponibilité et les performances de vos applications dans votre réseau privé. En fournissant une adresse IP privée unique et stable pour vos services, l'équilibrage de charge interne simplifie la communication interne des applications et améliore la résilience du système.

Dans cet atelier, vous allez configurer un service interne en créant deux groupes d'instances gérés dans la même région. Il s'agit d'un modèle de déploiement courant pour les applications à haute disponibilité. Ensuite, vous configurerez et testerez minutieusement un équilibreur de charge interne en utilisant ces groupes d'instances comme backends. Cette configuration imite un scénario réel dans lequel une application interne, telle qu'un microservice, un point de terminaison d'API ou une base de données, doit être accessible à d'autres services ou applications internes sans être exposée à l'Internet public.

Network_Diagram.png

Objectifs

Dans cet atelier, vous allez apprendre à effectuer les tâches suivantes :

  • Configurer des règles de pare-feu essentielles pour autoriser le trafic HTTP sécurisé et les vérifications de l'état pour les backends internes
  • Concevoir et implémenter des modèles d'instance pour des déploiements de VM cohérents et évolutifs
  • Créer et gérer des groupes d'instances gérés pour le scaling automatique et l'autoréparation des backends de vos applications
  • Configurer et tester un équilibreur de charge interne, en démontrant sa capacité à distribuer efficacement le trafic interne et à assurer la disponibilité des services

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.

Pour réaliser cet atelier :

  • Vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome).
Remarque : Ouvrez une fenêtre de navigateur en mode incognito (recommandé) ou de navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
  • Vous disposez d'un temps limité. N'oubliez pas qu'une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Utilisez uniquement le compte de participant pour cet atelier. Si vous utilisez un autre compte Google Cloud, des frais peuvent être facturés à ce compte.

Démarrer l'atelier et se connecter à la console Google Cloud

  1. Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, une boîte de dialogue s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau "Détails concernant l'atelier", qui contient les éléments suivants :

    • Le bouton "Ouvrir la console Google Cloud"
    • Le temps restant
    • Les identifiants temporaires que vous devez utiliser pour cet atelier
    • Des informations complémentaires vous permettant d'effectuer l'atelier
  2. Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).

    L'atelier lance les ressources, puis ouvre la page "Se connecter" dans un nouvel onglet.

    Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.

    Remarque : Si la boîte de dialogue Sélectionner un compte s'affiche, cliquez sur Utiliser un autre compte.
  3. Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.

    {{{user_0.username | "Username"}}}

    Vous trouverez également le nom d'utilisateur dans le panneau "Détails concernant l'atelier".

  4. Cliquez sur Suivant.

  5. Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.

    {{{user_0.password | "Password"}}}

    Vous trouverez également le mot de passe dans le panneau "Détails concernant l'atelier".

  6. Cliquez sur Suivant.

    Important : Vous devez utiliser les identifiants fournis pour l'atelier. Ne saisissez pas ceux de votre compte Google Cloud. Remarque : Si vous utilisez votre propre compte Google Cloud pour cet atelier, des frais supplémentaires peuvent vous être facturés.
  7. Accédez aux pages suivantes :

    • Acceptez les conditions d'utilisation.
    • N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
    • Ne vous inscrivez pas à des essais sans frais.

Après quelques instants, la console Cloud s'ouvre dans cet onglet.

Remarque : Pour accéder aux produits et services Google Cloud, cliquez sur le menu de navigation ou saisissez le nom du service ou du produit dans le champ Recherche. Icône du menu de navigation et champ de recherche

Tâche 1 : Configurer des règles de pare-feu HTTP et de vérification de l'état

Des règles de pare-feu appropriées sont à la base d'un environnement à équilibrage de charge interne sécurisé et fonctionnel. Elles permettent de s'assurer que seul le trafic autorisé atteint vos services de backend et que l'équilibreur de charge peut évaluer précisément l'état de vos instances.

Configurez des règles de pare-feu permettant d'autoriser le trafic HTTP vers les backends et le trafic TCP provenant du vérificateur d'état Google Cloud.

Explorer le réseau my-internal-app

Le réseau my-internal-app, composé des sous-réseaux subnet-a et subnet-b, et les règles de pare-feu pour le trafic RDP, SSH et ICMP ont été configurés pour vous.

  1. Dans la console, accédez au menu de navigation > Réseau VPC > Réseaux VPC.

  2. Faites défiler la page vers le bas. Vous voyez alors le réseau my-internal-app et ses sous-réseaux : subnet-a et subnet-b

    Chaque projet Google Cloud commence avec le réseau default (par défaut). En outre, le réseau my-internal-app a été créé lors de l'élaboration du schéma réseau.

    Vous allez créer les groupes d'instances gérés dans subnet-a et subnet-b. Ces deux sous-réseaux figurent dans la région , car un équilibreur de charge interne est un service régional. Les groupes d'instances gérés se trouvent dans des zones distinctes, de manière à immuniser votre service contre les défaillances de zone.

Créer la règle de pare-feu HTTP

Créez une règle de pare-feu pour autoriser le trafic HTTP vers les backends en provenance de l'équilibreur de charge et d'Internet (afin d'installer Apache sur les backends).

  1. Toujours dans Réseau VPC, dans le volet de gauche, cliquez sur Pare-feu.

  2. Vous verrez alors les règles de pare-feu app-allow-icmp et app-allow-ssh-rdp.

    Ces règles de pare-feu ont été créées en amont.

  3. Cliquez sur + Créer une règle de pare-feu.

  4. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom app-allow-http
    Réseau my-internal-app
    Cibles Tags cibles spécifiés
    Tags cibles lb-backend
    Filtre source Plages IPv4
    Plages IPv4 sources 10.10.0.0/16
    Protocoles et ports Protocoles et ports spécifiés, puis cochez tcp et saisissez : 80
Remarque : Pensez à ajouter /16 dans les plages IPv4 sources pour indiquer tous les réseaux.
  1. Cliquez sur Créer.

Créer les règles de pare-feu de vérification de l'état

Les vérifications de l'état déterminent les instances d'un équilibreur de charge qui peuvent recevoir de nouvelles connexions. Pour l'équilibrage de charge interne, les vérifications de l'état portant sur vos instances à équilibrage de charge proviennent d'adresses situées dans les plages 130.211.0.0/22 et 35.191.0.0/16. Vos règles de pare-feu doivent autoriser ces connexions.

  1. Toujours depuis la page Règles de pare-feu, cliquez sur + Créer une règle de pare-feu.

  2. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom app-allow-health-check
    Réseau my-internal-app
    Cibles Tags cibles spécifiés
    Tags cibles lb-backend
    Filtre source Plages IPv4
    Plages IPv4 sources 130.211.0.0/22 et 35.191.0.0/16
    Protocoles et ports Protocoles et ports spécifiés, puis cochez tcp
Remarque : Veillez à renseigner les deux propriétés Plages IPv4 sources individuellement et à appuyer sur la touche ESPACE entre chaque valeur.
  1. Cliquez sur Créer.

Cliquez sur "Vérifier ma progression" pour valider l'objectif.

Configurer des règles de pare-feu HTTP et de vérification de l'état

Tâche 2 : Configurer les modèles d'instance et créer les groupes d'instances

Les modèles d'instance et les groupes d'instances gérés sont la base des applications évolutives, résilientes et gérables. Ils vous permettent de définir une configuration standard pour vos VM, puis de gérer automatiquement leur cycle de vie, ce qui assure la cohérence et permet le scaling automatique et l'autoréparation.

Un groupe d'instances géré crée un groupe d'instances identiques à l'aide d'un modèle d'instance. Ces instances permettent de créer les backends de l'équilibreur de charge interne.

Configurer les modèles d'instances

Un modèle d'instance est une ressource API qui vous permet de créer des instances de VM et des groupes d'instances gérés. Les modèles d'instances définissent le type de machine, l'image disque de démarrage, le sous-réseau, les étiquettes et d'autres propriétés d'instance. Créez un modèle d'instance pour les deux sous-réseaux du réseau my-internal-app.

  1. Dans la console, accédez au menu de navigation > Compute Engine > Modèles d'instances.

  2. Cliquez sur Créer un modèle d'instance.

  3. Dans le champ Nom, saisissez instance-template-1.

  4. Dans le champ Emplacement, sélectionnez Mondial.

  5. Dans le champ Série, sélectionnez E2.

  6. Dans le champ Type de machine, sélectionnez Cœur partagé > e2-micro.

  7. Cliquez sur Options avancées.

  8. Cliquez sur Mise en réseau.

  9. Dans Tags réseau, saisissez lb-backend.

    Remarque : Le tag réseau lb-backend garantit que les règles de pare-feu HTTP et Vérification d'état s'appliquent à ces instances.
  10. Pour Interfaces réseau, cliquez sur la flèche déroulante afin d'effectuer vos modifications.

  11. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Réseau my-internal-app
    Sous-réseau subnet-a
    Adresse IPv4 externe Aucune
  12. Cliquez sur OK.

  13. Cliquez sur Gestion.

  14. Sous Métadonnées, cliquez sur Ajouter un élément et spécifiez les valeurs suivantes :

    Clé 1 Valeur 1
    startup-script-url gs://spls/gsp216/startup.sh
Remarque : La clé startup-script-url spécifie un script qui sera exécuté au démarrage des instances. Ce script installe Apache et modifie la page d'accueil pour y inclure l'adresse IP client ainsi que le nom, la région et la zone de l'instance de VM. Pour consulter ce script, cliquez ici.
  1. Cliquez sur Créer.
  2. Attendez que le modèle d'instance soit créé.

Configurer le modèle d'instance suivant

Créez un autre modèle d'instance pour le sous-réseau subnet-b en copiant instance-template-1. Cela montre à quel point il est facile de répliquer des configurations dans différents sous-réseaux ou zones pour les stratégies de haute disponibilité et de reprise après sinistre.

  1. Toujours dans Modèles d'instances, cochez la case instance-template-1, puis cliquez sur Copier. Veillez à changer le nom pour le remplacer par instance-template-2.
  2. Cliquez sur Options avancées.
  3. Cliquez sur l'onglet Mise en réseau.
  4. Pour Interfaces réseau, cliquez sur la flèche déroulante afin d'effectuer vos modifications.
  5. Sélectionnez subnet-b pour la propriété Sous-réseau.
  6. Cliquez sur OK, puis sur Créer.

Créer les groupes d'instances gérés

Les groupes d'instances gérés (MIG) sont essentiels pour les applications robustes, autoréparables et à scaling dynamique. Ils remplacent automatiquement les instances non opérationnelles et peuvent adapter la capacité de votre application en fonction de la demande. Vos services sont ainsi toujours disponibles et performants, sans intervention manuelle constante. Cela est essentiel pour gérer les charges variables et maintenir les objectifs de niveau de service (SLO).

Configurez un groupe d'instances géré dans subnet-a et un autre dans subnet-b.

Remarque : Identifiez l'une des autres zones de la même région que subnet-a. Par exemple, si la zone de subnet-a est us-west2-a, vous pouvez sélectionner us-west2-b pour subnet-b.
  1. Toujours dans Compute Engine, dans le volet de gauche, cliquez sur Groupes d'instances, puis cliquez sur Créer un groupe d'instances.

  2. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom instance-group-1
    Modèle d'instance instance-template-1
    Emplacement Zone unique
    Région
    Zone
    Autoscaling > Nombre minimal d'instances 1
    Autoscaling > Nombre maximal d'instances 1
    Autoscaling > Signaux d'autoscaling (cliquez sur la flèche déroulante afin d'effectuer vos modifications) > Type de signal Utilisation du CPU
    Utilisation du processeur cible 80
    Période d'initialisation 45
Remarque : L'autoscaling est une fonctionnalité essentielle des groupes d'instances gérés qui permet de faire évoluer les ressources de manière dynamique en fonction de la charge mesurée. Cette fonctionnalité permet à votre application de gérer facilement le trafic variable et d'optimiser les dépenses cloud.
  1. Cliquez sur Créer.

    Effectuez la même procédure pour instance-group-2 dans l'autre zone de la même région que subnet-a :

  2. Cliquez sur Créer un groupe d'instances.

  3. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom instance-group-2
    Modèle d'instance instance-template-2
    Emplacement Zone unique
    Région
    Zone Zone (utilisez l'autre zone de la même région que subnet-a)
    Autoscaling > Nombre minimal d'instances 1
    Autoscaling > Nombre maximal d'instances 1
    Autoscaling > Signaux d'autoscaling (cliquez sur la flèche déroulante afin d'effectuer vos modifications) > Type de signal Utilisation du CPU
    Utilisation du processeur cible 80
    Période d'initialisation 45
  4. Cliquez sur Créer.

Vérifier les backends

Vérifiez que les instances de VM sont créées dans les deux sous-réseaux, et créez une VM utilitaire pour accéder directement aux sites HTTP des backends. Cette étape permet de confirmer le bon fonctionnement de chaque backend avant d'introduire l'équilibreur de charge, ce qui assure une configuration appropriée de votre niveau de service.

  1. Toujours dans Compute Engine, cliquez sur Instances de VM.

  2. Vous verrez alors deux instances qui commencent par instance-group-1 et instance-group-2.

    Ces instances figurent dans des zones distinctes, et leurs adresses IP internes font partie des blocs CIDR subnet-a et subnet-b.

  3. Pour créer une instance, cliquez sur Créer une instance.

  4. Dans la section Configuration de la machine.

    Sélectionnez les valeurs suivantes :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom utility-vm
    Région
    Zone
    Série E2
    Type de machine e2-micro (1 vCPU partagé)
  5. Cliquez sur Mise en réseau.

    Pour Interfaces réseau, cliquez sur le bouton Activer/Désactiver pour modifier l'interface réseau.

    Renseignez les champs suivants :

    Propriété Valeur (à saisir ou à sélectionner)
    Réseau my-internal-app
    Sous-réseau subnet-a
    Adresse IPv4 interne principale Éphémère (personnalisée)
    Adresse IP éphémère personnalisée 10.10.20.50
  6. Cliquez sur OK, puis sur Créer.

Cliquez sur "Vérifier ma progression" pour valider l'objectif.

Configurer les modèles d'instances et créer les groupes d'instances
  1. Les adresses IP internes des backends sont 10.10.20.2 et 10.10.30.2.
Remarque : Si ces adresses IP diffèrent, remplacez-les dans les deux commandes curl ci-dessous.
  1. Pour utility-vm, cliquez sur SSH pour lancer un terminal et vous y connecter.
  2. Pour vérifier la page d'accueil d'instance-group-1-xxxx, exécutez la commande suivante :
curl 10.10.20.2

Le résultat doit se présenter comme suit :

<h1>Internal Load Balancing Lab</h1><h2>Client IP</h2>Your IP address : 10.10.20.50<h2>Hostname</h2>Server Hostname: instance-group-1-1zn8<h2>Server Location</h2>Region and Zone: us-central1-a
  1. Pour vérifier la page d'accueil d'instance-group-2-xxxx, exécutez la commande suivante :
curl 10.10.30.2

Le résultat doit se présenter comme suit :

<h1>Internal Load Balancing Lab</h1><h2>Client IP</h2>Your IP address : 10.10.20.50<h2>Hostname</h2>Server Hostname: instance-group-2-q5wp<h2>Server Location</h2>Region and Zone: us-central1-b

Remarque : Les commandes curl montrent que chaque instance de VM présente l'adresse IP client, ainsi que le nom et l'emplacement qui lui sont propres. Cela se révélera utile pour vérifier que l'équilibreur de charge interne envoie du trafic aux deux backends.
  1. Fermez le terminal SSH pour utility-vm :
exit

Tâche 3 : Configurer l'équilibreur de charge interne

La configuration de l'équilibreur de charge interne centralise l'accès à vos services de backend, fournit un point d'entrée unique pour le trafic interne et assure une distribution intelligente du trafic en fonction de l'état et de la capacité de vos instances. Cette étape est essentielle pour bénéficier des avantages de haute disponibilité et d'évolutivité évoqués précédemment. L'équilibreur de charge interne sert de point d'accès centralisé pour votre service distribué.

Configurez l'équilibreur de charge interne pour qu'il équilibre le trafic entre les deux backends (instance-group-1 et instance-group-2), comme illustré dans le schéma suivant :

Schéma réseau illustrant l&#39;équilibreur de charge interne équilibrant le trafic entre les deux backends

Démarrer la configuration

  1. Dans le menu de navigation, sélectionnez Afficher tous les produits. Sous Mise en réseau, sélectionnez Services réseau.
  2. Sélectionnez la page Équilibrage de charge.
  3. Cliquez sur Créer un équilibreur de charge.
  4. Pour Type d'équilibreur de charge, sélectionnez Équilibreur de charge réseau (TCP/UDP/SSL).
  5. Pour Proxy ou Passthrough, sélectionnez Équilibreur de charge Passthrough.
  6. Pour Public ou interne, sélectionnez Interne.
  7. Cliquez sur CONFIGURER.
  8. Dans le champ Nom, saisissez my-ilb.
  9. Pour Région, sélectionnez .
  10. Dans le champ Réseau, sélectionnez my-internal-app.

Configurer le service de backend régional

Le service de backend est "l'intelligence" derrière l'équilibreur de charge interne. Il définit la façon dont le trafic est distribué et dont l'état des instances est surveillé. Il est essentiel pour s'assurer que le trafic ne transite que par les instances opérationnelles et pour empêcher la surcharge. C'est également au niveau de ce service que vous configurez des fonctionnalités avancées telles que l'affinité de session (pour maintenir la connexion d'un utilisateur au même backend) ou le drainage de connexion (pour fluidifier les mises à jour de backend).

Le service de backend surveille les groupes d'instances et les empêche de dépasser l'utilisation configurée.

  1. Cliquez sur Configuration du backend.

  2. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (sélectionnez l'option spécifiée)
    Groupe d'instances instance-group-1
  3. Cliquez sur Ajouter un backend.

  4. Dans le champ Groupe d'instances, sélectionnez instance-group-2.

  5. Dans le champ Vérification d'état, sélectionnez Créer une vérification d'état.

  6. Indiquez les valeurs suivantes et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (sélectionnez l'option spécifiée)
    Nom my-ilb-health-check
    Protocole TCP
    Port 80
Remarque : Les vérifications de l'état déterminent les instances qui peuvent recevoir de nouvelles connexions. Cette vérification de l'état HTTP sonde les instances toutes les 5 secondes, attend une réponse pendant 5 secondes, puis considère 2 tentatives ayant réussi ou ayant échoué comme un état opérationnel ou non opérationnel, respectivement. Cette surveillance continue est essentielle pour assurer une récupération rapide en cas de défaillance d'instance et pour respecter vos contrats de niveau de service (SLA).
  1. Cliquez sur Créer.
  2. Vérifiez qu'il y a une coche bleue à côté de Configuration du backend dans la console Cloud. Dans le cas contraire, vérifiez que vous avez bien suivi la procédure ci-dessus dans son intégralité.

Configurer l'interface

Il s'agit de l'interface exposée de votre équilibreur de charge interne. En attribuant une adresse IP interne statique, vous fournissez un point de terminaison cohérent et prévisible auquel d'autres services internes peuvent se connecter, ce qui simplifie l'architecture de votre application, permet une découverte facile des services dans votre VPC et améliore la fiabilité.

L'interface transfère le trafic vers le backend.

  1. Cliquez sur Configuration de l'interface.

  2. Indiquez les paramètres suivants et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (saisissez la valeur ou sélectionnez l'option spécifiée)
    Sous-réseau subnet-b
    Adresse IP interne Sous Adresse IP, sélectionnez Créer une adresse IP.
  3. Indiquez les paramètres suivants et conservez les valeurs par défaut des autres paramètres :

    Propriété Valeur (à saisir ou à sélectionner)
    Nom my-ilb-ip
    Adresse IP statique Laissez-moi choisir
    Adresse IP personnalisée 10.10.30.5
  4. Cliquez sur Réserver.

  5. Sous Numéro de port, saisissez 80.

  6. Cliquez sur OK.

Examiner et créer l'équilibreur de charge interne

  1. Cliquez sur Vérifier et finaliser.

  2. Examinez les sections Backend et Interface.

  3. Cliquez sur Créer. Attendez que l'équilibreur de charge soit créé avant de passer à la tâche suivante.

Cliquez sur "Vérifier ma progression" pour valider l'objectif.

Configurer l'équilibreur de charge interne

Tâche 4. Tester l'équilibreur de charge interne

Le test final valide que l'équilibreur de charge interne répartit correctement le trafic entre les instances backend opérationnelles. Il confirme que vos services internes sont désormais plus résilients et évolutifs, en tirant parti des principaux avantages de l'équilibreur de charge interne, et que la connectivité privée est correctement établie.

Vérifiez que l'adresse IP my-ilb transfère le trafic vers instance-group-1 et instance-group-2.

Accéder à l'équilibreur de charge interne

  1. Dans la console Cloud, accédez au menu de navigation > Compute Engine > Instances de VM.
  2. Pour utility-vm, cliquez sur SSH pour lancer un terminal et vous y connecter.
  3. Pour vérifier que l'équilibreur de charge interne transfère le trafic, exécutez la commande suivante :
curl 10.10.30.5

Le résultat doit se présenter comme suit :

<h1>Internal Load Balancing Lab</h1><h2>Client IP</h2>Your IP address : 10.10.20.50<h2>Hostname</h2>Server Hostname: instance-group-1-1zn8<h2>Server Location</h2>Region and Zone: us-central1-a Remarque : Comme prévu, le trafic est transféré de l'équilibreur de charge interne (10.10.30.5) vers le backend.
  1. Exécutez la même commande à plusieurs reprises.

Dans le résultat, vous devez obtenir des réponses d'instance-group-1 dans et d'instance-group-2 dans l'autre zone de la même région. L'équilibreur de charge répartit le trafic entre les instances backend, ce qui prouve son efficacité pour assurer la haute disponibilité et la répartition de la charge.

Félicitations !

Vous avez configuré et testé un équilibreur de charge interne, et vous avez compris son rôle essentiel dans la création d'applications internes robustes, évolutives et sécurisées sur Google Cloud.

Étapes suivantes et informations supplémentaires

Pour en savoir plus sur les concepts de base de l'équilibrage de charge, consultez la documentation sur Google Cloud Load Balancing.

Formations et certifications Google Cloud

Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

Dernière mise à jour du manuel : 15 septembre 2025

Dernier test de l'atelier : 26 mai 2025

Copyright 2025 Google LLC. Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Ouvrez une fenêtre de navigateur en mode navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.