arrow_back

Risoluzione dei problemi dei carichi di lavoro su GKE per Site Reliability Engineer

Partecipa Accedi

Risoluzione dei problemi dei carichi di lavoro su GKE per Site Reliability Engineer

1 ora 30 minuti 1 credito

GSP902

Laboratori autogestiti Google Cloud

Nota: l'avvio di questo lab generalmente richiede meno di un minuto. Tuttavia, durante i periodi di forte domanda, il provisioning delle risorse utilizzate in questo lab può richiedere fino a 20 minuti. Il tempo di provisioning non verrà sottratto dal tempo disponibile per completare il lab.

Panoramica

I Site Reliability Engineer (SRE) hanno un ampio ventaglio di responsabilità e la gestione degli incidenti è un aspetto critico del loro ruolo. Scoprirai come trarre vantaggio dalle funzionalità integrate della suite operativa di Google Cloud, che include logging, monitoraggio e dashboard avanzate predefinite.

Il processo di risoluzione dei problemi è un approccio "iterativo" in cui gli SRE formulano un'ipotesi sulla potenziale causa principale di un incidente, quindi filtrano, esplorano e cercano tra grandi volumi di dati di telemetria raccolti dai loro sistemi per convalidare o invalidare l'ipotesi formulata. Se un'ipotesi non è valida, gli SRE formuleranno un'altra ipotesi ed eseguiranno un'altra iterazione fino a quando non riusciranno a isolare una causa principale. Sul sito web di Google, scopri di più sugli SRE in Google Site Reliability Engineering.

In questo lab, imparerai a muoverti in modo efficiente ed efficace lungo questo percorso iterativo utilizzando la Suite operativa di Google Cloud.

Obiettivi didattici

In questo lab, imparerai a:

  • Navigare tra le pagine relative alle risorse di Google Kubernetes Engine (GKE)

  • Utilizzare la dashboard di GKE per visualizzare rapidamente i dati operativi

  • Creare metriche basate sui log per acquisire dati su problemi specifici

  • Creare un obiettivo del livello di servizio (SLO)

  • Definire un avviso per notificare gli incidenti allo staff SRE

Configurazione e requisiti

Prima di fare clic sul pulsante Avvia lab

Leggi le seguenti istruzioni. I lab sono a tempo e non possono essere messi in pausa. Il timer si avvia quando fai clic su Avvia lab e ti mostra per quanto tempo avrai a disposizione le risorse Google Cloud.

Con questo lab pratico Qwiklabs avrai la possibilità di completare le attività in prima persona, in un ambiente cloud reale e non di simulazione o demo. Riceverai delle nuove credenziali temporanee che potrai utilizzare per accedere a Google Cloud per la durata del lab.

Per completare il lab, avrai bisogno di:

  • Accesso a un browser Internet standard (Chrome è il browser consigliato).
  • Nota: utilizza una finestra di navigazione in incognito o privata per eseguire questo lab. Ciò previene qualsiasi conflitto tra il tuo account personale e l'account Studente, che potrebbe causare costi aggiuntivi sostenuti per il tuo account personale.

  • Tempo a disposizione per completare il lab.
  • Nota: se disponi già del tuo account o progetto Google Cloud personale, non utilizzarlo per questo lab per evitare costi aggiuntivi sul tuo account.

Come avviare il lab e accedere alla console Google Cloud

  1. Fai clic sul pulsante Avvia lab. Se devi effettuare il pagamento per il lab, si apre una finestra popup per permetterti di selezionare il metodo di pagamento. A sinistra, trovi il riquadro Dettagli lab con le seguenti informazioni:

    • Pulsante Apri console Google
    • Tempo rimanente
    • Credenziali temporanee da utilizzare per il lab
    • Altre informazioni per seguire questo lab, se necessario
  2. Fai clic su Apri console Google. Il lab avvia le risorse e apre un'altra scheda con la pagina di accesso.

    Suggerimento: disponi le schede in finestre separate posizionate fianco a fianco.

    Note: se visualizzi la finestra di dialogo Scegli un account, fai clic su Utilizza un altro account.
  3. Se necessario, copia il Nome utente dal riquadro Dettagli lab e incollalo nella finestra di dialogo di accesso. Fai clic su Avanti.

  4. Copia la Password dal riquadro Dettagli lab e incollala nella finestra di dialogo di benvenuto. Fai clic su Avanti.

    Importante: devi utilizzare le credenziali presenti nel riquadro di sinistra. Non utilizzare le tue credenziali Google Cloud Skills Boost. Nota: utilizzare il tuo account Google Cloud per questo lab potrebbe comportare addebiti aggiuntivi.
  5. Fai clic nelle pagine successive:

    • Accetta i termini e le condizioni.
    • Non inserire opzioni di recupero o l'autenticazione a due fattori, perché si tratta di un account temporaneo.
    • Non registrarti per le prove gratuite.

Dopo qualche istante, la console Google Cloud si apre in questa scheda.

Nota: puoi visualizzare il menu con un elenco di prodotti e servizi Google Cloud facendo clic sul menu di navigazione in alto a sinistra. Icona menu di navigazione

Attiva Cloud Shell

Cloud Shell è una macchina virtuale in cui sono caricati strumenti per sviluppatori. Offre una home directory permanente da 5 GB e viene eseguita su Google Cloud. Cloud Shell fornisce l'accesso da riga di comando alle risorse Google Cloud.

  1. Fai clic su Attiva Cloud Shell Attiva l'icona di Cloud Shell nella parte superiore della console di Google Cloud.

  2. Fai clic su Continua.

  3. Occorrono alcuni istanti per eseguire il provisioning e connettersi all'ambiente. Quando sei connesso, sei già autenticato e il progetto è impostato sul tuo PROJECT_ID. L'output contiene una riga che dichiara il PROJECT_ID per questa sessione:

    Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

    gcloud è lo strumento a riga di comando di Google Cloud. È preinstallato su Cloud Shell e supporta il completamento tramite tasto Tab.

  4. (Opzionale) Puoi visualizzare il nome dell'account attivo con questo comando:

  5. gcloud auth list

    Output

    ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  6. (Opzionale) Puoi elencare l'ID progetto con questo comando:

gcloud config list project

Output

[core] project =

output di esempio

[core] project = qwiklabs-gcp-44776a13dea667a6

Scenario

La tua organizzazione ha eseguito il deployment di un'applicazione di microservizi multilivello. Si tratta di un'applicazione di e-commerce basata su Web che si chiama "Hipster Shop", in cui gli utenti possono sfogliare un catalogo di articoli vintage, aggiungerli al carrello e acquistarli. Hipster Shop è composto di molti microservizi, scritti in vari linguaggi, che comunicano tramite API REST e gRPC. L'architettura del deployment è ottimizzata a fini di apprendimento e comprende tecnologie moderne incluse nello stack: Kubernetes, Istio, la Suite operativa di Google Cloud, App Engine, gRPC, OpenTelemetry e altre tecnologie cloud-native simili.

In quanto membro del team Site Reliability Engineering (SRE), vieni contattato ogni volta che gli utenti finali segnalano problemi durante la visualizzazione e l'aggiunta di prodotti al carrello. Esplorerai i diversi servizi di cui è stato eseguito il deployment per determinare la causa principale del problema e configurare un obiettivo del livello di servizio (SLO) per evitare il ripetersi di incidenti simili in futuro. Scopri di più su questo nel seguente articolo del blog: SLOs, SLIs, SLAs, oh my—CRE life lessons.

Attività 1: naviga tra le pagine relative alle risorse di Google Kubernetes Engine (GKE)

Nella prima parte di questo lab, vedrai le pagine relative alle risorse di Google Kubernetes Engine (GKE), quindi passerai a diverse dashboard delle metriche per indagare in modo più approfondito sul problema riferito dagli utenti finali.

  1. Nella console Cloud, dal menu di navigazione vai a Kubernetes Engine > Cluster.

  2. Assicurati che sia disponibile il seguente cluster Kubernetes: cloud-ops-sandbox. Verifica che accanto a ciascun cluster sia presente un segno di spunta verde per indicare che è attivo e in esecuzione.

  3. Fai clic sul link cloud-ops-sandbox nella colonna Nome per passare alla scheda Dettagli del cluster.

  4. Fai clic sulla scheda Nodi per visualizzare tutti i nodi presenti nel cluster. Verifica che ci sia un solo pool di nodi.

  5. Nella sezione Pool di nodi della scheda Nodi, fai clic sul link corrispondente al primo nodo della tabella nella colonna Nome per visualizzare altri dettagli sul nodo. Scorri verso il basso e fai clic sul link per il primo Nodo nella tabella in fondo alla pagina.

Scheda Nodi

  1. Nella pagina dei dettagli del nodo, controlla le metriche disponibili per il nodo. Dovrebbero essere elencate nella sezione Riepilogo delle risorse e includere Utilizzo di CPU e memoria, nonché altre metriche. Questo lab genera carico durante il provisioning e dovresti vedere attività nelle metriche ma nessun picco evidente o metriche sopra il limite "richiesto" per i grafici visualizzati nella sezione Riepilogo.

  2. Per indagare ulteriormente, piuttosto che portarti su ogni singolo nodo per visualizzarne le metriche, fai clic sui tre puntini nell'angolo in alto a destra del riquadro CPU e seleziona Visualizza in Metrics Explorer.

Nella pagina Metrics Explorer, vedrai le metriche associate al nodo da cui provieni. In Metrics Explorer, nella sezione Filtri, sono configurati tre filtri.

  1. Rimuovi il filtro per nodename espandendolo e facendo clic sull'icona elimina.

  2. Nella sezione Come vuoi visualizzare i dati, imposta Raggruppa per su node_name.

Una volta impostati i filtri, la visualizzazione si aggiorna e puoi visualizzare le stesse metriche per tutti i nodi inclusi nel pool di nodi del cluster cloud-ops-sandbox.

Grafico a linee

Nota: puoi notare che sono visualizzate anche due metriche aggiuntive, ossia limite dei core e core richiesti. Il limite dei core è il limite dei core CPU del container in esecuzione nel nodo mentre la metrica core richiesti corrisponde al numero di core CPU richiesti dal container in esecuzione sul nodo. Per saperne di più sulle metriche Kubernetes, puoi consultare la seguente pagina della documentazione: Metriche Kubernetes

Attività 2: accedi ai dati operativi tramite le dashboard di GKE

Nella sezione successiva, scoprirai in che modo spostarti rapidamente ai dati operativi dettagliati di diverse risorse di cui hai eseguito il deployment in GKE tramite la dashboard di GKE.

Ricordati che gli utenti del sito web hanno riferito di non riuscire a visualizzare i dettagli dei prodotti o ad aggiungere gli articoli al carrello. Puoi verificarlo aprendo il sito web.

  1. Vai a menu di navigazione > Kubernetes Engine > Service e Ingress. Fai clic sull'endpoint (un indirizzo IP) per il servizio frontend-external.
  2. Fai clic su qualsiasi prodotto visualizzato nella pagina di destinazione per riprodurre l'errore segnalato.

Nel riprodurre l'errore, puoi notare che l'analisi dello stack riporta che l'applicazione "non è riuscita a recuperare i suggerimenti dei prodotti".

Devi quindi indagare sul servizio recommendationservice di cui hai eseguito il deployment su GKE.

  1. Passa a Cloud Monitoring dalla console Cloud; dal menu di navigazione, vai a Monitoring > Dashboard.
Nota: per evitare di scorrere verso il basso le voci del menu a sinistra per raggiungere la sezione Monitoring fino al termine del lab, passa il mouse sulla sezione Monitoring del menu a sinistra e seleziona l'icona a forma di puntina che viene visualizzata. La sezione Monitoring verrà posizionata in alto nel menu a sinistra per consentirti una navigazione più agevole in futuro.
  1. Quando si apre la pagina di destinazione Dashboard, fai clic su GKE.

Dovrebbe comparire una visualizzazione della dashboard che fornisce metriche correlate pertinenti come Cluster, Spazio dei nomi, Carico di lavoro, Servizio, Pod e Container per le risorse GKE trovate nel progetto in modalità aggregata.

Per lo scenario di questo lab, sarà necessario visualizzare log e metriche relativi a recommendationservice perché gli utenti finali riscontrano errori correlati ai suggerimenti sui prodotti quando visualizzano la pagina di destinazione di un prodotto. Creerai dei filtri per il cluster cloud-ops-sandbox in modo da indagare sui possibili sintomi ed eseguire un'ulteriore diagnosi del problema.

Nei passaggi successivi aggiungi filtri alla tua dashboard di GKE.

  1. Fai clic sul pulsante Aggiungi filtro nella parte superiore della pagina della dashboard di GKE.

  2. Dai filtri disponibili, seleziona Carichi di lavoro > recommendationservice.

Opzioni filtro recommendationservice

  1. Una volta selezionato il filtro corretto, fai clic sul pulsante Applica. La sezione Filtro della pagina della dashboard di GKE dovrebbe essere simile all'immagine riportata di seguito.

Sezione Filtro della pagina della dashboard di GKE

Questa visualizzazione ti consente di concentrare l'attenzione sul microservizio recommendationservice che crea problemi.

  1. Nella sezione Carichi di lavoro, fai clic su recommendationservice per visualizzare il riquadro Dettagli deployment. Questa visualizzazione presenta i dettagli relativi ad avvisi, SLO, eventi, metriche e log. A questo punto del lab, non è presente nessuno SLO. Aggiungerai uno SLO qui nella prossima parte del lab.

  2. Fai clic sulla scheda Metriche per visualizzare le metriche relative a recommendationservice. Puoi modificare la selezione del menu a discesa Metriche per modificare i dati di visualizzazione forniti e vedere le diverse metriche disponibili per questo servizio.

Sezione recommendationservice

  1. Fai clic sulla scheda Log per visualizzare i log relativi a recommendationservice. Puoi filtrare i log utilizzando il menu a discesa Gravità corrispondente al livello di log delle voci disponibili. Ciò è utile in un contesto SRE per trovare errori registrati nei log e sfruttare le voci per risolvere i problemi.

  2. Imposta Gravità su Error per filtrare i log relativi a recommendationservice.

Sezione Log

  1. A questo punto, l'errore relativo al codice con problemi dovrebbe essere evidente. Cerca la frase invalid literal for int() with base 10: '5.0' negli elementi del set di risultati. Il fatto che l'errore appaia nei filtri recommendationservice conferma che il codice del servizio contiene un bug.

Eseguirai di nuovo il deployment del microservizio recommendationservice per assicurarti che l'errore non ci sia più.

Nota: per semplicità, simulerai il deployment di una nuova versione dell'applicazione utilizzando kubectl.
  1. In Cloud Shell, esegui questo comando:
git clone --depth 1 --branch cloudskillsboost_asm https://github.com/GoogleCloudPlatform/cloud-ops-sandbox.git
  1. Dopodiché, esegui:
cd cloud-ops-sandbox/sre-recipes
  1. Vai a menu di navigazione > Kubernetes Engine > Cluster. Seleziona i tre puntini sulla destra del cluster cloud-ops-sandbox e quindi l'opzione Connetti.

  2. Nella finestra di dialogo modale Connettiti al cluster, fai clic sul pulsante ESEGUI IN CLOUD SHELL. Premi Invio per eseguire il comando una volta inserito in Cloud Shell.

  3. Infine, esegui il comando restore per aggiornare il servizio:

./sandboxctl sre-recipes restore "recipe3"
  1. Per verificare che l'applicazione funzioni correttamente, vai a menu di navigazione > Kubernetes Engine > Service e Ingress.

  2. Fai clic sull'endpoint per il servizio frontend-external.

Sarai così reindirizzato al sito web Hipster Shop utilizzato per l'esercizio in questo lab. Fai clic su un prodotto qualsiasi per verificare che venga caricato senza generare errori.

Sito web Hipster Shop.

In questa sezione del lab, hai esplorato log e metriche disponibili nella dashboard di GKE per diagnosticare un problema con il carico di lavoro dell'applicazione di cui il team DevOps ha eseguito il deployment. Hai potuto isolare la causa esatta di un problema e porvi rimedio eseguendo nuovamente il deployment del microservizio che dava problemi dopo aver corretto il bug.

Attività 3: monitora in modo proattivo le metriche basate su log

Per assicurarti che il codice aggiornato del microservizio recommendationservice funzioni come previsto ed evitare il ripresentarsi di incidenti simili, puoi decidere di creare una metrica basata su log per monitorare i log e notificare al team SRE il verificarsi di incidenti simili in futuro.

In questa sezione, creerai una metrica basata su log specifica per l'errore notato nelle sezioni precedenti.

Utilizzando le metriche basate su log, puoi definire una metrica che tracci gli errori nei log in modo da rispondere in modo proattivo a problemi e sintomi simili prima che vengano notati dall'utente finale.

  1. Dalla console Cloud, fai clic su menu di navigazione > Logging > Esplora log.
Nota: per evitare di scorrere verso il basso le voci del menu a sinistra per raggiungere la sezione Logging fino al termine del lab, passa il mouse sopra la sezione Logging e seleziona l'icona a forma di puntina che viene visualizzata. La sezione Logging verrà posizionata in alto nel menu di navigazione per consentirti una navigazione più agevole in futuro.
  1. Nella sezione Query results fai clic su +Crea metrica. Si aprirà una nuova scheda per creare una metrica basata su log.

  2. Inserisci le opzioni riportate di seguito nella pagina Create logs metric:

  • Tipo di metrica: Contatore
  • Nome metrica di log: Error_Rate_SLI
  • Selezione dei filtri (copia e incolla il filtro riportato di seguito):
resource.labels.cluster_name="cloud-ops-sandbox" AND resource.labels.namespace_name="default" AND resource.type="k8s_container" AND labels.k8s-pod/app="recommendationservice" AND severity>=ERROR Nota: nella prossima sezione, utilizzeremo una metrica diversa incentrata su Disponibilità per notificare i problemi al team SRE in modo proattivo; tuttavia, tieni presente che la metrica personalizzata basata su log definita in questa sezione potrebbe essere utilizzata anche per generare un avviso quando la condizione di filtro viene soddisfatta.
  1. Fai clic su Crea metrica.

Fai clic su Controlla i miei progressi per verificare l'obiettivo. Crea una metrica di log

Attività 4: crea uno SLO

Dopo aver creato una metrica basata su log che descrive con precisione l'esperienza utente, il team SRE la utilizzerà per misurare la soddisfazione dell'utente, queste metriche sono i nostri SLI e verranno utilizzate per definire un obiettivo del livello di servizio (SLO) sul recommendationservice. Uno SLO serve a specificare gli obiettivi del livello di servizio per le metriche relative alle prestazioni. Uno SLO è un obiettivo misurabile per le prestazioni in un determinato periodo di tempo. Per ulteriori indicazioni sulla progettazione degli SLO e sui filtri che utilizzerai di seguito, leggi Progettazione e utilizzo degli SLO sul sito web Anthos di Google Cloud.

La Suite operativa di Google Cloud fornisce il monitoraggio orientato ai servizi, che ti consente di configurare SLI, SLO e avvisi sulla burn rate per un service.

  1. Vai a menu di navigazione > Monitoring > Servizi. Verrà visualizzata una pagina che mostra un elenco con tutti i servizi di cui è stato eseguito il deployment in GKE per il carico di lavoro dell'applicazione.

  2. Seleziona il servizio recommendationservice dall'elenco dei servizi disponibili che ti porterà alla pagina Dettagli del servizio.

  3. Fai clic su + Crea SLO in alto a destra nella pagina.

  4. Nel Passaggio 1, viene visualizzata una finestra di dialogo per la creazione di un nuovo SLI. Imposta i parametri come segue:

  • Scegli una metrica: Altro

  • Basata su richiesta o Basata su Windows: Basata su richiesta

  1. Fai clic su Continua.

  2. Al Passaggio 2 Define SLI details, il valore di Performance Metric deve essere impostato su: custom.googleapis.com/opencensus/grpc.io/client/roundtrip_latency. Questo mostrerà la latenza di andata e ritorno delle richieste fatte dal client al servizio di suggerimenti.

Imposta la metrica relativa alle prestazioni su Meno di -∞ to 100 ms.

Crea una pagina Obiettivo del livello di servizio (SLO)

  1. Fai clic su Continua.

  2. Dopo aver configurato lo SLI, al Passaggio 3 Set your service-level objective (SLO), definirai lo SLO: uno SLO include l'obiettivo per le prestazioni (l'obiettivo di affidabilità) e il periodo di conformità (la finestra di misurazione). Per saperne di più, vedi Scelta di un intervallo di tempo appropriato in Site Reliability Workbook di Google. Seleziona i seguenti valori:

  • Tipo di periodo: Calendario

  • Durata periodo: Mese di calendario

  • Obiettivo per le prestazioni: 99%

  1. Fai clic su Continua.

  2. Fai clic su Crea SLO nell'ultimo passaggio della procedura guidata per completare la procedura di creazione dello SLO.

Tornerai quindi nella pagina di destinazione Monitoring > Servizi. A questo punto, dovresti riuscire a vedere una violazione dello SLO nella sezione Current status of the SLO.

  1. Fai clic sulla voce elencata per espanderla e seleziona la scheda Budget di errore.

Fai clic su Controlla i miei progressi per verificare l'obiettivo. Crea un obiettivo del livello di servizio (SLO)

La frazione Error budget rappresenta la percentuale effettiva del budget di errore rimanente per il periodo di conformità. Lo SLO definito include un periodo di un mese di calendario e un obiettivo per le prestazioni del 99% o superiore.

Come denotato dalla percentuale, l'errore che impediva il caricamento corretto delle pagine di prodotto in questo scenario fittizio degradava gravemente l'obiettivo del livello di servizio definito. Questo potrebbe non verificarsi in uno scenario reale perché questo lab eseguiva un test di carico sul cluster Kubernetes che ospitava il carico di lavoro dell'applicazione.

Attività 5: definisci un avviso sullo SLO

Per notificare violazioni dello SLO impostato al team SRE in modo proattivo, è una best practice definire un avviso che verrà attivato in caso di violazione dello SLO. L'avviso può richiamare un canale di notifica di tua scelta, tra cui: email, SMS, PagerDuty, Slack, un webhook o una sottoscrizione a un argomento Pub/Sub.

  1. Vai a menu di navigazione > Monitoring > Servizi.

  2. Fai clic sul servizio recommendationservice nell'elenco dei servizi disponibili.

  3. Nella sezione Stato attuale di 1 SLO, dovresti vedere lo SLO creato durante l'attività precedente. Potrebbe essere necessario espandere la finestra del browser che elenca lo SLO per visualizzare altre opzioni.

  4. Fai clic sul pulsante CREA AVVISO SLO presente sullo SLO. Questo ti consentirà di definire un criterio di avviso in caso di violazione dello SLO.

Nell'input modale Crea criterio di avviso per burn rate SLO, vedrai i campi Lookback duration e Burn rate threshold nel Passaggio 1 della procedura guidata. La durata della ricerca ti consente di specificare il periodo di tempo precedente al momento attuale in cui il criterio di avviso deve cercare all'indietro eventuali violazioni del burn rate. La soglia del burn rate ti consente di specificare la finestra di tempo in cui suddividere la durata della ricerca all'indietro in modo da valutare se lo SLO è stato violato o meno.

  1. Lascia invariati i valori predefiniti:
  • Durata ricerca: 60 minuti

  • Soglia burn rate: 10

  1. Tocca Avanti.

  2. Nel Passaggio 2, puoi definire un canale di notifica per ricevere l'avviso quando la violazione viene rilevata. Ai fini di questo lab, se vuoi puoi fornire un indirizzo email o un canale SMS per ricevere una notifica.

Passaggio 2: sezione Chi dovrebbe ricevere le notifiche? (facoltativo)

  1. Tocca Avanti.

Il Passaggio 3 è facoltativo e ti consente di fornire eventuali informazioni all'utente finale che riceve la notifica e può così disporre immediatamente del contesto necessario per capire qual è il problema e come correggerlo.

  1. Fai clic su Salva.

Fai clic su Controlla i miei progressi per verificare l'obiettivo. Crea un avviso sull'obiettivo del livello di servizio (SLO)

(Facoltativo) Rimuovi il criterio di avviso

Se hai impostato un avviso via email nel tuo criterio di avviso, è possibile che tu riceva alcune email relative alle tue risorse anche dopo il completamento del lab.

Per evitare ciò, rimuovi il criterio di avviso prima di completare il lab.

Complimenti!

In questo lab, hai esplorato la Suite operativa di Google Cloud, che consente ai Site Reliability Engineer (SRE) di indagare ed eseguire diagnosi sui problemi che si verificano con i carichi di lavoro di cui è stato eseguito il deployment. Per poter aumentare l'affidabilità dei carichi di lavoro, hai esplorato le modalità che ti permettono di spostarti tra le pagine delle risorse o in GKE, visualizzare i dati operativi nelle dashboard di GKE, creare metriche basate sui log per individuare problemi specifici e reagire in modo proattivo agli incidenti impostando obiettivi del livello di servizio e avvisi in modo da inviare notifiche al team SRE in caso di problemi prima che causino interruzioni.

Completa la Quest

Questo self-paced lab fa parte delle Quest Google Cloud's Operations Suite on GKE, Cloud Architecture, e DevOps Essentials e della quest con badge delle competenze Measure Site Reliability using Cloud Operations Suite. Una Quest è una serie di lab collegati tra loro che formano un percorso di apprendimento. Iscriviti a questa Quest e ottieni subito un riconoscimento per aver completato questo lab. Scopri le altre Quest disponibili.

Segui il prossimo lab

Prova Monitoraggio e logging per Cloud Functions

Passaggi successivi

Formazione e certificazione Google Cloud

… per utilizzare al meglio le tecnologie Google Cloud. I nostri corsi ti consentono di sviluppare competenze tecniche e best practice per aiutarti a metterti subito al passo e avanzare nel tuo percorso di apprendimento. Offriamo vari livelli di formazione, dal livello base a quello avanzato, con opzioni di corsi on demand, dal vivo e virtuali, in modo da poter scegliere il più adatto in base ai tuoi impegni. Le certificazioni ti permettono di confermare e dimostrare le tue abilità e competenze relative alle tecnologie Google Cloud.

Ultimo aggiornamento del manuale: 13 luglio 2022

Ultimo test del lab: 13 luglio 2022

Copyright 2020 Google LLC Tutti i diritti riservati. Google e il logo Google sono marchi di Google LLC. Tutti gli altri nomi di società e prodotti sono marchi delle rispettive società a cui sono associati.