arrow_back

Solución de problemas de cargas de trabajo en GKE para el equipo de ingeniería de confiabilidad de sitios

Unirse Acceder

Solución de problemas de cargas de trabajo en GKE para el equipo de ingeniería de confiabilidad de sitios

1 hora 30 minutos 1 crédito

GSP902

Labs de autoaprendizaje de Google Cloud

Nota: Por lo general, este lab tarda menos de un minuto en iniciarse. Sin embargo, durante períodos de alta demanda, el sistema puede tardar hasta 20 minutos en aprovisionar los recursos utilizados. El tiempo de aprovisionamiento no se descontará del tiempo disponible para completar el lab.

Descripción general

El equipo de Ingeniería de Confiabilidad de Sitios (SRE) tiene muchas responsabilidades, y la administración de incidentes es una parte esencial de su trabajo. En este lab, descubrirá cómo aprovechar las funciones integradas de Google Cloud's operations suite, incluidas las operaciones de registro y supervisión, además de paneles enriquecidos listos para usar.

El proceso de solución de problemas es una estrategia “iterativa” en la que el equipo de SRE formula una hipótesis sobre la posible causa raíz de un incidente para, luego, filtrar, investigar y explorar una gran cantidad de datos de telemetría recopilados por sus sistemas con el fin de validar o refutar la hipótesis. Si una hipótesis no se considera válida, el equipo de SRE formula otra y realiza otra iteración hasta que pueda determinar una causa raíz. Para obtener más información sobre los equipos de SRE, consulte Ingeniería de confiabilidad de sitios de Google en el sitio web de Google.

En este lab, aprenderá a realizar este proceso iterativo de forma eficiente y eficaz con las herramientas de Google Cloud's operations suite.

Qué aprenderá

En este lab, aprenderá a hacer lo siguiente:

  • Navegar por las páginas de recursos de Google Kubernetes Engine (GKE)

  • Aprovechar el panel de GKE para visualizar datos operativos con rapidez

  • Crear métricas basadas en registros para detectar problemas específicos

  • Crear un objetivo de nivel de servicio (SLO)

  • Definir una alerta para notificar al personal de SRE sobre incidentes

Configuración y requisitos

Antes de hacer clic en el botón Comenzar lab

Lea estas instrucciones. Los labs son cronometrados y no se pueden pausar. El cronómetro, que comienza a funcionar cuando hace clic en Comenzar lab, indica por cuánto tiempo tendrá a su disposición los recursos de Google Cloud.

Este lab práctico de Qwiklabs le permitirá llevar a cabo las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, le proporciona credenciales temporales nuevas que utilizará para acceder a Google Cloud durante todo el lab.

Qué necesita

Para completar este lab, necesitará lo siguiente:

  • Acceso a un navegador de Internet estándar (se recomienda el navegador Chrome)
  • Tiempo para completar el lab

Nota: Si ya tiene un proyecto o una cuenta personal de Google Cloud, no los use para este lab.

Nota: Si usa un dispositivo con Chrome OS, ejecute este lab en una ventana de incógnito.

Cómo iniciar su lab y acceder a la consola de Google Cloud

  1. Haga clic en el botón Comenzar lab. Si debe pagar por el lab, se abrirá una ventana emergente para que seleccione su forma de pago. A la izquierda, se encuentra el panel Detalles del lab que tiene estos elementos:

    • El botón Abrir la consola de Google
    • Tiempo restante
    • Las credenciales temporales que debe usar para el lab
    • Otra información para completar el lab, si es necesaria
  2. Haga clic en Abrir la consola de Google. El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.

    Sugerencia: Ordene las pestañas en ventanas separadas, una junto a la otra.

    Nota: Si ve el diálogo Elegir una cuenta, haga clic en Usar otra cuenta.
  3. Si es necesario, copie el nombre de usuario del panel Detalles del lab y péguelo en el cuadro de diálogo Acceder. Haga clic en Siguiente.

  4. Copie la contraseña del panel Detalles del lab y péguela en el cuadro de diálogo de bienvenida. Haga clic en Siguiente.

    Importante: Debe usar las credenciales del panel de la izquierda. No use sus credenciales de Google Cloud Skills Boost. Nota: Usar su propia Cuenta de Google podría generar cargos adicionales.
  5. Haga clic para avanzar por las páginas siguientes:

    • Acepte los términos y condiciones.
    • No agregue opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
    • No se registre para obtener pruebas gratuitas.

Después de un momento, se abrirá la consola de Cloud en esta pestaña.

Nota: Para ver el menú con una lista de los productos y servicios de Google Cloud, haga clic en el Menú de navegación que se encuentra en la parte superior izquierda de la pantalla. Ícono del menú de navegación

Active Google Cloud Shell

Google Cloud Shell es una máquina virtual que cuenta con herramientas de desarrollo. Ofrece un directorio principal persistente de 5 GB y se ejecuta en Google Cloud. Google Cloud Shell proporciona acceso de línea de comandos a sus recursos de GCP.

  1. En GCP Console, en la barra de herramientas superior derecha, haga clic en el botón Abrir Cloud Shell.

    Ícono de Cloud Shell

  2. Haga clic en Continue (Continuar):

    cloudshell_continue

Toma unos minutos aprovisionar y conectarse con el entorno. Cuando está conectado, ya está autenticado y el proyecto está configurado en su PROJECT_ID . Por ejemplo:

Terminal de Cloud Shell

gcloud es la herramienta de línea de comandos para Google Cloud Platform. Viene preinstalada en Cloud Shell y es compatible con la función “tab-completion”.

Puede mostrar el nombre de la cuenta activa con este comando:

gcloud auth list

Resultado:

ACTIVE: *
ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net
To set the active account, run:
    $ gcloud config set account `ACCOUNT`
	

Puede mostrar el ID del proyecto con este comando:

gcloud config list project
	

Resultado:

[core]
project = <project_ID>
	

Resultado de ejemplo:

[core]
project = qwiklabs-gcp-44776a13dea667a6
	

Situación

Su organización implementó una aplicación de microservicios de varios niveles. Se trata de una aplicación de comercio electrónico basada en la Web llamada “Hipster Shop”, en la que los usuarios pueden explorar artículos vintage, agregarlos al carrito y comprarlos. Hipster Shop se compone de muchos microservicios escritos en distintos lenguajes que se comunican entre sí mediante gRPC y las APIs de REST. La arquitectura de la implementación está optimizada para fines de aprendizaje e incluye tecnologías modernas como parte de la pila, como Kubernetes, Istio, Cloud Operations, App Engine, gRPC, OpenTelemetry y otras tecnologías similares nativas de la nube.

Como miembro del equipo de Ingeniería de Confiabilidad de Sitios (SRE), se comunicarán con usted cuando los usuarios finales informen problemas para visualizar productos y agregarlos al carrito. Explorará los diversos servicios implementados para determinar la causa raíz del problema y configurará un objetivo de nivel de servicio (SLO) para evitar que ocurran incidentes similares en el futuro. Obtenga más información sobre este tema en el siguiente artículo de blog: SLO, SLI, ANS: Lecciones de CRE.

Tarea 1: Navegue por las páginas de recursos de Google Kubernetes Engine (GKE)

En la primera parte de este lab, visualizará las páginas de recursos de Google Kubernetes Engine (GKE) y, luego, navegará por los diversos paneles de métricas para investigar con mayor detalle el problema que informaron los usuarios finales.

  1. En el menú de navegación de la consola de Cloud, vaya a Kubernetes Engine > Clústeres.

  2. Confirme que aparece disponible el siguiente clúster de Kubernetes: cloud-ops-sandbox. Compruebe que cada clúster tenga una marca de verificación verde junto a él para indicar que está activo.

  3. Haga clic en el vínculo de cloud-ops-sandbox debajo de la columna Nombre para navegar a la pestaña Detalles del clúster.

  4. Haga clic en la pestaña Nodos para ver todos los nodos del clúster. Compruebe que haya un solo grupo de nodos.

  5. Debajo de la sección Nodes Pools, en la pestaña Nodos, haga clic en el vínculo del primer nodo de la tabla debajo de la columna Nombre para ver más detalles del nodo. Desplácese hasta el final de la página y haga clic en el vínculo del primer Nodo en la tabla al final de la página.

Tabla de nodos

  1. En la página de detalles del nodo resultante, preste atención a las métricas del nodo que están disponibles. Deberían aparecer enumeradas debajo de la sección Resumen de recursos con los campos CPU y Uso de memoria, entre otros. Este lab genera carga durante el aprovisionamiento. Verá actividad en las métricas, pero no un aumento repentino de la actividad ni métricas por sobre el límite “solicitado” para los gráficos que se muestran en la sección Resumen.

  2. Para investigar con más detalle, en lugar de navegar a cada nodo individual para ver sus métricas, haga clic en los tres puntos que aparecen en la esquina superior derecha del título CPU y, luego, en Ver en el Explorador de métricas.

En la página del Explorador de métricas, verá las métricas asociadas con el nodo que acaba de seleccionar. Hay tres filtros configurados en el Explorador de métricas, debajo de la sección Filtros.

  1. Para quitar el filtro de nodename, expándalo y haga clic en el ícono de borrar.

  2. Debajo de la sección How do you want to view that data, configure Agrupar por en node_name.

Una vez que configure los filtros, se actualizará la visualización y usted podrá ver las mismas métricas para todos los nodos en el grupo de nodos del clúster cloud-ops-sandbox.

Gráfico de líneas

Nota:Es posible que vea dos métricas adicionales correspondientes al límite de núcleos y las solicitudes de núcleos. La primera métrica corresponde al límite de núcleos de CPU del contenedor que se ejecuta en el nodo, mientras que la segunda métrica es la cantidad de núcleos de CPU solicitados por el contenedor que se ejecuta en el nodo. Puede obtener más información sobre las métricas de Kubernetes en esta página de documentación.

Tarea 2: Acceda a los datos operativos con los paneles de GKE

En la próxima sección, explorará cómo navegar rápidamente a datos operativos detallados de diversos recursos implementados en GKE mediante el panel del entorno.

Recuerde que algunos usuarios del sitio web informaron que no pueden ver los detalles de los productos ni agregar artículos al carrito. Para verificar esto, abra el sitio web.

  1. Navegue al menú de navegación de la izquierda > Kubernetes Engine > Ingress y servicios. Haga clic en Extremo (una dirección IP) para el servicio frontend-external.
  2. Haga clic en cualquier producto que aparezca en la página de destino para reproducir el error informado.

Luego, notará que en el seguimiento de pila se indica que la aplicación no pudo obtener recomendaciones de productos.

A continuación, investigue el servicio recommendationservice implementado en GKE:

  1. Navegue a Cloud Monitoring en la consola de Cloud y, en el menú de navegación, seleccione Monitoring > Paneles.
Nota: Para que no deba desplazarse hasta la sección Monitoring en el menú de la izquierda cada vez que necesite acceder a ella durante lo que queda del lab, coloque el cursor sobre la sección Monitoring y seleccione el ícono de fijar. Así, la sección Monitoring se mantendrá en la parte superior del menú de la izquierda.
  1. Cuando se abra la página de destino de los Paneles, haga clic en GKE.

Debería ver un panel con métricas relevantes relacionadas con el clúster, el espacio de nombres, la carga de trabajo, el servicio, el Pod y el contenedor de los recursos de GKE que se encuentran en el proyecto en una vista agregada.

En esta situación del lab, recomendamos que visualice los registros y las métricas relacionados con el servicio recommendationservice, debido a que los usuarios finales experimentan errores relacionados con las recomendaciones de productos cuando visualizan la página de destino de un producto. Creará filtros para el clúster cloud-ops-sandbox a fin de investigar las posibles causas y realizar un diagnóstico más preciso del problema.

En los próximos pasos, agregará filtros al panel de GKE.

  1. Haga clic en el botón Agregar filtro ubicado en la parte superior de la página del panel de GKE.

  2. En los filtros disponibles, seleccione Cargas de trabajo > recommendationservice.

Opción de filtro “recommendationservice”

  1. Haga clic en el botón Aplicar una vez que haya seleccionado el filtro correcto. La sección de filtro de la página del panel de GKE tendrá un aspecto similar al que se muestra en esta imagen.

Sección de filtro de la página del panel de GKE

Esta vista le permite enfocarse en el microservicio recommendationservice que tiene problemas.

  1. En la sección Cargas de trabajo, haga clic en recommendationservice para que aparezca el panel Detalles de la implementación. En él, se muestran detalles de las alertas, los eventos, las métricas y los registros. En este punto del lab, no se muestran SLO. Agregará uno en esta sección en la siguiente parte del lab.

  2. Haga clic en la pestaña Métricas para visualizar las métricas relacionadas con el servicio recommendationservice. Puede cambiar la selección del menú desplegable Métricas para modificar los datos de visualización y ver las diferentes métricas disponibles para este servicio.

Sección “recommendationservice”

  1. Haga clic en la pestaña Registros para ver los registros relacionados con el servicio recommendationservice. Puede filtrar los registros disponibles con el menú desplegable de Gravedad correspondiente al nivel de registro de las entradas disponibles. Esto es útil en el contexto de la SRE para encontrar errores en los registros y aprovechar las entradas a fin de resolver problemas.

  2. Configure la Gravedad como Error para filtrar los registros de recommendationservice.

Sección Registros

  1. En este punto, el error relacionado con el código con problemas es evidente. Busque la frase invalid literal for int() with base 10: '5.0' en los elementos del conjunto de resultados. Este mensaje en los filtros de recommendationservice confirma que el servicio tiene un error en el código.

Deberá volver a implementar el microservicio recommendationservice para asegurarse de que el error no esté presente.

Nota: Para que sea más sencillo, simulará la implementación de una versión nueva de la aplicación con kubectl.
  1. En Cloud Shell, ejecute el siguiente comando:
git clone --depth 1 --branch cloudskillsboost_asm https://github.com/GoogleCloudPlatform/cloud-ops-sandbox.git
  1. Luego, ejecute lo siguiente:
cd cloud-ops-sandbox/sre-recipes
  1. Vaya al menú de navegación > Kubernetes Engine > Clústeres. Seleccione los tres puntos que aparecen en el lado derecho del clúster cloud-ops-sandbox y, luego, la opción Conectar.

  2. En el diálogo modal Conéctate al clúster, haga clic en el botón EJECUTAR EN CLOUD SHELL. Presione Intro para ejecutar el comando una vez que se haya propagado en Cloud Shell.

  3. Por último, ejecute el comando restore para actualizar el servicio:

./sandboxctl sre-recipes restore "recipe3"
  1. Para verificar que la aplicación funciona correctamente, vaya al menú de navegación > Kubernetes Engine > Ingress y servicios.

  2. Haga clic en el extremo del servicio frontend-external.

Esta acción lo llevará al sitio web de Hipster Shop que usó en este ejercicio del lab. Haga clic en cualquier producto para verificar que se carga sin arrojar ningún error.

Sitio web de Hipster Shop

En esta sección del lab, exploró los registros y las métricas disponibles en el panel de GKE para diagnosticar un problema con la carga de trabajo de la aplicación que implementó el equipo de DevOps. Pudo detectar la causa exacta de un problema y resolverlo reimplementando el microservicio con problemas con una corrección de errores.

Tarea 3: Supervisión proactiva con métricas basadas en registros

Para garantizar que el código recommendationservice actualizado funcione según lo previsto y evitar que vuelvan a ocurrir incidentes en el futuro, decide crear una métrica basada en registros con el fin de supervisar los registros y notificar al equipo de SRE cuando sucedan situaciones similares.

En esta sección, creará una métrica basada en registros específica para el error mencionado en las secciones anteriores.

Con las métricas basadas en registros, puede definir una métrica que haga un seguimiento de los errores en los registros para responder de forma proactiva a síntomas y problemas similares antes de que los usuarios finales los informen.

  1. En la consola de Cloud, haga clic en el menú de navegación > Logging > Explorador de registros.
Nota: Para que no deba desplazarse hasta la sección Logging en el menú de navegación cada vez que necesite acceder a ella durante lo que queda del lab, coloque el cursor sobre la sección Logging y seleccione el ícono de fijar. De esta forma, la sección Logging se mantendrá en la parte superior del menú de navegación.
  1. En la sección Resultados de la consulta, haga clic en +Crear métrica. Esta acción abrirá una pestaña nueva para crear una métrica basada en registros.

  2. Ingrese las siguientes opciones en la página Crear métricas de registros:

  • Tipo de métrica: Contador
  • Nombre de la métrica de registro: Error_Rate_SLI
  • Selección de filtro: (Copie y pegue el filtro a continuación)
resource.labels.cluster_name="cloud-ops-sandbox" AND resource.labels.namespace_name="default" AND resource.type="k8s_container" AND labels.k8s-pod/app="recommendationservice" AND severity>=ERROR Nota: En la siguiente sección, utilizará una métrica diferente centrada en la disponibilidad para notificar de forma proactiva al equipo de SRE sobre errores. Sin embargo, tenga en cuenta que la métrica basada en registros personalizada que se define en esta sección también podría usarse para generar una alerta cuando se cumpla su condición del filtro.
  1. Haga clic en Crear métrica.

Haga clic en Revisar mi progreso para verificar el objetivo. Crear una métrica de registro

Tarea 4: Cree un SLO

Luego de crear una métrica basada en registros que describa con precisión la experiencia del usuario, el equipo de SRE la utilizará para medir la satisfacción de los usuarios. Estas métricas son nuestros SLI y se utilizarán para definir un objetivo de nivel de servicio (SLO) en recommendationservice. Usted usa un SLO para especificar los objetivos de nivel de servicio de las métricas de rendimiento. Un SLO es un objetivo medible de rendimiento durante un período. En el sitio web de Google Cloud Anthos, consulte la guía Diseñe y use SLO para obtener más orientación sobre el diseño de los SLO y los filtros que utilizará a continuación.

Cloud operations suite proporciona una supervisión orientada al servicio, lo que significa que se configuran los SLI, SLO y las alertas de tasa de gasto para un service.

  1. Vaya al menú de navegación > Monitoring > Servicios. Se mostrará una página con una lista de todos los servicios implementados en GKE para la carga de trabajo de la aplicación.

  2. Seleccione recommendationservice en la lista de servicios disponibles para llegar a la página Detalles del servicio.

  3. Haga clic en + Crear SLO en la parte superior de la página.

  4. En el Paso 1, verá un diálogo para crear un SLI nuevo. Configure los siguientes parámetros:

  • Elija la métrica Otro.

  • ¿Basado en las solicitudes o en Windows?: Basado en solicitudes

  1. Haga clic en Continuar.

  2. En el Paso 2 Define los detalles del SLI, la Métrica de rendimiento debe estar configurada con el siguiente valor: custom.googleapis.com/opencensus/grpc.io/client/roundtrip_latency. Esto mostrará la latencia de ida y vuelta de las solicitudes realizadas por el cliente al servicio de recomendación.

Establezca la métrica de rendimiento en Less than -∞ to 100 ms.

Página para crear un objetivo de nivel de servicio (SLO)

  1. Haga clic en Continuar.

  2. Luego de configurar el SLI, en el Paso 3 Establece tu objetivo de nivel de servicio (SLO), definirá el SLO, un SLO incluye el objetivo de rendimiento (el objetivo de confiabilidad) y el período de cumplimiento (el período de medición). Para obtener más información, consulte Cómo elegir un período apropiado en el libro The Site Reliability Workbook de Google. Realice las siguientes selecciones:

  • Tipo de período: Calendario

  • Duración del período: Mes del calendario

  • Objetivo de rendimiento: 99%

  1. Haga clic en Continuar.

  2. Haga clic en Crear SLO en el último paso del asistente para completar el proceso de creación del SLO.

Esta acción lo llevará de vuelta a Monitoring > página de destino de Servicios. Si existe una infracción del SLO, debería poder verla en la sección Current status of the SLO.

  1. Haga clic en la entrada correspondiente y seleccione la pestaña Porcentaje de error aceptable una vez que la expanda.

Haga clic en Revisar mi progreso para verificar el objetivo. Crear un objetivo de nivel de servicio (SLO)

La fracción de Error budget representa el porcentaje real de error aceptable restante del período de cumplimiento. En el SLO definido, hay un período de un mes de calendario y un objetivo de rendimiento de 99% o más.

Como lo indica el porcentaje, el error que impide que las páginas de productos se carguen correctamente en esta situación ficticia deteriora significativamente el objetivo de nivel de servicio definido. Es posible que este no sea el caso en una situación del mundo real, ya que en este lab se ejecutó una prueba de carga en el clúster de Kubernetes que alberga la carga de trabajo de la aplicación.

Tarea 5: Defina una alerta en el SLO

Para notificar de forma proactiva al equipo de SRE sobre cualquier infracción del SLO definido, se recomienda establecer una alerta que se active cuando se infrinja el SLO. La alerta puede invocar un canal de notificaciones de su preferencia, como correo electrónico, SMS, PagerDuty, Slack, un WebHook o una suscripción a un tema de PubSub.

  1. Vaya al menú de navegación > Monitoring > Servicios.

  2. Haga clic en recommendationservice en la lista de servicios disponibles.

  3. En la sección Current status of 1 SLO, debería ver el SLO creado en la última tarea. Es posible que deba ampliar la ventana del navegador que muestra el SLO para ver otras opciones.

  4. Haga clic en el botón CREATE SLO ALERT que aparece en el SLO. Esto le permitirá definir una política de alertas para cuando se infrinja el SLO.

En la entrada modal Crea una política de alertas sobre tasa de gasto para SLO, verá los campos Duración de la visualización y Límite de tasa de gasto en el Paso 1 del asistente. La duración de la visualización le permite especificar un período (a partir de ese momento) para que la política de alertas busque posibles infracciones de la tasa de gasto. El límite de tasa de gasto le permite especificar un fragmento de tiempo del período para dividir la duración de la visualización a fin de evaluar si se infringió o no el SLO.

  1. Mantenga los valores predeterminados:
  • Duración de la visualización: 60 minutos

  • Límite de tasa de gasto: 10

  1. Haga clic en Siguiente.

  2. En el Paso 2, puede definir un canal de notificaciones para recibir una alerta cuando se observe una infracción. Para los fines de este lab, de forma opcional, puede proporcionar otros canales (dirección de correo electrónico o SMS) para recibir una notificación.

Paso 2: Sección “¿Quiénes deben recibir notificaciones?” (opcional)

  1. Haga clic en Siguiente.

El Paso 3 es opcional y le permite proporcionar cualquier tipo de información al usuario final que recibe la notificación, de modo que este sepa de inmediato cuál puede ser el problema y de qué manera se podría solucionar.

  1. Haga clic en Guardar.

Haga clic en Revisar mi progreso para verificar el objetivo. Crear una alerta en el objetivo de nivel de servicio (SLO)

Quite su política de alertas (opcional)

Si configura una alerta por correo electrónico como parte de su política de alertas, existe la posibilidad de que reciba algunos correos electrónicos sobre sus recursos incluso después de que termine el lab.

Para evitar esto, quite la política de alertas antes de completar el lab.

¡Felicitaciones!

En este lab, exploró Google Cloud's operations suite, que permite al equipo de ingeniería de confiabilidad de sitios (SRE) investigar y diagnosticar errores experimentados con las cargas de trabajo implementadas. Con el fin de aumentar la confiabilidad de las cargas de trabajo, exploró cómo navegar a las páginas de recursos de GKE, ver datos operativos de paneles de GKE, crear métricas basadas en registros para detectar problemas específicos y responder de forma proactiva a incidentes configurando objetivos de nivel de servicio y alertas para notificar al equipo de SRE sobre problemas experimentados antes de que estos causen interrupciones en el servicio.

Finalice su Quest

Este lab de autoaprendizaje forma parte de las Quests Google Cloud's operations suite on GKE, Cloud Architecture y DevOps Essentials, y la Quest con insignia de habilidad Measure Site Reliability using Cloud Operations Suite. Una Quest es una serie de labs relacionados que forman una ruta de aprendizaje. Inscríbase en una Quest y obtenga un crédito inmediato de finalización después de haber realizado este lab. Consulte otras Quests disponibles.

Realice su próximo lab

Pruebe Monitoring y Logging para Cloud Functions

Próximos pasos

Google Cloud Training & Certification

Aproveche al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarlo a ponerse en marcha rápidamente y a seguir aprendiendo. Para que pueda realizar nuestros cursos cuando más le convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: según demanda, presenciales y virtuales. Las certificaciones lo ayudan a validar y demostrar sus habilidades y experiencia en las tecnologías de Google Cloud.

Última actualización del manual: 13 de julio de 2022

Prueba más reciente del lab: 13 de julio de 2022

Copyright 2020 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.