Rejoindre Se connecter

Mettez en pratique vos compétences dans la console Google Cloud

Laurence Carton

Date d'abonnement : 2023

Ligue de bronze

18770 points
Gérer Kubernetes dans Google Cloud Earned fév. 5, 2025 EST
Implémenter des pipelines CI/CD sur Google Cloud Earned jan. 28, 2025 EST
Préparer des données pour les API de ML sur Google Cloud Earned juin 4, 2024 EDT
Gemini pour les data scientists et les analystes Earned mai 24, 2024 EDT
Traitement des données sans serveur avec Dataflow : opérations Earned oct. 27, 2023 EDT
Traitement des données sans serveur avec Dataflow : principes de base Earned oct. 3, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned oct. 2, 2023 EDT
Introduction to Vertex Forecasting and Time Series in Practice Earned sept. 29, 2023 EDT
Créer des pipelines de données en batch sur Google Cloud Earned sept. 29, 2023 EDT
Concevoir des systèmes d'analyse de flux résilients sur Google Cloud Earned sept. 15, 2023 EDT
Moderniser des lacs de données et des entrepôts de données avec Google Cloud Earned août 11, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Français Earned août 4, 2023 EDT
Se préparer à devenir Professional Data Engineer Earned juil. 20, 2023 EDT

Terminez le cours intermédiaire Gérer Kubernetes dans Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la gestion des déploiements avec kubectl, la surveillance et le débogage d'applications sur Google Kubernetes Engine (GKE) et les techniques de livraison continue. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence numérique que vous pourrez partager avec votre réseau.

En savoir plus

Obtenez le badge de compétence intermédiaire en suivant le cours Implémenter des pipelines CI/CD sur Google Cloud, dans lequel vous apprendrez à utiliser Artifact Registry, Cloud Build et Cloud Deploy. Vous interagirez avec la console Cloud, Google Cloud CLI, Cloud Run et GKE. Vous apprendrez à créer des pipelines d'intégration continue, à stocker et sécuriser des artefacts, à rechercher des failles et à attester de la validité de versions approuvées. Vous vous entraînerez également à déployer des applications sur GKE et Cloud Run. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.

En savoir plus

Dans ce cours, vous découvrirez comment Gemini, un outil de collaboration Google Cloud optimisé par l'IA générative, aide à analyser les données client et à prédire les ventes de produits. Vous apprendrez également à identifier, classer et développer de nouveaux clients à l'aide des données client dans BigQuery. À l'aide d'ateliers pratiques, vous verrez en quoi Gemini améliore les workflows d'analyse de données et de machine learning. Duet AI a été rebaptisé Gemini, notre modèle nouvelle génération.

En savoir plus

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

This course is an introduction to building forecasting solutions with Google Cloud. You start with sequence models and time series foundations. You then walk through an end-to-end workflow: from data preparation to model development and deployment with Vertex AI. Finally, you learn the lessons and tips from a retail use case and apply the knowledge by building your own forecasting models.

En savoir plus

Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.

En savoir plus

Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.

En savoir plus

Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".

En savoir plus

Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus