Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez le cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge numérique que vous pourrez partager avec votre réseau.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Google Cloud Fundamentals for AWS Professionals introduces important concepts and terminology for working with Google Cloud. Through videos and hands-on labs, this course presents and compares many of Google Cloud's computing and storage services, along with important resource and policy management tools.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Terminez le cours intermédiaire Développer des applications sans serveur avec Firebase pour recevoir un badge démontrant vos compétences dans les domaines suivants : la conception et la création d'applications Web sans serveur avec Firebase, l'utilisation de Firestore pour gérer des bases de données, l'automatisation des processus de déploiement à l'aide de Cloud Build et l'intégration des fonctionnalités de l'Assistant Google dans vos applications. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.
Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".
Bienvenue dans le cours "Premiers pas avec Google Kubernetes Engine". Si vous vous intéressez à Kubernetes, une couche logicielle située entre vos applications et votre infrastructure matérielle, vous êtes au bon endroit. Google Kubernetes Engine vous permet d'accéder à Kubernetes en tant que service géré sur Google Cloud. L'objectif de ce cours est de vous présenter les principes de base de Google Kubernetes Engine (GKE), et de vous apprendre à conteneuriser et exécuter des applications dans Google Cloud. Le cours commence par une introduction aux principes de base de Google Cloud, puis se poursuit par une présentation des conteneurs et de Kubernetes, de l'architecture de Kubernetes et des opérations Kubernetes.
Course four of the Anthos series prepares students to consider multiple approaches for modernizing applications and services within Anthos environments. Topics include optimizing workloads on serverless platforms and migrating workloads to Anthos. This course is a continuation of course three, Anthos on Bare Metal, and assumes direct experience with the topics covered in that course.
This course introduces you to fundamentals, practices, capabilities and tools applicable to modern cloud-native application development using Google Cloud Run. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to on Google Cloud using Cloud Run.design, implement, deploy, secure, manage, and scale applications
Terminez le cours intermédiaire Développer des applications sans serveur sur Cloud Run pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'intégration de Cloud Run à Cloud Storage pour la gestion des données, la conception de systèmes asynchrones résilients à l'aide de Cloud Run et Pub/Sub, la construction de passerelles API REST reposant sur Cloud Run, et la création et le déploiement de services sur Cloud Run. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Course Description:
Course Description:
Dans ce cours, les développeurs d'applications apprennent à concevoir et développer des applications cloud natives qui s'intègrent parfaitement aux services gérés de Google Cloud. À travers un ensemble de présentations, de démonstrations et d'ateliers pratiques, les participants apprendront à appliquer les bonnes pratiques de développement d'applications et à utiliser les services Google Cloud Storage appropriés pour le stockage d'objets, les données relationnelles, la mise en cache et les données analytiques. Il est obligatoire de terminer une version de chaque atelier. Chaque atelier est disponible en Node.js. Dans la plupart des cas, les mêmes ateliers sont aussi disponibles en Python ou en Java. Vous pouvez terminer chaque atelier dans la langue que vous voulez. Il s'agit du premier cours de la série "Developing Applications with Google Cloud". Une fois que vous l'aurez terminé, inscrivez-vous au cours "Securing and Integrating Components of your Application".
Concepts fondamentaux de Google Cloud : Core Infrastructure présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.