Ce cours est une introduction à Terraform pour Google Cloud. Il permet aux participants de découvrir comment Terraform peut être utilisé pour implémenter une Infrastructure as Code, et comment appliquer certaines de ses fonctionnalités essentielles pour créer et gérer une infrastructure Google Cloud. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant et en gérant des ressources Google Cloud à l'aide de Terraform.
Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.
Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.
Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".
Le troisième cours de cette série s'intitule "Achieving Advanced Insights with BigQuery". Notre objectif est ici d'approfondir vos connaissances en SQL en abordant en détail les fonctions avancées et en vous apprenant à décomposer les requêtes complexes en étapes faciles à gérer. Nous allons étudier l'architecture interne de BigQuery (stockage segmenté basé sur des colonnes), ainsi que des concepts SQL avancés tels que les champs imbriqués et répétés, en utilisant pour cela des objets ARRAY et STRUCT. Pour finir, nous verrons comment optimiser les performances de vos requêtes et sécuriser vos données à l'aide des vues autorisées.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Applying Machine Learning to Your Data with Google Cloud".
Ceci est le deuxième cours de la série "Data to Insights". Ici, nous verrons comment ingérer de nouveaux ensembles de données externes dans BigQuery et les visualiser avec Looker Studio. Nous aborderons également des concepts SQL intermédiaires, tels que les jointures et les unions de plusieurs tables, qui vous permettront d'analyser les données de différentes sources. Remarque : Même si vous avez des connaissances en SQL, certaines spécificités de BigQuery (comme la gestion du cache de requêtes et des caractères génériques de table) peuvent ne pas vous être familières.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Achieving Advanced Insights with BigQuery".
Ce cours décrit les problématiques courantes auxquelles se confrontent les analystes de données et explique comment les résoudre à l'aide des outils de big data disponibles sur Google Cloud. Vous découvrirez quelques notions de SQL et apprendrez comment utiliser BigQuery et Dataprep pour analyser et transformer vos ensembles de données. Il s'agit du premier cours de la série "From Data to Insights with Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Creating New BigQuery Datasets and Visualizing Insights".
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Cette quête d'introduction se compose d'ateliers pratiques qui vous permettent de vous familiariser avec les outils et services de base de Google Cloud Platform. "GCP Essentials" est la première quête recommandée pour les personnes s'intéressant à Google Cloud. Vous pouvez la suivre sans aucune connaissance (ou presque) du cloud et, une fois la quête terminée, vous disposerez de compétences pratiques qui vous seront utiles pour n'importe quel projet GCP. De l'écriture de lignes de commande Cloud Shell au déploiement de votre première machine virtuelle en passant par l'exécution d'applications sur Kubernetes Engine avec l'équilibrage de charge, "GCP Essentials" constitue une excellente introduction aux fonctionnalités de base de la plate-forme. Des vidéos d'une minute résument les concepts clés de ces ateliers.