Juan Manuel Martinez Carrillo
Menjadi anggota sejak 2019
Diamond League
16255 poin
Menjadi anggota sejak 2019
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
Selesaikan badge keahlian pengantar Menyiapkan Data untuk Dasbor dan Laporan Looker untuk menunjukkan keterampilan dalam hal berikut: memfilter, mengurutkan, dan melakukan pivot pada data; menggabungkan hasil dari sejumlah Eksplorasi Looker; serta menggunakan fungsi dan operator untuk membangun dasbor dan laporan Looker untuk analisis dan visualisasi data. Badge keahlian adalah badge digital eksklusif yang diberikan oleh Google Cloud sebagai pengakuan atas kemahiran Anda dalam menggunakan produk dan layanan Google Cloud, serta menguji kemampuan Anda dalam menerapkan pengetahuan di lingkungan praktik yang interaktif. Selesaikan kursus badge keahlian ini dan challenge lab penilaian akhir untuk menerima badge keahlian yang dapat Anda bagikan ke jaringan Anda.
Selesaikan badge keahlian tingkat menengah Rekayasa Data untuk Pembuatan Model Prediktif dengan BigQuery ML untuk menunjukkan keterampilan Anda dalam hal berikut: membangun pipeline transformasi data ke BigQuery dengan Dataprep by Trifacta; menggunakan Cloud Storage, Dataflow, dan BigQuery untuk membangun alur kerja ekstrak, transformasi, dan pemuatan (ETL); serta membangun model machine learning menggunakan BigQuery ML. Badge keahlian adalah badge digital eksklusif yang diberikan oleh Google Cloud sebagai pengakuan atas kemahiran Anda dalam menggunakan produk dan layanan Google Cloud serta menguji kemampuan Anda dalam menerapkan pengetahuan di lingkungan praktik yang interaktif. Selesaikan kursus badge keahlian dan challenge lab penilaian akhir untuk menerima badge digital yang dapat Anda bagikan ke jaringan Anda.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Selesaikan badge keahlian tingkat menengah Membangun Data Warehouse dengan BigQuery untuk menunjukkan keterampilan Anda dalam hal berikut: menggabungkan data untuk membuat tabel baru, memecahkan masalah penggabungan, menambahkan data dengan union, membuat tabel berpartisi tanggal, serta menggunakan JSON, array, dan struct di BigQuery. Badge keahlian adalah badge digital eksklusif yang diberikan oleh Google Cloud sebagai pengakuan atas kemahiran Anda dalam menggunakan produk dan layanan Google Cloud serta menguji kemampuan Anda dalam menerapkan pengetahuan di lingkungan yang interaktif. Selesaikan kursus badge keahlian ini dan challenge lab penilaian akhir, untuk menerima badge keahlian yang dapat Anda bagikan dengan jaringan Anda.
Processing streaming data is becoming increasingly popular as streaming enables businesses to get real-time metrics on business operations. This course covers how to build streaming data pipelines on Google Cloud. Pub/Sub is described for handling incoming streaming data. The course also covers how to apply aggregations and transformations to streaming data using Dataflow, and how to store processed records to BigQuery or Bigtable for analysis. Learners get hands-on experience building streaming data pipeline components on Google Cloud by using QwikLabs.
Data pipelines typically fall under one of the Extract and Load (EL), Extract, Load and Transform (ELT) or Extract, Transform and Load (ETL) paradigms. This course describes which paradigm should be used and when for batch data. Furthermore, this course covers several technologies on Google Cloud for data transformation including BigQuery, executing Spark on Dataproc, pipeline graphs in Cloud Data Fusion and serverless data processing with Dataflow. Learners get hands-on experience building data pipeline components on Google Cloud using Qwiklabs.
The two key components of any data pipeline are data lakes and warehouses. This course highlights use-cases for each type of storage and dives into the available data lake and warehouse solutions on Google Cloud in technical detail. Also, this course describes the role of a data engineer, the benefits of a successful data pipeline to business operations, and examines why data engineering should be done in a cloud environment. This is the first course of the Data Engineering on Google Cloud series. After completing this course, enroll in the Building Batch Data Pipelines on Google Cloud course.