DIALLO Ahmed oury
成为会员时间:2022
黄金联赛
25045 积分
成为会员时间:2022
本課程將介紹注意力機制,說明這項強大技術如何讓類神經網路專注於輸入序列的特定部分。此外,也將解釋注意力的運作方式,以及如何使用注意力來提高各種機器學習任務的成效,包括機器翻譯、文字摘要和回答問題。
本課程將介紹擴散模型,這是一種機器學習模型,近期在圖像生成領域展現亮眼潛力。概念源自物理學,尤其深受熱力學影響。過去幾年來,在學術界和業界都是炙手可熱的焦點。在 Google Cloud 中,擴散模型是許多先進圖像生成模型和工具的基礎。課程將介紹擴散模型背後的理論,並說明如何在 Vertex AI 上訓練和部署這些模型。
完成「在 Google Cloud 使用 Terraform 建構基礎架構」技能徽章中階課程, 即可證明自己具備下列知識與技能:使用 Terraform 的基礎架構即程式碼 (IaC) 原則、運用 Terraform 設定佈建及管理 Google Cloud 資源、有效管理狀態 (本機和遠端),以及將 Terraform 程式碼模組化,以利重複使用和管理。 技能徽章課程透過實作實驗室和挑戰評量,檢驗學員對於特定產品的實作知識。完成課程或直接進行挑戰實驗室,即可取得徽章。 徽章可證明您的專業能力、提升專業形象,開創更多職涯發展機會。 已獲得的徽章會顯示在您的個人資料中。
只要修完「在 Google Cloud 設定應用程式開發環境」課程,就能獲得技能徽章。 在本課程中,您將學會如何使用以下技術的基本功能,建構和連結以儲存空間為中心的雲端基礎架構:Cloud Storage、Identity and Access Management、Cloud Functions 和 Pub/Sub。 「技能徽章」是 Google Cloud 核發的獨家數位徽章,用於表彰您相當熟悉 Google Cloud 產品與服務,並已通過測驗,能在互動式實作環境中應用相關知識。只要完成這個技能徽章課程和最終評量挑戰研究室,即可取得技能徽章並與親友分享成就。
完成 在 Compute Engine 實作負載平衡功能 技能徽章入門課程,即可證明您具備下列技能: 編寫 gcloud 指令和使用 Cloud Shell、在 Compute Engine 建立及部署虛擬機器, 以及設定網路和 HTTP 負載平衡器。 「技能徽章」是 Google Cloud 核發的 獨家數位徽章,用於肯定您在 Google Cloud 產品與服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境中應用相關 知識。完成這個課程及挑戰研究室 最終評量,即可取得技能徽章並與親友分享。
「Google Cloud 基礎知識:核心基礎架構」介紹了在使用 Google Cloud 時會遇到的重要概念和術語。本課程會透過影片和實作實驗室,介紹並比較 Google Cloud 的多種運算和儲存服務,同時提供重要的資源和政策管理工具。
完成使用 BigQuery ML 為預測模型進行資料工程技能徽章中階課程, 即可證明自己具備下列知識與技能:運用 Dataprep by Trifacta 建構連至 BigQuery 的資料轉換 pipeline; 使用 Cloud Storage、Dataflow 和 BigQuery 建構「擷取、轉換及載入」(ETL) 工作負載, 以及使用 BigQuery ML 建構機器學習模型。技能 徽章是 Google Cloud 核發的獨家數位徽章, 用於肯定您在 Google Cloud 產品和服務方面的精熟技能, 代表您已通過測驗,能在互動式實作環境中應用相關知識。完成 這個課程及結業評量挑戰實驗室,即可取得數位徽章 並與他人分享。
完成 透過 Vertex AI 建構及部署機器學習解決方案 課程,即可瞭解如何使用 Google Cloud 的 Vertex AI 平台、AutoML 和自訂訓練服務, 訓練、評估、調整、解釋及部署機器學習模型。 這個技能徽章課程適合專業數據資料學家和機器學習 工程師,完成即可取得中階技能徽章。技能 徽章是 Google Cloud 核發的獨家數位徽章, 用於肯定您在 Google Cloud 產品和服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境應用相關知識。完成這個技能徽章課程 和結業評量挑戰實驗室,就能獲得數位徽章, 並與親友分享。
完成 透過 BigQuery 建構資料倉儲 技能徽章中階課程,即可證明您具備下列技能: 彙整資料以建立新資料表、排解彙整作業問題、利用聯集附加資料、建立依日期分區的資料表, 以及在 BigQuery 使用 JSON、陣列和結構體。 「技能徽章」是 Google Cloud 核發的獨家數位徽章, 用於肯定您在 Google Cloud 產品和服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境中應用相關 知識。完成技能徽章課程及結業評量挑戰研究室, 即可取得技能徽章並與他人分享。
完成 在 Google Cloud 為機器學習 API 準備資料 技能徽章入門課程,即可證明您具備下列技能: 使用 Dataprep by Trifacta 清理資料、在 Dataflow 執行資料管道、在 Dataproc 建立叢集和執行 Apache Spark 工作,以及呼叫機器學習 API,包含 Cloud Natural Language API、Google Cloud Speech-to-Text API 和 Video Intelligence API。 「技能徽章」是 Google Cloud 核發的獨家數位徽章,用於肯定您在 Google Cloud 產品與服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境中應用相關知識。完成本技能徽章課程及結業評量挑戰研究室, 即可取得技能徽章並與他人分享。
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
Processing streaming data is becoming increasingly popular as streaming enables businesses to get real-time metrics on business operations. This course covers how to build streaming data pipelines on Google Cloud. Pub/Sub is described for handling incoming streaming data. The course also covers how to apply aggregations and transformations to streaming data using Dataflow, and how to store processed records to BigQuery or Bigtable for analysis. Learners get hands-on experience building streaming data pipeline components on Google Cloud by using QwikLabs.
Data pipelines typically fall under one of the Extract and Load (EL), Extract, Load and Transform (ELT) or Extract, Transform and Load (ETL) paradigms. This course describes which paradigm should be used and when for batch data. Furthermore, this course covers several technologies on Google Cloud for data transformation including BigQuery, executing Spark on Dataproc, pipeline graphs in Cloud Data Fusion and serverless data processing with Dataflow. Learners get hands-on experience building data pipeline components on Google Cloud using Qwiklabs.
The two key components of any data pipeline are data lakes and warehouses. This course highlights use-cases for each type of storage and dives into the available data lake and warehouse solutions on Google Cloud in technical detail. Also, this course describes the role of a data engineer, the benefits of a successful data pipeline to business operations, and examines why data engineering should be done in a cloud environment. This is the first course of the Data Engineering on Google Cloud series. After completing this course, enroll in the Building Batch Data Pipelines on Google Cloud course.