Subin Kim
成为会员时间:2022
成为会员时间:2022
Gemini for Google Workspace 是一項外掛程式,可讓使用者存取生成式 AI 功能。本課程使用影片、實作活動和練習範例,深入介紹 Google 雲端硬盤中的 Gemini 的功能。 課程結束後,您將具備 Google 雲端硬盤中的 Gemini 的知識及技能,可自信地運用這項工具提升工作流程的效率。
Gemini 版 Google Workspace 是一項外掛程式,可讓使用者存取生成式 AI 功能。本課程會使用影片、實作活動和練習範例,深入介紹 Gemini 版 Google Meet 的功能。您會學到如何透過 Gemini 生成背景圖片、提升視訊品質及翻譯字幕。本課程結束後,您將具備 Gemini 版 Google Meet 的知識及技能,安心運用這項工具提高視訊會議的效率。
安裝 Gemini 版 Google Workspace 外掛程式後,客戶就能在 Google Workspace 使用生成式 AI 功能。這堂迷你課程會介紹 Gemini 的主要功能,並說明如何在 Google 試算表善用這些功能,提高生產力和效率。
Gemini 版 Google Workspace 是一項外掛程式,可讓客戶在 Google Workspace 使用生成式 AI 功能。這堂迷你課程會介紹 Gemini 的主要功能,並說明如何在 Google 簡報善用這些功能,提高生產力和效率。
使用者將能透過 Gemini 版 Google Workspace 外掛程式運用生成式 AI 功能。本課程會使用影片、實作活動和練習範例,深入介紹 Gemini 版 Google 文件的功能。您將學到如何透過 Gemini 使用提示生成撰寫內容、編輯寫好的文字,以提升整體工作效率。本課程結束後,您將具備 Gemini 版 Google 文件的知識及技能,可自信地運用這項工具提升寫作品質。
Gemini 版 Google Workspace 是一項外掛程式,可讓客戶在 Google Workspace 使用生成式 AI 功能。這堂迷你課程會介紹 Gemini 的主要功能,並說明如何在 Gmail 善用這些功能,提高生產力和效率。
客戶能透過 Gemini 版 Google Workspace 外掛程式在 Google Workspace 使用生成式 AI 功能。本學習路徑會介紹 Gemini 的主要功能,並說明如何在 Google Workspace 善用這些功能,提高生產力和效率。
隨著企業持續擴大使用人工智慧和機器學習,以負責任的方式發展相關技術也日益重要。對許多企業來說,談論負責任的 AI 技術可能不難,如何付諸實行才是真正的挑戰。如要瞭解如何在機構中導入負責任的 AI 技術,本課程絕對能助您一臂之力。 您可以從中瞭解 Google Cloud 目前採取的策略、最佳做法和經驗談,協助貴機構奠定良好基礎,實踐負責任的 AI 技術。
這堂課程將說明變換器架構,以及基於變換器的雙向編碼器表示技術 (BERT) 模型,同時帶您瞭解變換器架構的主要組成 (如自我注意力機制) 和如何用架構建立 BERT 模型。此外,也會介紹 BERT 適用的各種任務,像是文字分類、問題回答和自然語言推論。課程預計約 45 分鐘。
本課程概要說明解碼器與編碼器的架構,這種強大且常見的機器學習架構適用於序列對序列的任務,例如機器翻譯、文字摘要和回答問題。您將認識編碼器與解碼器架構的主要元件,並瞭解如何訓練及提供這些模型。在對應的研究室逐步操作說明中,您將學習如何從頭開始使用 TensorFlow 寫程式,導入簡單的編碼器與解碼器架構來產生詩詞。
本課程將介紹注意力機制,說明這項強大技術如何讓類神經網路專注於輸入序列的特定部分。此外,也將解釋注意力的運作方式,以及如何使用注意力來提高各種機器學習任務的成效,包括機器翻譯、文字摘要和回答問題。
本課程說明如何使用深度學習來建立圖像說明生成模型。您將學習圖像說明生成模型的各個不同組成部分,例如編碼器和解碼器,以及如何訓練和評估模型。在本課程結束時,您將能建立自己的圖像說明生成模型,並使用模型產生圖像說明文字。
本課程會介紹 Vertex AI Studio。您可以運用這項工具和生成式 AI 模型互動、根據商業構想設計原型,並投入到正式環境。透過身歷其境的應用實例、有趣的課程及實作實驗室,您將能探索從提示到正式環境的生命週期,同時學習如何將 Vertex AI Studio 運用在多模態版 Gemini 應用程式、提示設計、提示工程和模型調整。這個課程的目標是讓您能運用 Vertex AI Studio,在專案中發揮生成式 AI 的潛能。
本課程將介紹擴散模型,這是一種機器學習模型,近期在圖像生成領域展現亮眼潛力。概念源自物理學,尤其深受熱力學影響。過去幾年來,在學術界和業界都是炙手可熱的焦點。在 Google Cloud 中,擴散模型是許多先進圖像生成模型和工具的基礎。課程將介紹擴散模型背後的理論,並說明如何在 Vertex AI 上訓練和部署這些模型。
完成「Introduction to Generative AI」、「Introduction to Large Language Models」和「Introduction to Responsible AI」課程,即可獲得技能徽章。通過最終測驗,就能展現您對生成式 AI 基本概念的掌握程度。 「技能徽章」是 Google Cloud 核發的數位徽章,用於表彰您對 Google Cloud 產品和服務的相關知識。您可以將技能徽章公布在社群媒體的個人資料中,向其他人分享您的成果。
這個入門微學習課程主要介紹「負責任的 AI 技術」和其重要性,以及 Google 如何在自家產品中導入這項技術。本課程也會說明 Google 的 7 個 AI 開發原則。
這是一堂入門級的微學習課程,旨在探討大型語言模型 (LLM) 的定義和用途,並說明如何調整提示來提高 LLM 成效。此外,也會介紹多項 Google 工具,協助您自行開發生成式 AI 應用程式。
這個入門微學習課程主要說明生成式 AI 的定義和使用方式,以及此 AI 與傳統機器學習方法的差異。本課程也會介紹各項 Google 工具,協助您開發自己的生成式 AI 應用程式。
Kubernetes 是最受歡迎的容器自動化調度管理系統,Google Kubernetes Engine 則專門支援 Google Cloud 中的 代管 Kubernetes 部署項目。這門進階課程將帶您實際練習設定 Docker 映像檔和容器,並部署完整的 Kubernetes Engine 應用程式。 您會學到如何將容器自動化調度管理機制, 整合到自己的工作流程,這些技巧相當實用。 想透過實作挑戰實驗室展現 技能、驗收學習成果嗎?本課程結束後,再完成 在 Google Cloud 部署 Kubernetes 應用程式課程 結尾的挑戰實驗室,即可獲得專屬 Google Cloud 數位徽章。
這堂課程可讓參加人員瞭解如何使用確實有效的設計模式,在 Google Cloud 中打造相當可靠且效率卓越的解決方案。這堂課程接續了「設定 Google Compute Engine 架構」或「設定 Google Kubernetes Engine 架構」課程的內容,並假設參加人員曾實際運用上述任一課程涵蓋的技術。這堂課程結合了簡報、設計活動和實作研究室,可讓參加人員瞭解如何定義業務和技術需求,並在兩者之間取得平衡,設計出相當可靠、可用性高、安全又符合成本效益的 Google Cloud 部署項目。
完成 建立 Google Cloud 網路 課程即可獲得技能徽章。這個課程將說明 部署及監控應用程式的多種方法,包括查看 IAM 角色及新增/移除 專案存取權、建立虛擬私有雲網路、部署及監控 Compute Engine VM、編寫 SQL 查詢、在 Compute Engine 部署及監控 VM,以及 使用 Kubernetes 透過多種方法部署應用程式。
完成 透過 BigQuery 建構資料倉儲 技能徽章中階課程,即可證明您具備下列技能: 彙整資料以建立新資料表、排解彙整作業問題、利用聯集附加資料、建立依日期分區的資料表, 以及在 BigQuery 使用 JSON、陣列和結構體。 「技能徽章」是 Google Cloud 核發的獨家數位徽章, 用於肯定您在 Google Cloud 產品和服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境中應用相關 知識。完成技能徽章課程及結業評量挑戰研究室, 即可取得技能徽章並與他人分享。
本入門課程有別於其他課程。 透過這些實驗室,IT 專業人員將有機會實際練習, 熟悉出現在 Google Cloud 助理雲端工程師認證中的主題和服務。本課程包含多個專門的實驗室,從 IAM、網路建立 到 Kubernetes Engine 部署作業, 可全面驗收您的 Google Cloud 知識。請注意,雖然進行這些 實驗室可提升您的技能和能力,但仍建議同時詳閱 測驗指南和其他可用的準備資源。
這堂隨選密集課程會向參加人員說明 Google Cloud 提供的全方位彈性基礎架構和平台服務。這堂課結合了視訊講座、示範和實作研究室,可讓參加人員探索及部署解決方案元素,包括安全地建立互連網路、負載平衡、自動調度資源、基礎架構自動化,以及代管服務。
這堂隨選密集課程會向參加人員說明 Google Cloud 提供的全方位彈性基礎架構和平台服務,並將重點放在 Compute Engine。這堂課程結合了視訊講座、示範和實作研究室,可讓參加人員探索及部署解決方案元素,例如網路、系統和應用程式服務等基礎架構元件。另外,這堂課也會介紹如何部署實用的解決方案,包括客戶提供的加密金鑰、安全性和存取權管理機制、配額與帳單,以及資源監控功能。
這堂隨選密集課程會向參加人員說明 Google Cloud 提供的全方位彈性基礎架構和平台服務,尤其側重於 Compute Engine。這堂課程結合了視訊講座、示範和實作研究室,可讓參加人員探索及部署解決方案元素,例如網路、虛擬機器和應用程式服務等基礎架構元件。您會瞭解如何透過控制台和 Cloud Shell 使用 Google Cloud。另外,您也能瞭解雲端架構師的職責、基礎架構設計方法,以及具備虛擬私有雲 (VPC)、專案、網路、子網路、IP 位址、路徑和防火牆規則的虛擬網路設定。
This course helps you structure your preparation for the Associate Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.
完成使用 BigQuery ML 為預測模型進行資料工程技能徽章中階課程, 即可證明自己具備下列知識與技能:運用 Dataprep by Trifacta 建構連至 BigQuery 的資料轉換 pipeline; 使用 Cloud Storage、Dataflow 和 BigQuery 建構「擷取、轉換及載入」(ETL) 工作負載, 以及使用 BigQuery ML 建構機器學習模型。
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
完成 在 Google Cloud 為機器學習 API 準備資料 技能徽章入門課程,即可證明您具備下列技能: 使用 Dataprep by Trifacta 清理資料、在 Dataflow 執行資料管道、在 Dataproc 建立叢集和執行 Apache Spark 工作,以及呼叫機器學習 API,包含 Cloud Natural Language API、Google Cloud Speech-to-Text API 和 Video Intelligence API。
大數據、機器學習和人工智慧 (AI) 是時下熱門的 電腦相關話題,但這些領域相當專業,就算想要入門 也難以取得教材或資料。幸好,Google Cloud 提供了此領域的多種服務,而且容易使用。 參加這堂入門課程,您就能踏出第一步, 開始學習運用 BigQuery、Cloud Speech API 以及 Video Intelligence 等工具。
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
完成 在 Compute Engine 實作負載平衡功能 技能徽章入門課程,即可證明您具備下列技能: 編寫 gcloud 指令和使用 Cloud Shell、在 Compute Engine 建立及部署虛擬機器, 以及設定網路和 HTTP 負載平衡器。 「技能徽章」是 Google Cloud 核發的 獨家數位徽章,用於肯定您在 Google Cloud 產品與服務方面的精通程度, 代表您已通過測驗,能在互動式實作環境中應用相關 知識。完成這個課程及挑戰研究室 最終評量,即可取得技能徽章並與親友分享。
只要修完「在 Google Cloud 設定應用程式開發環境」課程,就能獲得技能徽章。 在本課程中,您將學會如何使用以下技術的基本功能,建構和連結以儲存空間為中心的雲端基礎架構:Cloud Storage、Identity and Access Management、Cloud Functions 和 Pub/Sub。
如果您是剛起步的雲端開發人員, 想在 Google Cloud Essentials 外獲得更多實作經驗,歡迎參加本課程。您將透過實作實驗室, 深入瞭解 Cloud Storage 和其他重要應用程式服務,例如: Monitoring 和 Cloud Functions。您將習得 在任何 Google Cloud 專案都適用的寶貴技能。
「Google Cloud 基礎知識:核心基礎架構」介紹了在使用 Google Cloud 時會遇到的重要概念和術語。本課程會透過影片和實作實驗室,介紹並比較 Google Cloud 的多種運算和儲存服務,同時提供重要的資源和政策管理工具。
In this introductory-level course, you get hands-on practice with the Google Cloud’s fundamental tools and services. Optional videos are provided to provide more context and review for the concepts covered in the labs. Google Cloud Essentials is a recommendeded first course for the Google Cloud learner - you can come in with little or no prior cloud knowledge, and come out with practical experience that you can apply to your first Google Cloud project. From writing Cloud Shell commands and deploying your first virtual machine, to running applications on Kubernetes Engine or with load balancing, Google Cloud Essentials is a prime introduction to the platform’s basic features.