Subin Kim
成为会员时间:2022
成为会员时间:2022
Gemini for Google Workspace 是一个插件,用户可通过它来使用生成式 AI 功能。本课程通过视频课程、实操活动和实际示例,深入探讨了“Google 云端硬盘中的 Gemini”的功能。 学完本课程后,您将掌握相关知识和技能,能够自信地利用 Google 云端硬盘中的 Gemini 来改进工作流。
Google Workspace 专用 Gemini 是一个插件,可为用户提供对生成式 AI 功能的访问权限。本课程深入探讨了“Google Meet 中的 Gemini”的功能。通过视频课程、实操活动和实际示例,您将全面了解 Google Meet 中的 Gemini 功能。您将学习如何使用 Gemini 生成背景图片、提高视频质量以及翻译字幕。学完本课程后,您将掌握相关知识和技能,能够自信地利用 Google Meet 中的 Gemini 尽可能提高视频会议的效率。
Google Workspace 专用 Gemini 是一个插件,可在 Google Workspace 中为客户提供生成式 AI 功能。在本迷你课程中,您将了解 Gemini 的主要功能,以及如何在 Google 表格中使用它们来提高工作效率。
Google Workspace 专用 Gemini 是一个插件,可在 Google Workspace 中为客户提供生成式 AI 功能。在本迷你课程中,您将了解 Gemini 的主要功能,以及如何在 Google 幻灯片中使用它们来提高工作效率。
Google Workspace 专用 Gemini 是一个插件,用户可通过它来使用生成式 AI 功能。本课程通过视频课程、实操活动和实际示例,深入探讨了“Google 文档中的 Gemini”的功能。您将学习如何使用 Gemini 来根据提示生成书面内容。您还会探索如何使用 Gemini 来修改已撰写好的文本,帮助提升整体工作效率。学完本课程后,您将掌握相关知识和技能,能够自信地利用 Google 文档中的 Gemini 来提升写作水平。
Google Workspace 专用 Gemini 是一个插件,可在 Google Workspace 中为客户提供生成式 AI 功能。在本迷你课程中,您将了解 Gemini 的主要功能,以及如何在 Gmail 中使用这些功能来提高工作效率。
Google Workspace 专用 Gemini 是一个插件,可在 Google Workspace 中为客户提供生成式 AI 功能。在本学习路线中,您将了解 Gemini 的主要功能,以及如何在 Google Workspace 中使用它们来提高工作效率。
随着企业对人工智能和机器学习的应用越来越广泛,以负责任的方式构建这些技术也变得更加重要。但对很多企业而言,真正践行 Responsible AI 并非易事。如果您有意了解如何在组织内践行 Responsible AI,本课程正适合您。 本课程将介绍 Google Cloud 目前如何践行 Responsible AI,以及从中总结的最佳实践和经验教训,便于您以此为框架构建自己的 Responsible AI 方法。
本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。
本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。
本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。
本课程教您如何使用深度学习来创建图片标注模型。您将了解图片标注模型的不同组成部分,例如编码器和解码器,以及如何训练和评估模型。学完本课程,您将能够自行创建图片标注模型并用来生成图片说明。
本课程介绍 Vertex AI Studio,这是一种用于与生成式 AI 模型交互、围绕业务创意进行原型设计并在生产环境中落地的工具。通过沉浸式应用场景、富有吸引力的课程和实操实验,您将探索从提示到产品的整个生命周期,了解如何将 Vertex AI Studio 用于多模态 Gemini 应用、提示设计、提示工程和模型调优。本课程的目的在于帮助您利用 Vertex AI Studio,在自己的项目中充分发掘生成式 AI 的潜力。
本课程向您介绍扩散模型。这类机器学习模型最近在图像生成领域展现出了巨大潜力。扩散模型的灵感来源于物理学,特别是热力学。过去几年内,扩散模型成为热门研究主题并在整个行业开始流行。Google Cloud 上许多先进的图像生成模型和工具都是以扩散模型为基础构建的。本课程向您介绍扩散模型背后的理论,以及如何在 Vertex AI 上训练和部署此类模型。
完成 Introduction to Generative AI、Introduction to Large Language Models 和 Introduction to Responsible AI 三门课程,赢取技能徽章。通过最终测验,即表明您理解了生成式 AI 的基本概念。 技能徽章是由 Google Cloud 颁发的数字徽章,旨在认可您对 Google Cloud 产品与服务的了解程度。公开您的个人资料并将技能徽章添加到您的社交媒体个人资料中,以此来分享您获得的成就。
这是一节入门级微课程,旨在解释什么是负责任的 AI、它的重要性,以及 Google 如何在自己的产品中实现负责任的 AI。此外,本课程还介绍了 Google 的 7 个 AI 开发原则。
这是一节入门级微学习课程,探讨什么是大型语言模型 (LLM)、适合的应用场景以及如何使用提示调整来提升 LLM 性能,还介绍了可以帮助您开发自己的 Gen AI 应用的各种 Google 工具。
这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。
Kubernetes 是最受欢迎的容器编排系统, Google Kubernetes Engine 专为支持 Google Cloud 中的托管式 Kubernetes 部署 而设计。在本高级课程中,您将亲自动手配置 Docker 映像、容器,并部署功能完备的 Kubernetes Engine 应用。 此课程将帮助您掌握在工作流中集成容器编排所需的 实用技能。 想要参加实操实验室挑战赛, 展示您的技能并检验所学知识?完成本课程后,不妨继续参与这项额外的 实验室挑战赛,赢得 Google Cloud 专属数字徽章。 该挑战赛位于在 Google Cloud 上部署 Kubernetes 应用课程的结尾处。
本课程指导学员运用久经考验的设计模式在 Google Cloud 上构建高度可靠且高效的解决方案。它是“Google Compute Engine 架构设计”或“Google Kubernetes Engine 架构设计”课程的延续,并假定您有使用其中任何一门课程所涵盖技术的实践经验。通过一系列演示、设计活动和动手实验,学员可以了解如何定义及平衡业务要求和技术要求,以便设计可靠性和可用性高、安全且经济实惠的 Google Cloud 部署。
完成开发 Google Cloud 网络课程,赢取技能徽章。在此课程中,您将学习 部署和监控应用的多种方法,包括执行以下任务的方法:探索 IAM 角色并添加/移除 项目访问权限、创建 VPC 网络、部署和监控 Compute Engine 虚拟机、 编写 SQL 查询、在 Compute Engine 中部署和监控虚拟机,以及使用 Kubernetes 通过多种部署方法部署应用。
完成中级技能徽章课程使用 BigQuery 构建数据仓库,展示以下技能: 联接数据以创建新表、排查联接故障、使用并集附加数据、创建日期分区表, 以及在 BigQuery 中使用 JSON、数组和结构体。 技能徽章是 Google Cloud 颁发的专属数字徽章, 旨在认可您在 Google Cloud 产品与服务方面的熟练度; 您需要在交互式实操环境中参加考核,证明自己运用所学知识的能力后 才能获得。完成此技能徽章课程和作为最终评估的实验室挑战赛, 获得数字徽章,在您的人际圈中炫出自己的技能。
在众多课程中,本入门课程独具特色。 这些实验经过精心设计,旨在让 IT 专业人员通过实践掌握 Google Cloud 认证 Associate Cloud Engineer 考核中的各项主题和服务内容。从 IAM 到网络组建和管理, 再到 Kubernetes Engine 部署,本课程将通过特定实验 检验您的 Google Cloud 知识掌握情况。请注意,虽然这些实操 实验有助于提升您的技能和能力,我们仍建议您同时查阅 考试指南和其他可用的备考资源。
这是一套自助式速成课程,向学员介绍 Google Cloud 提供的灵活全面的基础架构和平台服务。学员将通过一系列视频讲座、演示和实操实验,探索和部署各种解决方案元素,包括安全互连网络、负载均衡、自动扩缩、基础架构自动化和代管式服务。
这门自助式速成课程向学员介绍 Google Cloud 提供的灵活全面的基础架构和平台服务,着重介绍了 Compute Engine。学员将通过一系列视频讲座、演示和动手实验,探索和部署各种解决方案元素,包括网络、系统和应用服务等基础架构组件。本课程的内容还包括如何部署实用的解决方案,包括客户提供的加密密钥、安全和访问权限管理、配额和结算,以及资源监控。
这门自助式速成课程向学员介绍 Google Cloud 提供的灵活全面的基础架构和平台服务,其中着重介绍了 Compute Engine。学员将通过一系列视频讲座、演示和动手实验,探索和部署各种解决方案元素,包括网络、虚拟机和应用服务等基础架构组件。您将学习如何通过控制台和 Cloud Shell 使用 Google Cloud。您还将了解云架构师角色、基础架构设计方法以及虚拟网络配置和虚拟私有云 (VPC)、项目、网络、子网、IP 地址、路由及防火墙规则。
This course helps you structure your preparation for the Associate Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.
完成中级技能徽章课程利用 BigQuery ML 构建预测模型时的数据工程处理, 展示自己在以下方面的技能:利用 Dataprep by Trifacta 构建 BigQuery 数据转换流水线; 利用 Cloud Storage、Dataflow 和 BigQuery 构建提取、转换和加载 (ETL) 工作流; 以及利用 BigQuery ML 构建机器学习模型。
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
完成入门级技能徽章课程在 Google Cloud 上为机器学习 API 准备数据,展示以下技能: 使用 Dataprep by Trifacta 清理数据、在 Dataflow 中运行数据流水线、在 Dataproc 中创建集群和运行 Apache Spark 作业,以及调用机器学习 API,包括 Cloud Natural Language API、Google Cloud Speech-to-Text API 和 Video Intelligence API。
大数据、机器学习和人工智能是当今计算领域的热门话题, 但这些领域的专业性很强,因而很难找到 入门资料。幸运的是,Google Cloud 在这些领域提供了方便用户使用的服务, 通过本入门级课程,您可以 开始学习使用 BigQuery、Cloud Speech API 和 Video Intelligence 等工具。
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
完成入门级在 Compute Engine 上实现负载均衡技能徽章课程,展示自己在以下方面的技能: 编写 gcloud 命令和使用 Cloud Shell,在 Compute Engine 中创建和部署虚拟机, 以及配置网络和 HTTP 负载均衡器。 技能徽章是由 Google Cloud 颁发的专属数字徽章, 旨在认可您在 Google Cloud 产品与服务方面的熟练度; 该课程会检验您在交互式实操环境中运用所学知识的 能力。完成此技能徽章课程和作为最终评估的实验室挑战赛, 即可获得技能徽章,并在您的圈子中秀一秀。
完成“在 Google Cloud 上设置应用开发环境”课程,赢取技能徽章;通过该课程,您将了解如何使用以下技术的基本功能来构建和连接以存储为中心的云基础设施: Cloud Storage、Identity and Access Management、Cloud Functions 和 Pub/Sub。
如果您是一位入门级云开发者, 在学习了“Google Cloud 基础知识”课程之后,想要寻求真正的实操机会,这门课程就是您的不二之选。您将获得宝贵的实操经验, 通过多个实验深入探索 Cloud Storage 以及 Monitoring 和 Cloud Functions 等其他关键应用服务。您将掌握一系列宝贵技能, 在 Google Cloud 的任何计划中,这些技能都能发挥作用。
“Google Cloud 基础知识:核心基础设施”介绍在使用 Google Cloud 时会遇到的重要概念和术语。本课程通过视频和实操实验来介绍并比较 Google Cloud 的多种计算和存储服务,并提供重要的资源和政策管理工具。
在此入门级挑战任务中,您可以使用 Google Cloud Platform 的基本工具和服务,开展真枪实弹的操作实训。“GCP 基本功能”是我们为 Google Cloud 学员推荐的第一项挑战任务。云知识储备微乎其微甚至零基础?不用担心!这项挑战任务会为您提供真枪实弹的实操经验,助您快速上手 GCP 项目。无论是要编写 Cloud Shell 命令还是部署您的第一台虚拟机,亦或是通过负载平衡机制或在 Kubernetes Engine 上运行应用,都可以通过“GCP 基本功能”了解该平台的基本功能之精要。点此观看 1 分钟视频,了解每个实验涉及的主要概念。