加入 登录

在 Google Cloud 控制台中运用您的技能

Birga Woytowicz

成为会员时间:2023

青铜联赛

4530 积分
编码器-解码器架构 Earned Mar 24, 2024 EDT
注意力机制 Earned Mar 24, 2024 EDT
Google Cloud 上的 AI 和机器学习简介 Earned Feb 28, 2024 EST
图像生成简介 Earned Oct 23, 2023 EDT
Transformer 模型和 BERT 模型 Earned Oct 9, 2023 EDT
生成式 AI 简介 Earned Jun 10, 2023 EDT

本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。

了解详情

本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。

了解详情

本课程介绍 Google Cloud 中的 AI 和机器学习 (ML) 服务,这些服务可构建预测式和生成式 AI 项目。本课程探讨从数据到 AI 的整个生命周期中可用的技术、产品和工具,包括 AI 基础、开发和解决方案。通过引人入胜的学习体验和实操练习,本课程可帮助数据科学家、AI 开发者和机器学习工程师提升技能和知识水平。

了解详情

本课程向您介绍扩散模型。这类机器学习模型最近在图像生成领域展现出了巨大潜力。扩散模型的灵感来源于物理学,特别是热力学。过去几年内,扩散模型成为热门研究主题并在整个行业开始流行。Google Cloud 上许多先进的图像生成模型和工具都是以扩散模型为基础构建的。本课程向您介绍扩散模型背后的理论,以及如何在 Vertex AI 上训练和部署此类模型。

了解详情

本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。

了解详情

这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。

了解详情