加入 登录

在 Google Cloud 控制台中运用您的技能

Sayak Chakrabarty

成为会员时间:2024

黄金联赛

7315 积分
Vertex AI Studio 简介 Earned Mar 28, 2024 EDT
注意力机制 Earned Mar 28, 2024 EDT
负责任的 AI 简介 Earned Mar 27, 2024 EDT
Responsible AI: 和 Google Cloud 一起践行 AI 原则 Earned Mar 27, 2024 EDT
Transformer 模型和 BERT 模型 Earned Mar 19, 2024 EDT
编码器-解码器架构 Earned Mar 19, 2024 EDT
生成式 AI 简介 Earned Mar 19, 2024 EDT
大型语言模型简介 Earned Mar 19, 2024 EDT

本课程介绍 Vertex AI Studio,这是一种用于与生成式 AI 模型交互、围绕业务创意进行原型设计并在生产环境中落地的工具。通过沉浸式应用场景、富有吸引力的课程和实操实验,您将探索从提示到产品的整个生命周期,了解如何将 Vertex AI Studio 用于多模态 Gemini 应用、提示设计、提示工程和模型调优。本课程的目的在于帮助您利用 Vertex AI Studio,在自己的项目中充分发掘生成式 AI 的潜力。

了解详情

本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。

了解详情

这是一节入门级微课程,旨在解释什么是负责任的 AI、它的重要性,以及 Google 如何在自己的产品中实现负责任的 AI。此外,本课程还介绍了 Google 的 7 个 AI 开发原则。

了解详情

随着企业对人工智能和机器学习的应用越来越广泛,以负责任的方式构建这些技术也变得更加重要。但对很多企业而言,真正践行 Responsible AI 并非易事。如果您有意了解如何在组织内践行 Responsible AI,本课程正适合您。 本课程将介绍 Google Cloud 目前如何践行 Responsible AI,以及从中总结的最佳实践和经验教训,便于您以此为框架构建自己的 Responsible AI 方法。

了解详情

本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。

了解详情

本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。

了解详情

这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。

了解详情

这是一节入门级微学习课程,探讨什么是大型语言模型 (LLM)、适合的应用场景以及如何使用提示调整来提升 LLM 性能,还介绍了可以帮助您开发自己的 Gen AI 应用的各种 Google 工具。

了解详情