
准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Disable and re-enable the Dataflow API
/ 10
Create a Cloud Storage Bucket
/ 10
Copy Files to Your Bucket
/ 10
Create the BigQuery Dataset (name: lake)
/ 20
Build a Data Ingestion Dataflow Pipeline
/ 10
Build a Data Transformation Dataflow Pipeline
/ 10
Build a Data Enrichment Dataflow Pipeline
/ 10
Build a Data lake to Mart Dataflow Pipeline
/ 20
Dataflow 是一项 Google Cloud 服务,支持大规模的统一流式数据处理和批量数据处理操作。它基于 Apache Beam 项目构建,该项目是一种开源模型,用于定义批量数据和流式数据并行处理流水线。借助其中一个开源 Apache Beam SDK,您可以构建一个程序来定义流水线,然后使用 Dataflow 执行该流水线。
在本实验中,您将使用 Python 版 Apache Beam SDK 在 Dataflow 中构建和运行流水线,将 Cloud Storage 中的数据注入 BigQuery,然后在 BigQuery 中转换和丰富数据。
在本实验中,您将学习如何完成以下操作:
请阅读以下说明。实验是计时的,并且您无法暂停实验。计时器在您点击开始实验后即开始计时,显示 Google Cloud 资源可供您使用多长时间。
此实操实验可让您在真实的云环境中开展实验活动,免受模拟或演示环境的局限。为此,我们会向您提供新的临时凭据,您可以在该实验的规定时间内通过此凭据登录和访问 Google Cloud。
为完成此实验,您需要:
点击开始实验按钮。如果该实验需要付费,系统会打开一个对话框供您选择支付方式。左侧是“实验详细信息”窗格,其中包含以下各项:
点击打开 Google Cloud 控制台(如果您使用的是 Chrome 浏览器,请右键点击并选择在无痕式窗口中打开链接)。
该实验会启动资源并打开另一个标签页,显示“登录”页面。
提示:将这些标签页安排在不同的窗口中,并排显示。
如有必要,请复制下方的用户名,然后将其粘贴到登录对话框中。
您也可以在“实验详细信息”窗格中找到“用户名”。
点击下一步。
复制下面的密码,然后将其粘贴到欢迎对话框中。
您也可以在“实验详细信息”窗格中找到“密码”。
点击下一步。
继续在后续页面中点击以完成相应操作:
片刻之后,系统会在此标签页中打开 Google Cloud 控制台。
Cloud Shell 是一种装有开发者工具的虚拟机。它提供了一个永久性的 5GB 主目录,并且在 Google Cloud 上运行。Cloud Shell 提供可用于访问您的 Google Cloud 资源的命令行工具。
点击 Google Cloud 控制台顶部的激活 Cloud Shell 。
在弹出的窗口中执行以下操作:
如果您连接成功,即表示您已通过身份验证,且项目 ID 会被设为您的 Project_ID
gcloud
是 Google Cloud 的命令行工具。它已预先安装在 Cloud Shell 上,且支持 Tab 自动补全功能。
输出:
输出:
gcloud
的完整文档,请参阅 gcloud CLI 概览指南。
为了确保能访问这个必要的 API,请重新启动与 Dataflow API 的连接。
在 Google Cloud 控制台标题栏的搜索字段中输入 Dataflow API,然后点击搜索结果中的 Dataflow API。
点击管理。
点击停用 API。
如果系统要求您确认,请点击停用。
重新启用该 API 后,页面会显示停用选项。
点击检查我的进度以验证您已完成的任务。
下载要在本实验中使用的 Dataflow Python 示例。
在 Cloud Shell 中创建一个 Cloud Storage 存储桶,然后将文件复制到该存储桶。这些文件是 Dataflow Python 示例。
点击检查我的进度以验证您已完成的任务。
gsutil
命令将文件复制到刚才创建的 Cloud Storage 存储桶中:点击检查我的进度以验证您已完成的任务。
创建一个 BigQuery 数据集。您的表将加载到 BigQuery 中的这个数据集中。
在 Cloud Shell 中,创建名为 lake
的数据集:
点击检查我的进度以验证您已完成的任务。
在此任务中,您将查看流水线代码,了解其工作原理。然后,您将设置并运行流水线。
数据注入流水线使用 TextIO 作为来源、BigQueryIO 作为目的地,将 Cloud Storage 中的数据注入到 BigQuery 表中。具体而言,该流水线将执行以下操作:
使用 Cloud Shell 代码编辑器查看流水线代码。
在 Cloud Shell 菜单栏中点击打开编辑器。
前往 dataflow_python_examples
> dataflow_python_examples
,然后打开 data_ingestion.py
文件。
查看文件中的注释,这些注释解释了代码的作用。
这些代码会使用 Cloud Storage 中的数据文件填充 BigQuery 表。
在本实验中,Dataflow 作业需要使用 Python3.8
。为确保您使用的是正确的版本,请在 Python 3.8 Docker 容器中运行 Dataflow 进程。
此命令会拉取包含 Python 3.8 最新稳定版的 Docker 容器,并执行一个命令 shell,以便在容器内运行后续命令。-v
标志会将源代码作为容器的一个卷
提供,这样,我们在 Cloud Shell 编辑器中修改源代码的同时,仍能在运行的容器中访问源代码。
apache-beam
安装在运行的容器中:这些代码会启动所需的工作器,并在流水线完成后将它们关闭。
Dataflow 页面打开后,查看作业的状态。
作业状态显示为成功后,您便可执行下一步。此注入流水线从启动、完成工作到关闭,大约需要五分钟时间。
前往 BigQuery(导航菜单 > BigQuery),确认是否已填充数据。
点击项目名称,查看 lake
数据集下的 usa_names 表。
usa_names
数据的示例。usa_names
表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。
点击检查我的进度以验证您已完成的任务。
在此任务中,您将查看数据转换流水线,了解其工作原理。然后,您将运行该流水线来处理 Cloud Storage 文件,并将结果输出到 BigQuery。
数据转换流水线还将使用 TextIO 作为来源、BigQueryIO 作为目的地,将 Cloud Storage 中的数据注入 BigQuery 表中,但会进行额外的数据转换。具体而言,该流水线将执行以下操作:
data_transformation.py
。查看文件中的注释,这些注释解释了代码的作用。
在 Google Cloud 控制台标题栏的搜索字段中输入 Dataflow,然后点击搜索结果中的 Dataflow。
点击此作业名称可查看作业状态。
此 Dataflow 流水线从启动、完成工作到关闭,大约需要五分钟时间。
您应该可在 lake
数据集下看到 usa_names_transformed 表。
usa_names_transformed
数据的示例。usa_names_transformed
表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。
点击检查我的进度以验证您已完成的任务。
现在,您将构建一个数据丰富化流水线,以实现以下目标:
在代码编辑器中,打开 data_enrichment.py
。
查看注释,这些注释解释了代码的作用。此代码会在 BigQuery 中填充数据。
第 83 行现如下所示:
此 Dataflow 流水线从启动、完成工作到关闭,大约需要五分钟时间。
您应该可在 lake
数据集下看到 usa_names_enriched 表。
usa_names_enriched
数据的示例。usa_names_enriched
表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。
点击检查我的进度以验证您已完成的任务。
接下来,您需要构建一条 Dataflow 流水线,从两个 BigQuery 数据源读取数据,然后联接这两个数据源。具体操作如下:
您首先要查看 data_lake_to_mart.py
代码,了解其作用。然后,您将在云端运行该流水线。
data_lake_to_mart.py
文件。查看文件中的注释,这些注释解释了代码的作用。此代码会联接两个表,并将结果写入 BigQuery 中的新表。
在 Google Cloud 控制台标题栏的搜索字段中输入 Dataflow,然后点击搜索结果中的 Dataflow。
点击此新作业以查看作业状态。
此 Dataflow 流水线从启动、完成工作到关闭,大约需要五分钟时间。
您应该可在 lake
数据集下看到 orders_denormalized_sideinput 表。
orders_denormalized_sideinput
数据的示例。orders_denormalized_sideinput
表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。
点击检查我的进度以验证您已完成的任务。
下面有一道选择题可强化您对此实验所涉概念的理解。请尽您所能回答。
您使用 Dataflow 执行了 Python 代码,将 Cloud Storage 中的数据注入 BigQuery,然后在 BigQuery 中转换并丰富了数据。
想要查找更多参考信息?请点击以下链接查看官方文档:
…可帮助您充分利用 Google Cloud 技术。我们的课程会讲解各项技能与最佳实践,可帮助您迅速上手使用并继续学习更深入的知识。我们提供从基础到高级的全方位培训,并有点播、直播和虚拟三种方式选择,让您可以按照自己的日程安排学习时间。各项认证可以帮助您核实并证明您在 Google Cloud 技术方面的技能与专业知识。
上次更新手册的时间:2025 年 4 月 1 日
上次测试实验的时间:2025 年 4 月 1 日
版权所有 2025 Google LLC 保留所有权利。Google 和 Google 徽标是 Google LLC 的商标。其他所有公司名和产品名可能是其各自相关公司的商标。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验