
始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
Create a lake, zone, and asset
/ 20
Query BigQuery table to review data quality
/ 20
Create and upload a data quality specification file
/ 20
Define and run a data quality job
/ 20
Review data quality results in BigQuery
/ 20
Dataplex Universal Catalog は、データレイク、データ ウェアハウス、データマートに分散したデータの一元的な検出、管理、モニタリング、統制を実現し、大規模な分析を支援するインテリジェントなデータ ファブリックです。
Dataplex Universal Catalog の有用な機能の一つは、BigQuery テーブルや Cloud Storage ファイルなどの Dataplex Universal Catalog アセットに対してデータ品質チェックを定義して実行できることです。Dataplex のデータ品質タスクを使用すると、データ プロダクション パイプラインの一部であるデータの検証、一連の基準に対するデータ品質の定期的なモニタリング、規制要件に対応するためのデータ品質レポートの作成によって、データ品質チェックを日常のワークフローに統合することができます。
このラボでは、カスタムのデータ品質仕様ファイルを作成し、それを使用して BigQuery データに対するデータ品質ジョブを定義および実行することにより、Dataplex Universal Catalog を使用してデータ品質を評価する方法を学習します。
こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。
このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。
ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
[ラボの詳細] ペインでもユーザー名を確認できます。
[次へ] をクリックします。
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
[ラボの詳細] ペインでもパスワードを確認できます。
[次へ] をクリックします。
その後次のように進みます。
その後、このタブで Google Cloud コンソールが開きます。
Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。
Google Cloud コンソールの上部にある「Cloud Shell をアクティブにする」アイコン をクリックします。
ウィンドウで次の操作を行います。
接続した時点で認証が完了しており、プロジェクトに各自の Project_ID、
gcloud
は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。
出力:
出力:
gcloud
ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。
Google Cloud コンソールの上部の検索バーに「Cloud Dataproc API」と入力します。
[マーケットプレイス] の下に表示された検索結果の Cloud Dataproc API をクリックします。
[有効にする] をクリックします。
データ品質タスクを定義して実行するには、まず Dataplex Universal Catalog リソースを作成する必要があります。
このタスクでは、e コマースの顧客情報を保存するための新しい Dataplex Universal Catalog レイクを作成し、そのレイクに未加工ゾーンを追加してから、事前に作成された BigQuery データセットをそのゾーン内の新しいアセットとしてアタッチします。
「新しい Dataplex Universal Catalog エクスペリエンスへようこそ
」というメッセージが表示されたら、[閉じる] をクリックします。
[レイクの管理] で [管理] をクリックします。
[レイクを作成] をクリックします。
必要な情報を入力して新しいレイクを作成します。
プロパティ | 値 |
---|---|
表示名 | Ecommerce Lake |
ID | デフォルト値のままにします。 |
リージョン |
上記以外はデフォルト値のままにします。
レイクが作成されるまで 3 分ほどかかる場合があります。
[管理] タブでレイクの名前をクリックします。
[+ ゾーンを追加] をクリックします。
必要な情報を入力して新しいゾーンを作成します。
プロパティ | 値 |
---|---|
表示名 | Customer Contact Raw Zone |
ID | デフォルト値のままにします。 |
種類 | 未加工ゾーン |
データのロケーション | リージョン |
上記以外はデフォルト値のままにします。
たとえば、[検出の設定] の下の [メタデータの検出を有効にする] はデフォルトで有効になっており、許可されたユーザーはこのゾーン内のデータを検出できます。
ゾーンが作成されるまで 2 分ほどかかる場合があります。
[ゾーン] タブでゾーンの名前をクリックします。
[アセット] タブで [+ アセットを追加] をクリックします。
[Add an asset] をクリックします。
必要な情報を入力して新しいアセットをアタッチします。
プロパティ | 値 |
---|---|
種類 | BigQuery データセット |
表示名 | Contact Info |
ID | デフォルト値のままにします。 |
データセット |
|
上記以外はデフォルト値のままにします。
[完了] をクリックします。
[続行] をクリックします。
[検出の設定] で [継承] を選択して、検出の設定をゾーンレベルから継承し、[続行] をクリックします。
[送信] をクリックします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
前のタスクで、このラボ用に事前に作成された customers という名前の BigQuery データセットから新しい Dataplex Universal Catalog アセットを作成しました。このデータセットには、contact_info という名前のテーブルがあり、架空の e コマース企業の顧客の未加工連絡先情報が含まれています。
このタスクでは、このテーブルに対してクエリを実行し、データ品質ジョブにチェックとして含めることができる潜在的なデータ品質の問題を特定します。また、後のタスクでデータ品質ジョブの結果を保存するために使用できる、別の事前作成データセットも特定します。
Google Cloud コンソールのナビゲーション メニュー()で、[BigQuery] に移動します。
[エクスプローラ] ペインで、プロジェクト ID の横にある矢印を開き、内容を表示します。
このゾーンを管理するために Dataplex Universal Catalog によって作成された customer_contact_raw_zone データセットに加えて、このラボ用に事前に作成された 2 つの BigQuery データセットがあります。
customers という名前のデータセットには、contact_info という名前のテーブルが 1 つあり、顧客の連絡先情報が含まれています(お客様 ID、名前、メールなど)。このラボ全体を通して、データ品質の問題についてはこのテーブルを確認します。
customers_dq_dataset という名前のデータセットにはテーブルは含まれていません。後のタスクでデータ品質ジョブを定義するときに、このデータセットを、データ品質ジョブの結果を含む新しいテーブルの宛先として使用します。
このクエリは、元のテーブルからレコードを 50 件選択し、結果のお客様 ID ごとにレコードを並べ替えます。
レコードの中には、お客様 ID がなかったり、メールが正しくないものがあり、顧客の注文を管理するのが難しくなる場合があるのでご注意ください。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
Dataplex のデータ品質チェック要件は、CloudDQ YAML 仕様ファイルを使用して定義されます。YAML 仕様ファイルは、作成後、データ品質ジョブがアクセス可能な Cloud Storage バケットにアップロードされます。
YAML ファイルには、次の 4 つの主要セクションがあります。
このタスクでは、指定した BigQuery テーブルで null であるお客様 ID とメールを特定するデータ品質チェック用の新しい YAML 仕様ファイルを定義します。ファイルを定義したら、後でデータ品質ジョブを実行するタスクで使用するために、事前に作成した Cloud Storage バケットにアップロードします。
dq-customer-raw-data.yaml
ファイルは、プロジェクト ID、リージョン、Dataplex Universal Catalog レイクとゾーンの名前など、Dataplex Universal Catalog リソースを特定するための主要なパラメータで始まります。
次に、許可されるルールのディメンションと 2 つの主要ルールを指定します。
最後に、データ品質検証用のルール バインディングを使用して、ルールがエンティティ(テーブル)と列にバインディングされます。
Ctrl+X
キーを押してから Y
キーを押し、ファイルを保存して閉じます。[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
データ品質プロセスは、データ品質仕様の YAML ファイルを使用してデータ品質ジョブを実行し、BigQuery データセットに書き込まれるデータ品質指標を生成します。
このタスクでは、前のタスクで Cloud Storage にアップロードしたデータ品質仕様の YAML ファイルを使用して、データ品質ジョブを定義して実行します。ジョブを定義するときに、customer_dq_dataset という名前の事前に作成された BigQuery データセットも指定して、データ品質の結果を保存します。
Google Cloud コンソールのナビゲーション メニュー()で [すべてのプロダクトを表示] > [分析] > [Dataplex Universal Catalog] の順に選択します。
[レイクの管理] で、[処理] をクリックします。
[+ タスクを作成] をクリックします。
[データ品質のチェック] で、[タスクを作成] をクリックします。
必要な情報を入力して新しいデータ品質ジョブを作成します。
プロパティ | 値 |
---|---|
Dataplex レイク | ecommerce-lake |
表示名 | Customer Data Quality Job |
ID | デフォルト値のままにします。 |
Select GCS file |
|
Select BigQuery dataset |
|
BigQuery テーブル | dq_results |
ユーザー サービス アカウント | Compute Engine default service account |
上記以外はデフォルト値のままにします。
Compute Engine のデフォルトのサービス アカウントは、適切な IAM のロールと権限を持つように、このラボ用に事前に設定されていることに注意してください。詳細については、Dataplex Universal Catalog のドキュメント サービス アカウントを作成するをご覧ください。
[続行] をクリックします。
[開始] で、[今すぐ] を選択します。
[作成] をクリックします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、customers_dq_dataset のテーブルを確認して、お客様 ID の値がないレコードや、メールの値が無効なレコードを特定します。
Google Cloud コンソールのナビゲーション メニュー()で、[BigQuery] に移動します。
[エクスプローラ] ペインで、プロジェクト ID の横にある矢印を開き、内容を表示します。
customer_dq_dataset データセットの横にある矢印を開きます。
dq_summary テーブルをクリックします。
[プレビュー] タブをクリックして結果を確認します。
dq summary テーブルは、データ品質仕様ファイルの 2 つのルールに準拠していないことが特定されたレコードの数など、全体的なデータ品質に関する有用な情報を提供します。
failed_records_query という名前の最後の列までスクロールします。
最初の行の下矢印をクリックしてテキストを開き、VALID_EMAIL ルールの結果のクエリ全体を表示します。
このクエリはとても長く、ORDER BY _dq_validation_rule_id
で終了していることに注意してください。
クエリの結果は、contact_info テーブルのメールの値が有効ではないことを示しています。
このクエリの結果は、contact_info テーブルに ID 値が欠落しているレコードが 10 件あることを示しています。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
カスタムのデータ品質仕様ファイルを作成し、それを使用して BigQuery テーブルに対してデータ品質ジョブを実行することで、Dataplex Universal Catalog を使用してデータ品質を評価しました。
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2025 年 6 月 4 日
ラボの最終テスト日: 2025 年 6 月 4 日
Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください