読み込んでいます...
一致する結果は見つかりませんでした。
LinkedIn フィードで共有 Twitter Facebook

Google Cloud コンソールでスキルを試す

Data Engineer Learning Path

school 13 件のアクティビティ
update 最終更新: 4日
person Google Cloud が管理しています
説明: データ エンジニアは、ビジネス上の意思決定に使用されるデータを収集して変換するシステムを設計、構築します。この学習プログラムでは、データ エンジニアの役割に不可欠な Google Cloud テクノロジーを使用した実世界の実践的な体験を提供する一連のオンデマンド コース、ラボ、スキルバッジをご案内します。学習プログラムを修了したら、Google Cloud Data Engineer 認定資格をチェックして専門性をさらに高めましょう。
学習プログラムを開始
Google Cloud のハンズオンラボの概要 のアクティビティ サムネイル
01 Google Cloud のハンズオンラボの概要
book ラボ
access_time 45分
show_chart 入門

初回のこのハンズオンラボでは、Google Cloud コンソールにアクセスし、Google Cloud の基本機能(プロジェクト、リソース、IAM ユーザー、ロール、権限、API)を使用します。

ラボを開始
Preparing for Your Professional Data Engineer Journey - 日本語版 のアクティビティ サムネイル
02 Preparing for Your Professional Data Engineer Journey - 日本語版
book コース
access_time 5時間
show_chart 中級

このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。

コースを開始
Data Engineering on Google Cloud の概要 のアクティビティ サムネイル
03 Data Engineering on Google Cloud の概要
book コース
access_time 9時間 30分
show_chart 入門

このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。

コースを開始
Modernizing Data Lakes and Data Warehouses with Google Cloud - 日本語版 のアクティビティ サムネイル
04 Modernizing Data Lakes and Data Warehouses with Google Cloud - 日本語版
book コース
access_time 8時間
show_chart 中級

すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Building Batch Data Pipelines on Google Cloud」コースに登録してください。

コースを開始
Building Batch Data Pipelines on Google Cloud - 日本語版 のアクティビティ サムネイル
05 Building Batch Data Pipelines on Google Cloud - 日本語版
book コース
access_time 13時間
show_chart 中級

通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。

コースを開始
Building Resilient Streaming Analytics Systems on Google Cloud - 日本語版 のアクティビティ サムネイル
06 Building Resilient Streaming Analytics Systems on Google Cloud - 日本語版
book コース
access_time 12時間 15分
show_chart 中級

ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。

コースを開始
Serverless Data Processing with Dataflow: Foundations - 日本語版 のアクティビティ サムネイル
07 Serverless Data Processing with Dataflow: Foundations - 日本語版
book コース
access_time 8時間
show_chart 入門

このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。

コースを開始
Dataflow を使用したサーバーレスのデータ処理: パイプラインの開発 のアクティビティ サムネイル
08 Dataflow を使用したサーバーレスのデータ処理: パイプラインの開発
book コース
access_time 21時間
show_chart 上級

Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。

コースを開始
Dataflow を使用したサーバーレスのデータ処理: 運用 のアクティビティ サムネイル
09 Dataflow を使用したサーバーレスのデータ処理: 運用
book コース
access_time 8時間
show_chart 中級

Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。

コースを開始
BigQuery でデータ ウェアハウスを構築する のアクティビティ サムネイル
10 BigQuery でデータ ウェアハウスを構築する
book コース
access_time 5時間 15分
show_chart 中級

「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。

コースを開始
Dataplex を使用したデータメッシュの構築 のアクティビティ サムネイル
11 Dataplex を使用したデータメッシュの構築
book コース
access_time 5時間 30分
show_chart 入門

「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジ コースと 最終評価チャレンジラボを修了して、デジタルバッジを獲得し、 ネットワークで共有しましょう。

コースを開始
Gemini in BigQuery で生産性を高める のアクティビティ サムネイル
12 Gemini in BigQuery で生産性を高める
book コース
access_time 4時間
show_chart 入門

このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。

コースを開始
BigQuery で Gemini モデルを操作する のアクティビティ サムネイル
13 BigQuery で Gemini モデルを操作する
book コース
access_time 3時間
show_chart 中級

このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。

コースを開始