参加 ログイン

Google Cloud コンソールでスキルを試す

Carton Laurence

メンバー加入日: 2023

ブロンズリーグ

18770 ポイント
Google Cloud での Kubernetes の管理 Earned 2月 5, 2025 EST
Google Cloud への CI/CD パイプラインの実装 Earned 1月 28, 2025 EST
Google Cloud の ML API 用にデータを準備 Earned 6月 4, 2024 EDT
データ サイエンティストとアナリスト向けの Gemini Earned 5月 24, 2024 EDT
Dataflow を使用したサーバーレスのデータ処理: 運用 Earned 10月 27, 2023 EDT
Dataflow を使用したサーバーレスのデータ処理: 基礎 Earned 10月 3, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - 日本語版 Earned 10月 2, 2023 EDT
Introduction to Vertex Forecasting and Time Series in Practice Earned 9月 29, 2023 EDT
Google Cloud でのバッチデータ パイプラインの構築 Earned 9月 29, 2023 EDT
Google Cloud における復元力のあるストリーミング分析システムの構築 Earned 9月 15, 2023 EDT
Google Cloud を使用したデータレイクとデータ ウェアハウスのモダナイゼーション Earned 8月 11, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - 日本語版 Earned 8月 4, 2023 EDT
Professional Data Engineer の取得に向けた準備 Earned 7月 20, 2023 EDT

Google Cloud での Kubernetes の管理」コースの中級スキルバッジを獲得できるアクティビティを修了すると、 kubectl を活用したデプロイの管理、 Google Kubernetes Engine(GKE)でのアプリケーションのモニタリングとデバッグ、継続的デリバリーの手法におけるスキルを実証できます。 スキルバッジは、 Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。 このスキルバッジ コースと最終評価チャレンジラボを完了し、 デジタルバッジを獲得してネットワークで共有しましょう。

詳細

Google Cloud への CI / CD パイプラインの実装」コースを修了して中級のスキルバッジを獲得しましょう。 Artifact Registry、Cloud Build、Cloud Deploy の使用方法を学習できます。Cloud コンソール、Google Cloud CLI、Cloud Run、GKE を使用します 。このコースでは、継続的インテグレーション(CI) パイプラインの構築、アーティファクトの保存と保護、脆弱性のスキャン、承認されたリリースの有効性の証明 の方法を説明します。さらに、アプリケーションを GKE と Cloud Run の両方にデプロイするという実践的な経験を積むことができます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、スキルバッジのハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。

詳細

「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 スキルバッジを獲得してネットワークで共有しましょう。

詳細

このコースでは、生成 AI を活用した Google Cloud のコラボレーターである Gemini が、顧客データの分析や商品売上の予測にどのように役立つかについて学びます。また、BigQuery で顧客データを使用して、新規顧客を特定、分類、発見する方法も学習します。ハンズオンラボでは、Gemini でデータ分析と ML のワークフローがどのように向上するかを体験します。 Duet AI は、次世代モデルである Gemini に名称変更されました。

詳細

Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。

詳細

このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。

詳細

ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。

詳細

This course is an introduction to building forecasting solutions with Google Cloud. You start with sequence models and time series foundations. You then walk through an end-to-end workflow: from data preparation to model development and deployment with Vertex AI. Finally, you learn the lessons and tips from a retail use case and apply the knowledge by building your own forecasting models.

詳細

通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。

詳細

ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。

詳細

すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。

詳細

このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。

詳細

このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。

詳細