Rilova Javier
メンバー加入日: 2022
ブロンズリーグ
1600 ポイント
メンバー加入日: 2022
Description: According to IDC, by 2026, 7 PB of data will be generated per second globally. But what you *do* with the data is what matters. Data is the heart of digital transformation and offers incredible opportunities for organizations to accelerate the most strategic business outcomes, like revenue and productivity. Want to grow your skills and take advantage of the opportunity? Play now to get hands-on experience with Google Cloud's powerful data tools. Each lab teaches and tests your growing tech skills, and sets you on the path to your first Google Cloud credential.
Complete the Analyze BigQuery Data in Connected Sheets skill badge to demonstrate that you can use Connected Sheets to access, analyze, visualize, and share billions of rows of BigQuery data from your Google Sheets spreadsheet.
Cloud Storage、Cloud Functions、Cloud Pub/Sub はいずれも データの保存、処理、管理に使用できる Google Cloud プラットフォーム サービスです。この 3 種の サービスを併用してさまざまなデータドリブン アプリケーションを作成できます。この スキルバッジでは、Cloud Storage を使用して画像を保存し、Cloud Functions を使用して 画像を処理し、Cloud Pub/Sub を使用して画像を別のアプリケーションに送信します。
More than 90% of IT leaders say they're looking to grow their cloud environments in the next several years, yet more than 80% of those same leaders identified a lack of skills as a barrier to growth. This means that tech skills (particularly cloud skills!) are in high demand. Want to grow your skills and take advantage of the opportunity? Play now to get hands-on experience with Google Cloud. Each lab teaches and tests your growing tech skills, and sets you on the path to your first Google Cloud credential. No experience required.
Complete the introductory Monitor and Manage Google Cloud Resources skill badge to demonstrate skills in the following: granting and revoking IAM permissions; installing monitoring and logging agents; creating, deploying, and testing an event-driven Cloud Run function.
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
Ready to start building your world - er - cloud infrastructure? With Terraform, you can manage infrastructure as code, saving time and ensuring consistency. In today’s game, you’ll use Terraform to build, change, provision, and destroy infrastructure in increasingly complex scenarios, and add a few new skills to your toolkit. Terraform init!
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
このコースシリーズの 3 番目のコースは、「Achieving Advanced Insights with BigQuery」です。ここでは、高度な関数と、複雑なクエリを管理可能なステップに分割する方法を学びながら、SQL に関する知識を深めます。 BigQuery の内部アーキテクチャ(列ベースのシャーディング ストレージ)についてや、ARRAY と STRUCT を使用した、ネストされたフィールドと繰り返しフィールドなどの高度な SQL トピックについて説明します。最後に、クエリのパフォーマンスを最適化する方法と、承認済みビューを使用してデータを保護する方法について説明します。 このコースを修了したら、「Applying Machine Learning to Your Data with Google」コースに登録してください。
このコースでは、データ アナリストが共通して直面する課題と、その課題を Google Cloud のビッグデータ ツールを使用して解決する方法を取り上げます。その過程で SQL を学習しながら、BigQuery と Dataprep を使用してデータセットを分析し、変換する方法について理解を深めます。 これは「From Data to Insights with Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Creating New BigQuery Datasets and Visualizing Insights」コースを受講してください。
これは「Data to Insights」コースシリーズの 2 つ目のコースです。ここでは、新しい外部データセットを BigQuery に取り込み、Looker Studio で可視化する方法について説明します。また、複数テーブルの JOIN と UNION など、中級者向けの SQL のコンセプトについても説明します。JOIN や UNION を使用すると、複数のデータソースのデータを分析できます。 注: すでに SQL に関する知識をお持ちの方も、BigQuery に固有の要素(クエリ キャッシュやテーブル ワイルドカードの処理など)について学ぶことができます。 このコースを修了したら、「Achieving Advanced Insights with BigQuery」コースに登録してください。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。