Muwanguzi Jonathan
メンバー加入日: 2023
ダイヤモンド リーグ
46810 ポイント
メンバー加入日: 2023
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。 受講者は、SDK レイヤで Vertex AI Feature Store のストリーミング取り込みを使用する実践的な演習を受けられます。
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。機械学習エンジニアリングの担当者は、ツールを活用して、デプロイしたモデルの継続的な改善と評価を行います。また、データ サイエンティストと協力して、あるいは自らがデータ サイエンティストとして、最も効果的なモデルを迅速かつ正確にデプロイできるようモデルを開発します。
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
このコースでは、ML ワークフローに対する実践的なアプローチを取り上げます。具体的には、いくつかの ML のビジネス要件とユースケースに取り組む ML チームをケーススタディ形式で紹介します。このチームは、データ マネジメントとガバナンスに必要なツールを理解し、データの前処理に最適なアプローチを検討する必要があります。 2 つのユースケースに対して ML モデルを構築するための 3 つのオプションがチームに提示されます。このコースでは、チームの目標を達成するために、AutoML、BigQuery ML、カスタム トレーニングを使用する理由について説明します。
このコースでは、Vertex AI Feature Store を使用するメリット、ML モデルの精度を向上させる方法、最も有効な特徴を抽出できるデータ列の見極め方について説明します。また、BigQuery ML、Keras、TensorFlow を使用した特徴量エンジニアリングに関するコンテンツとラボも用意されています。
このコースでは、TensorFlow と Keras を使用した ML モデルの構築、ML モデルの精度の向上、スケーリングに対応した ML モデルの作成について取り上げます。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
このコースでは、予測 AI と生成 AI の両方のプロジェクトを構築できる、Google Cloud の AI および機械学習(ML)サービスについて紹介します。AI の基盤、開発、ソリューションを含むデータから AI へのライフサイクル全体で利用可能なテクノロジー、プロダクト、ツールについて説明するとともに、魅力的な学習体験と実践的なハンズオン演習を通じて、データ サイエンティスト、AI 開発者、ML エンジニアの方々がスキルや知識を強化できるようサポートすることを目指しています。
「Generative AI Explorer - Vertex AI」コースには、 Google Cloud での生成 AI の使用方法に関する複数のラボが含まれます。ラボでは、Vertex AI PaLM API ファミリーの text-bison、chat-bison、 textembedding-gecko などのモデルの使用方法を確認し、プロンプト設計やベスト プラクティス、さらに Vertex AI を活用した アイディエーション、テキスト分類、テキスト抽出、テキスト要約について 学びます。また、 Vertex AI カスタム トレーニングによって基盤モデルをチューニングし、Vertex AI エンドポイントにデプロイする方法も学びます。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
「BigQuery ML を使用した ML モデルの作成」コースの中級スキルバッジを獲得できるアクティビティを修了すると、 BigQuery ML を使用して ML モデルを作成および評価し、データを予測するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを修了し、スキルバッジを獲得して ネットワークで共有しましょう。
このコースでは、Professional Cloud Engineer 認定試験の合格を目指す方が受験の準備を進めることができます。試験範囲に含まれる Google Cloud 分野の概要と、分野に関する知識を高めるための学習計画の作成方法について学習します。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。スキルバッジ コースと 最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 スキルバッジを獲得してネットワークで共有しましょう。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。