
始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
このラボでは、画像分類データセットの作成、画像のインポート、AutoML 画像分類モデルのトレーニング、エンドポイントへのモデルのデプロイ、予測の送信を行います。
各ラボでは、新しい Google Cloud プロジェクトとリソースセットを一定時間無料で利用できます。
Qwiklabs にシークレット ウィンドウでログインします。
ラボのアクセス時間(例: 1:15:00
)に注意し、時間内に完了できるようにしてください。
一時停止機能はありません。必要な場合はやり直せますが、最初からになります。
準備ができたら、[ラボを開始] をクリックします。
ラボの認証情報(ユーザー名とパスワード)をメモしておきます。この情報は、Google Cloud Console にログインする際に使用します。
[Google Console を開く] をクリックします。
[別のアカウントを使用] をクリックし、このラボの認証情報をコピーしてプロンプトに貼り付けます。
他の認証情報を使用すると、エラーが発生したり、料金の請求が発生したりします。
利用規約に同意し、再設定用のリソースページをスキップします。
このラボでは、Google Cloud で利用できる最新の AI プロダクトを使用します。Vertex AI は Google Cloud 全体の ML サービスを統合してシームレスな開発エクスペリエンスを提供します。以前は、AutoML でトレーニングしたモデルやカスタムモデルにそれぞれ個別のサービスを介してアクセスする必要がありましたが、Vertex AI は、これらの個別のサービスを他の新しいプロダクトとともに 1 つの API にまとめます。既存のプロジェクトを Vertex AI に移行することもできます。ご意見やご質問がありましたら、サポートページからお寄せください。
Vertex AI には、エンドツーエンドの ML ワークフローをサポートするさまざまなプロダクトが含まれています。このラボでは、以下でハイライト表示されたプロダクト(トレーニング / ハイパーパラメータ チューニング、Notebooks)を取り上げます。
このチュートリアルで使用する画像ファイルは、こちらの Tensorflow のブログ投稿で使用されている花のデータセットからのものです。これらの入力画像は Cloud Storage の公開バケットに保存されており、ここにはデータのインポートに使用する CSV ファイルも置かれています。このファイルには 2 つの列があり、最初の列には Cloud Storage 内の画像の URI、2 番目の列には画像のラベルが入ります。行の例をいくつか示します。
gs://cloud-training/mlongcp/v3.0_MLonGC/toy_data/flowers_toy.csv
:
[Vertex AI] ページのナビゲーション パネルで [ダッシュボード] をクリックして、データセットの作成と画像分類モデルのトレーニングを開始します。
中央のペインで、[データの準備] の [データセットを作成] をクリックします。
(任意)このデータセットの名前を指定します。
[データタイプと目標の選択] の [画像] タブで、[単一ラベル分類] を選択します。
[リージョン] で [
[作成] をクリックすると、空のデータセットが作成されます。
[インポート] ページが開きます。
[インポート ファイルを Cloud Storage から選択] を選択し、画像の場所とラベルデータが記述された CSV ファイルの Cloud Storage URI を指定します。
CSV ファイル の URI は gs://cloud-training/mlongcp/v3.0_MLonGC/toy_data/flowers_toy.csv です。
[インポート ファイルのパス] に cloud-training/mlongcp/v3.0_MLonGC/toy_data/flowers_toy.csv
と入力します。
画像のインポートを開始するには、[続行] をクリックします。
インポートには約 15 分かかります。完了すると、次のページに、データセットで識別されたすべての画像(ラベル付き / ラベルなしの画像)が表示されます。
Google Cloud コンソールを使用して AutoML 画像分類モデルをトレーニングします。データセットを作成してデータをインポートしたら、Cloud コンソールを使用してトレーニング画像を確認し、モデルのトレーニングを開始します。
データセットがインポートされると、[参照] タブが開きます。このタブには、サイドメニューから [データセット] を選択し、新しいデータセットに関連付けられたアノテーション セット(単一ラベルの画像アノテーションのセット)を選択してアクセスすることもできます。
[参照] タブで [新しいモデルのトレーニング] を選択して、トレーニングを開始します。
トレーニングの所要時間は約 2 時間です。モデルのトレーニングが完了すると、緑色のチェックマークのステータス アイコンが表示されます。
AutoML 画像分類モデルのトレーニングが完了したら、Google Cloud コンソールでエンドポイントを作成してモデルをデプロイします。デプロイが完了したら、ラベル予測のためにモデルに画像を送信します。
[モデル] ページから、新規または既存のエンドポイントにデプロイするトレーニング済みモデルにアクセスします。
[Vertex AI] ページのナビゲーション パネルで [Model Registry] をクリックします。
トレーニング済みの AutoML モデルを選択してバージョン ID をクリックします。
[評価] タブが表示されます。このタブでは、モデルのパフォーマンス指標を確認できます。
[デプロイとテスト] タブで、[エンドポイントにデプロイ] をクリックします。
[エンドポイント オプション] ページが開きます。
[エンドポイントの定義] で、[新しいエンドポイントを作成する] を選択し、[エンドポイント名] に「hello_automl_image」と入力します。
[続行] をクリックします。
[モデル設定] で、[トラフィック分割] を 100% にして、[コンピューティング ノードの数] を 1 に設定します。
[デプロイ] をクリックします。
エンドポイントが作成され、AutoML モデルが新しいエンドポイントにデプロイされるまで 20 分
程度かかります。
エンドポイントの作成プロセスが完了したら、Cloud コンソールで 1 枚の画像のアノテーション(予測)リクエストを送信します。
ラボでの学習が完了したら、[ラボを終了] をクリックします。ラボで使用したリソースが Qwiklabs から削除され、アカウントの情報も消去されます。
ラボの評価を求めるダイアログが表示されたら、星の数を選択してコメントを入力し、[送信] をクリックします。
星の数は、それぞれ次の評価を表します。
フィードバックを送信しない場合は、ダイアログ ボックスを閉じてください。
フィードバック、ご提案、修正が必要な箇所については、[サポート] タブからお知らせください。
Copyright 2020 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください