arrow_back

AIプラットホームでの TensorFlow による赤ちゃんの体重予測

参加 ログイン

AIプラットホームでの TensorFlow による赤ちゃんの体重予測

1時間 30分 クレジット: 7

GSP013

Google Cloud セルフペース ラボ

概要

このラボでは、機械学習モデルをトレーニング、評価、展開して、赤ちゃんの体重を予測します。次に、モデルにリクエストを送信してオンライン予測を行います。

このラボの内容:

  • Al プラットホーム ノートブックを起動します

  • ローカル トレーニングを行う

  • 分散トレーニングを行う

  • ML モデルをウェブサービスとしてデプロイする

  • モデルを使って予測を行う

設定

[ラボを開始] ボタンをクリックする前に

こちらの手順をお読みください。ラボの時間は記録されており、一時停止することはできません。[ラボを開始] をクリックするとスタートするタイマーは、Google Cloud のリソースを利用できる時間を示しています。

この Qwiklabs ハンズオンラボでは、シミュレーションやデモ環境ではなく、実際のクラウド環境を使ってご自身でラボのアクティビティを行うことができます。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。

必要なもの

このラボを完了するためには、下記が必要です。

  • 標準的なインターネット ブラウザ(Chrome を推奨)
  • ラボを完了するために十分な時間

注: すでに個人の Google Cloud アカウントやプロジェクトをお持ちの場合でも、ラボでは使用しないでください。

注: Chrome OS デバイスを使用している場合は、シークレット ウィンドウを開いてこのラボを実行してください。

ラボを開始して Google Cloud コンソールにログインする方法

  1. [ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるポップアップでお支払い方法を選択してください。 左側の [ラボの詳細] パネルには、以下が表示されます。

    • [Google コンソールを開く] ボタン
    • 残り時間
    • このラボで使用する必要がある一時的な認証情報
    • このラボを行うために必要なその他の情報(ある場合)
  2. [Google コンソールを開く] をクリックします。 ラボでリソースが起動し、別のタブで [ログイン] ページが表示されます。

    ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。

    注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。
  3. 必要に応じて、[ラボの詳細] パネルから [ユーザー名] をコピーして [ログイン] ダイアログに貼り付けます。[次へ] をクリックします。

  4. [ラボの詳細] パネルから [パスワード] をコピーして [ようこそ] ダイアログに貼り付けます。[次へ] をクリックします。

    重要: 認証情報は左側のパネルに表示されたものを使用してください。Google Cloud Skills Boost の認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。
  5. その後次のように進みます。

    • 利用規約に同意してください。
    • 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
    • 無料トライアルには登録しないでください。

その後このタブで Cloud Console が開きます。

注: 左上にある [ナビゲーション メニュー] をクリックすると、Google Cloud のプロダクトやサービスのリストが含まれるメニューが表示されます。 ナビゲーション メニュー アイコン

Google Cloud Shell の有効化

Google Cloud Shell は、デベロッパー ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Google Cloud Shell では、コマンドラインで GCP リソースにアクセスできます。

GCP Console の右上のツールバーにある [Cloud Shell をアクティブにする] ボタンをクリックします。

Cloud Shell アイコン

[続行] をクリックします。

cloudshell_continue

環境のプロビジョニングと接続には少し時間がかかります。接続すると、すでに認証されており、プロジェクトは PROJECT_ID に設定されています。例えば:

Cloud Shell 端末

gcloud は Google Cloud Platform のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。

次のコマンドを使用すると、有効なアカウント名を一覧表示できます。

gcloud auth list

出力:

ACTIVE: *
ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net
To set the active account, run:
    $ gcloud config set account `ACCOUNT`
	

次のコマンドを使用すると、プロジェクト ID を一覧表示できます。

gcloud config list project
	

出力:

[core]
project = <project_ID>
	

出力例:

[core]
project = qwiklabs-gcp-44776a13dea667a6
	

バケットを作成する

Google Cloud Console を使用してバケットを作成します。

  1. Cloud Console で、ナビゲーション メニューをクリックして、[Cloud Storage] を選択します。

  2. [バケットを作成] をクリックします。

  3. リージョナル バケットを選択し、一意な名前を設定します。(一意なご自身のプロジェクト ID を利用します。)

  4. [作成] をクリックします。

Al Platform ノートブックを起動する

Vertex AI Workbench ノートブックを作成して起動するには:

  1. ナビゲーション メニュー ナビゲーション メニュー アイコン で、[Vertex AI] > [ワークベンチ] をクリックします。

  2. [ワークベンチ] ページで、[新しいノートブック] をクリックします。

  3. [Customize] インスタンス メニューで [TensorFlow Enterprise] を選択し、最新バージョンの [TensorFlow Enterprise 2.x (with LTS)] > [Without GPUs] を選択します。

  4. ノートブックに名前を付けます。

  5. [リージョン] を に設定し、[ゾーン] を、指定したリージョン内のいずれかのゾーンに設定します。

  6. [ノートブックのプロパティ] で、鉛筆アイコン 鉛筆アイコン をクリックして、インスタンスのプロパティを編集します。

  7. 下方向に [マシンの構成] までスクロールして、[マシンタイプ] として [e2-standard-2] を選択します。

  8. 残りのフィールドはデフォルトのままにし、[作成] をクリックします。

数分後、[ワークベンチ] ページにインスタンス名が表示され、それに続いて [JupyterLab を開く] が表示されます。

  1. [JupyterLab を開く] をクリックして、新しいタブで JupyterLab を開きます。

[進行状況を確認] をクリックして、目標に沿って進行していることを確認します。

Al Platform ノートブックを起動する

AI Platform Notebooks インスタンスの中でコースレポをクローンする

JupyterLab インスタンスで training-data-analyst ノートブックをクローンするには:

  1. JupyterLab で新しいターミナルを開くには、ターミナルアイコンをクリックします。

terminal.png

  1. コマンドラインで次のコマンドを入力してエンターキーを押します。

 git clone https://github.com/GoogleCloudPlatform/training-data-analyst 
  1. training-data-analyst ディレクトリをダブルクリックしてリポジトリがクローンされたことを確認します。このディレクトリにコース全体の全ての Jupyter ノートブックについてラボのファイルが含まれています。

files.png

AI Platform Notebooks インスタンスの中でコースレポをクローンする

トレーニングと予測ジョブを実行します。

  1. ノートブック インタフェースで training-data-analyst > blogs > babyweight に移動し、train_deploy.ipynb.を開きます。

  2. メニューで、Edit > Clear All Outputs をクリックします。

  3. 右上側で、Python 3 カーネルを使用していることを確認します。

  4. 内容を読み、ノートブックの各セルで Shift + Enter(または Run)をクリックします。

理解度テスト

このクイズを受けて、Google Cloud Platform の理解度をテストします。

これで完了です。

Cloud Datalab で機械学習モデルをトレーニング、評価、デプロイする方法を学習しました。

クエストの終了

Data_Science_125_2.png 304e2d6238466ca2.png

このセルフペース ラボは、Qwiklabs のクエストである科学データの処理データ エンジニアリングの一部です。クエストとは、学習パスを構成する一連のラボです。このクエストを完了すると、その成果が認められて上のバッジが贈られます。バッジは公開して、オンライン レジュメやソーシャル メディア アカウントにリンクすることができます。このラボを終えたら、クエストに登録して、すぐにクレジットを受け取ることができます。受講可能なその他の Qwiklabs のクエストもご覧ください

次のラボの受講

Bigtable: Qwik Start - Hbase Shell」に進んでクエストを続けるか、以下のおすすめをご確認ください。

Google Cloud Training & Certification

Google Cloud 技術を最大限に活用できるようになります。このクラスでは、必要な技術力とベスト プラクティスを習得し、継続的に学習することができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、仮想環境など、多忙なスケジュールに対応できるオプションが用意されています。認定資格を取得することで、Google Cloud の技術のスキルと知識を証明できます。

マニュアルの最終更新日: 2021 年 07 月 22 日
ラボの最終テスト日: 2021 年 07 月 20 日

Copyright 2020 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。