チェックポイント
Create Storage Bucket
/ 20
Create the AI Platform notebook instance
/ 25
Download lab notebook
/ 25
Train and deploy the Model for Predictions
/ 30
TensorFlow と AI Platform で住宅価格を予測する
GSP418
概要
このラボでは、TensorFlow 1.x と AI Platform を使用して総合的な機械学習ソリューションを構築し、クラウドを活用して分散型トレーニングとオンライン予測を行います。
tf.estimator は高レベルの TensorFlow API で、機械学習のプログラミングを大幅に簡略化します。Estimator は以下のアクションをカプセル化します。
- トレーニング
- 評価
- 予測
- 実行用のエクスポート
このラボでは、Jupyter と AI Platform の操作に焦点を当てています。関連のない概念やコードブロックについては詳しく触れていません。これらは Jupyter ノートブックでの実行用に準備された状態で提供されています。
設定
Qwiklabs の設定
[ラボを開始] ボタンをクリックする前に
こちらの手順をお読みください。ラボの時間は記録されており、一時停止することはできません。[ラボを開始] をクリックするとスタートするタイマーは、Google Cloud のリソースを利用できる時間を示しています。
この Qwiklabs ハンズオンラボでは、シミュレーションやデモ環境ではなく、実際のクラウド環境を使ってご自身でラボのアクティビティを行うことができます。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
必要なもの
このラボを完了するためには、下記が必要です。
- 標準的なインターネット ブラウザ(Chrome を推奨)
- ラボを完了するために十分な時間
注: すでに個人の Google Cloud アカウントやプロジェクトをお持ちの場合でも、ラボでは使用しないでください。
注: Chrome OS デバイスを使用している場合は、シークレット ウィンドウを開いてこのラボを実行してください。
ラボを開始して Google Cloud コンソールにログインする方法
-
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるポップアップでお支払い方法を選択してください。 左側の [ラボの詳細] パネルには、以下が表示されます。
- [Google コンソールを開く] ボタン
- 残り時間
- このラボで使用する必要がある一時的な認証情報
- このラボを行うために必要なその他の情報(ある場合)
-
[Google コンソールを開く] をクリックします。 ラボでリソースが起動し、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。 -
必要に応じて、[ラボの詳細] パネルから [ユーザー名] をコピーして [ログイン] ダイアログに貼り付けます。[次へ] をクリックします。
-
[ラボの詳細] パネルから [パスワード] をコピーして [ようこそ] ダイアログに貼り付けます。[次へ] をクリックします。
重要: 認証情報は左側のパネルに表示されたものを使用してください。Google Cloud Skills Boost の認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。 -
その後次のように進みます。
- 利用規約に同意してください。
- 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
- 無料トライアルには登録しないでください。
その後このタブで Cloud Console が開きます。
Google Cloud Shell の有効化
Google Cloud Shell は、デベロッパー ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Google Cloud Shell では、コマンドラインで GCP リソースにアクセスできます。
GCP Console の右上のツールバーにある [Cloud Shell をアクティブにする] ボタンをクリックします。
[続行] をクリックします。
環境のプロビジョニングと接続には少し時間がかかります。接続すると、すでに認証されており、プロジェクトは PROJECT_ID に設定されています。例えば:
gcloud
は Google Cloud Platform のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。
次のコマンドを使用すると、有効なアカウント名を一覧表示できます。
gcloud auth list
出力:
ACTIVE: *
ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net
To set the active account, run:
$ gcloud config set account `ACCOUNT`
次のコマンドを使用すると、プロジェクト ID を一覧表示できます。
gcloud config list project
出力:
[core]
project = <project_ID>
出力例:
[core]
project = qwiklabs-gcp-44776a13dea667a6
ストレージ バケットを作成する
GCP Console を使用してバケットを作成します。
ステップ 1
GCP Console で、ナビゲーション メニューをクリックし、[Storage] を選択します。
ステップ 2
[バケットを作成] をクリックします。
ステップ 3
一意の名前を設定して(一意のプロジェクト ID を使用します)、リージョン バケットを選択し、リージョンを us-central1
に設定します。[作成] をクリックします。
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが提供されます。
AI Platform Notebooks を起動する
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが提供されます。
ラボのノートブックをダウンロードする
JupyterLab インスタンスで training-data-analyst
ノートブックをクローンするには:
-
JupyterLab で新しいターミナルを開くには、ターミナルアイコンをクリックします。
-
コマンドラインで次のコマンドを入力してエンターキーを押します。
git clone https://github.com/GoogleCloudPlatform/training-data-analyst
-
training-data-analyst
ディレクトリをダブルクリックしてリポジトリがクローンされたことを確認します。このディレクトリにコース全体の全ての Jupyter ノートブックについてラボのファイルが含まれています。
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが提供されます。
住宅価格のノートブックを開いて実行する
Jupyter コンソールで [training-data-analyst] > [blogs] > [housing_prices] > [cloud-ml-housing-prices.ipynb] の順に選択して、ラボを開始します。これで用意ができました。
上部のリボンで、[Edit] > [Clear All Outputs] をクリックします。
右上で [Python 2] を選択して [Python 3] に変更します。
ここからは、ノートブックの手順を読んでラボを完了します。
セルを 1 つずつ実行し、結果を確認します。セルを順番に実行するには、セルをクリックしてから Shift+Enter
キーを押し、各セルが完了するのを待って次に進む方法が便利です。
手順とコードブロック内のコメントを注意深く読みます。実行する前に、コードブロックの一部を編集するよう求められます。たとえば、ノートブックで環境変数を設定する際には、セルを実行する前にご自分のバケット名とプロジェクト ID を追加します。
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが提供されます。
お疲れさまでした
TensorFlow の高レベルの Estimator API を使用して、クラウドでの分散トレーニング用に TensorFlow 1.x のコードをデプロイして結果を評価し、オンライン予測用にモデルをクラウドにデプロイしました。
クエストを完了する
このセルフペース ラボは、Qwiklabs のクエストであるデータ エンジニアリングと中級 ML: GCP での TensorFlow の一部です。クエストとは学習パスを構成する一連のラボのことで、完了すると成果が認められて、バッジが贈られます。バッジは公開して、オンライン レジュメやソーシャル メディア アカウントにリンクできます。このラボを終えて上述のいずれかのクエストに登録すると、すぐにクレジットを受け取ることができます。受講可能なその他の Qwiklabs のクエストもご確認ください。
こちらのラボもご覧ください
こちらのラボ Cloud Composer: Copy BigQuery Tables Across Different Locations も受講し、どうぞクエストをお続けください!また以下のラボもぜひご覧ください。
- Build an IoT Analytics Pipeline on Google Cloud
- ETL Processing on Google Cloud using dataflow and BigQuery
次のステップと詳細情報
以下の公式ドキュメントをご確認ください。
- より詳細なトレーニングにご興味のある方は、Cloud ML に関する Coursera のラボをお試しください。
- Jupyter ノートブックの基本(Datalab は Jupyter をベースに構築されています)
- tf.estimator
Google Cloud Platform での高度なデータ サイエンス(43:15)で、Google Cloud Next ‘17 での講演をご確認ください。
Google Cloud Training & Certification
Google Cloud 技術を最大限に活用できるようになります。このクラスでは、必要な技術力とベスト プラクティスを習得し、継続的に学習することができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、仮想環境など、多忙なスケジュールに対応できるオプションが用意されています。認定資格を取得することで、Google Cloud の技術のスキルと知識を証明できます。
マニュアルの最終更新日: 2020 年 9 月 11 日
ラボの最終テスト日: 2020 年 9 月 11 日
Copyright 2020 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。