arrow_back

Kubeflow 및 AI Platform Pipelines로 TensorFlow, PyTorch, XGBoost, Scikit Learn 모델의 지속적 학습

로그인 가입
700개 이상의 실습 및 과정 이용하기

Kubeflow 및 AI Platform Pipelines로 TensorFlow, PyTorch, XGBoost, Scikit Learn 모델의 지속적 학습

실습 2시간 universal_currency_alt 크레딧 5개 show_chart 입문
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
700개 이상의 실습 및 과정 이용하기

개요

이 실습에서는 TensorFlow, PyTorch, XGBoost, scikit-learn에서 ML 모델을 위한 컨테이너화된 학습 애플리케이션을 만듭니다. 그런 다음 해당 이미지를 KubeFlow 파이프라인에서 작업으로 사용하여 여러 모델을 동시에 학습시킵니다. 그 후 KubeFlow 파이프라인을 UI에서 반복 실행하도록 설정합니다.

목표

  • 학습 스크립트 만들기
  • 학습 스크립트를 Docker 이미지로 패키징하기
  • 학습 이미지를 빌드하고 Google Cloud Container Registry로 푸시하기
  • BigQuery를 쿼리하는 Kubeflow 파이프라인을 빌드하여 학습/검증 분할을 만든 다음 결과를 GCS에서 샤딩된 CSV 파일로 내보내기
  • 내보낸 CSV 데이터를 입력으로 사용하여 컨테이너화된 학습 애플리케이션 4개로 AI Platform 학습 작업 실행하기

설정 및 요건

각 실습에서는 정해진 기간 동안 새 Google Cloud 프로젝트와 리소스 집합이 무료로 제공됩니다.

  1. 시크릿 창을 사용하여 Qwiklabs에 로그인합니다.

  2. 실습 사용 가능 시간(예: 1:15:00)을 참고하여 해당 시간 내에 완료합니다.
    일시중지 기능은 없습니다. 필요한 경우 다시 시작할 수 있지만 처음부터 시작해야 합니다.

  3. 준비가 되면 실습 시작을 클릭합니다.

  4. 실습 사용자 인증 정보(사용자 이름비밀번호)를 기록해 두세요. Google Cloud Console에 로그인합니다.

  5. Google Console 열기를 클릭합니다.

  6. 다른 계정 사용을 클릭한 다음, 안내 메시지에 실습에 대한 사용자 인증 정보를 복사하여 붙여넣습니다.
    다른 사용자 인증 정보를 사용하는 경우 오류가 발생하거나 요금이 부과됩니다.

  7. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.

Cloud Shell 활성화

Cloud Shell은 여러 개발 도구가 포함된 가상 머신입니다. 5GB의 영구적인 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다. gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 탭 자동 완성을 지원합니다.

  1. Google Cloud Console의 탐색창에서 Cloud Shell 활성화(Cloud Shell 아이콘)를 클릭합니다.

  2. 계속을 클릭합니다.
    환경을 프로비저닝하고 연결하는 데는 몇 분 정도 소요됩니다. 연결되면 사용자 인증도 처리되어 프로젝트가 PROJECT_ID로 설정됩니다. 예를 들면 다음과 같습니다.

Cloud Shell 터미널

샘플 명령어

  • 활성 계정 이름을 나열합니다.

gcloud auth list

(출력)

Credentialed accounts: - <myaccount>@<mydomain>.com (active)

(출력 예시)

Credentialed accounts: - google1623327_student@qwiklabs.net
  • 프로젝트 ID를 나열합니다.

gcloud config list project

(출력)

[core] project = <project_ID>

(출력 예시)

[core] project = qwiklabs-gcp-44776a13dea667a6

작업 1. Cloud Storage 버킷 만들기

  • Cloud Shell에서 다음 명령어를 실행하여 Cloud Storage 버킷을 만듭니다. 이 실습에서는 편의상 공개 버킷을 만듭니다.
PROJECT_ID=`gcloud config list --format 'value(core.project)'` gsutil mb -p $PROJECT_ID gs://$PROJECT_ID gsutil acl ch -u AllUsers:R gs://$PROJECT_ID

완료된 작업 테스트 - Cloud Storage 버킷 만들기

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Cloud Storage 버킷 만들기

작업 2. Cloud 서비스 사용 설정하기

  1. 그런 다음, 다음 명령어를 실행하여 필요한 Cloud 서비스를 사용 설정합니다.
gcloud services enable \ cloudbuild.googleapis.com \ container.googleapis.com \ cloudresourcemanager.googleapis.com \ iam.googleapis.com \ containerregistry.googleapis.com \ containeranalysis.googleapis.com \ ml.googleapis.com \ dataflow.googleapis.com
  1. Cloud Build 서비스 계정에 편집자 권한을 추가합니다.
PROJECT_NUMBER=$(gcloud projects describe $PROJECT_ID --format="value(projectNumber)") CLOUD_BUILD_SERVICE_ACCOUNT="${PROJECT_NUMBER}@cloudbuild.gserviceaccount.com" gcloud projects add-iam-policy-binding $PROJECT_ID \ --member serviceAccount:$CLOUD_BUILD_SERVICE_ACCOUNT \ --role roles/editor

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Cloud Build 서비스 계정에 편집자 권한 추가하기

작업 3. AI Platform Pipelines 인스턴스 만들기

  1. Google Cloud 콘솔의 탐색 메뉴(탐색 메뉴 아이콘)에서 아래로 스크롤하여 AI Platform을 찾은 후 나중에 실습 중에 손쉽게 액세스할 수 있도록 해당 섹션을 고정합니다.

  2. AI Platform > Pipelines로 이동합니다.

  3. 그런 다음 새 인스턴스를 클릭합니다.

  4. 구성을 클릭합니다.

  5. 클러스터를 만들려면 영역(으)로 선택한 후 다음 Cloud API에 대한 액세스 허용을 선택하고 이름은 그대로 둡니다. 그런 다음 새 클러스터 만들기를 클릭합니다.

참고: 클러스터를 만드는 데 3~5분 정도 걸립니다. 이 단계가 완료될 때까지 기다려야 다음 단계로 진행할 수 있습니다.
  1. 페이지 하단으로 스크롤하여 Marketplace 약관을 수락하고 배포를 클릭합니다. KFP 개별 서비스가 GKE 클러스터에 배포되었음을 확인할 수 있습니다. 배포가 완료될 때까지 기다렸다가 다음 작업으로 넘어갑니다.

  2. Cloud Shell에서 다음을 실행하여 kubectl 명령줄 액세스를 구성합니다.

gcloud container clusters get-credentials cluster-1 --zone {{{project_0.default_zone|place_holder_text}}} --project {{{project_0.project_id|place_holder_text}}}
  1. Cloud Shell에서 다음을 실행하여 KFP 배포의 엔드포인트를 가져옵니다.
kubectl describe configmap inverse-proxy-config | grep googleusercontent.com 중요: 작업 6에서 노트북의 셀 중 하나에 KFP의 엔드포인트를 설정해야 합니다. 위의 출력을 엔드포인트로 사용해야 합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. AI Platform Pipelines 인스턴스 만들기

작업 4. Vertex AI Platform Notebooks 인스턴스 만들기

Vertex AI Platform Notebooks 인스턴스가 기본 실험/개발 워크벤치로 사용됩니다.

  1. Cloud 콘솔의 탐색 메뉴에서 Vertex AI > Workbench를 클릭합니다.

  2. 아직 사용 설정되지 않은 경우 Notebooks API 사용 설정을 클릭합니다.

  3. Workbench 페이지에서 새로 만들기를 클릭합니다.

  4. 새 인스턴스 대화상자에서 리전으로 을(를) 선택하고 영역으로 을(를) 선택합니다.

  5. 그런 다음 운영체제로 Debian 10을 선택하고 환경으로 Python 3(Intel MKL 및 CUDA 11.3 사용)을 선택합니다.

  6. 다른 필드는 모두 기본값으로 두고 만들기를 클릭합니다.

참고: 노트북 인스턴스가 표시되는 데 5분 정도 걸릴 수 있습니다. 참고: 인스턴스가 사용 가능해질 때까지 기다렸다가 다음 단계로 넘어가세요.
  1. JupyterLab 열기를 클릭합니다. JupyterLab 창이 새 탭에서 열립니다.

  2. '빌드 권장' 팝업이 표시되면 빌드를 클릭합니다. 빌드 실패가 표시되면 무시합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. AI Platform Notebooks 인스턴스 만들기

작업 5. AI Platform Notebooks 인스턴스 내에서 예시 저장소 클론하기

JupyterLab 인스턴스로 mlops-on-gcp 노트북을 클론하려면 다음을 수행합니다.

  1. JupyterLab에서 터미널 아이콘을 클릭하여 새 터미널을 엽니다.

  2. 명령줄 프롬프트에 다음 명령어를 입력하고 Enter를 누릅니다.

    git clone https://github.com/GoogleCloudPlatform/mlops-on-gcp 참고: 클론된 저장소가 JupyterLab UI에 표시되지 않는 경우에는 상단 메뉴의 Git > Clone a repository(저장소 클론)에서 UI를 사용해 저장소를 클론(https://github.com/GoogleCloudPlatform/mlops-on-gcp)하면 됩니다.

    저장소 클론 대화상자

  3. mlops-on-gcp 디렉터리를 더블클릭하고 디렉터리의 콘텐츠를 볼 수 있는지 확인하여 저장소가 클론되었는지 확인합니다. 이 과정의 모든 Jupyter 노트북 기반 실습 파일은 이 디렉터리에서 확인할 수 있습니다.

  1. 다음 명령어를 실행하여 필요한 패키지를 설치합니다.

    pip install kfp==0.2.5 fire gcsfs requests-toolbelt==0.10.1

작업 6. 실습 노트북으로 이동하기

  1. JupyterLab UI에서 mlops-on-gcp/continuous_training/kubeflow/labs로 이동한 다음 multiple_frameworks_lab.ipynb를 엽니다.

  2. 노트북 툴바에서 지우기 버튼을 찾아 노트북의 셀을 모두 지우고 셀을 하나씩 실행합니다. 일부 셀에는 셀을 실행하기 전에 코드를 작성할 수 있는 #TODO가 있습니다.

  3. 메시지가 표시되면 다음 안내를 다시 참고하여 진행 상황을 확인합니다.

추가 도움이 필요한 경우 mlops-on-gcp/continuous_training/kubeflow/solutions로 이동한 다음 multiple_frameworks_kubeflow.ipynb를 열어 전체 솔루션을 살펴보세요.

작업 7. 클라우드에서 학습 작업 실행하기

완료된 작업 테스트 - BigQuery 데이터 세트 및 테이블을 만들고, 이미지를 빌드한 후, 프로젝트의 Container Registry에 푸시하기

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. BigQuery 데이터 세트 및 테이블을 만들고, 이미지를 빌드한 후, 프로젝트의 Container Registry에 푸시하기

완료된 작업 테스트 - KubeFlow 파이프라인 배포하기

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. KubeFlow 파이프라인 배포하기

완료된 작업 테스트 - 파이프라인 실행 생성하기

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. 파이프라인 실행 생성하기

수고하셨습니다

이 실습에서는 Docker 이미지를 개발 및 패키징한 다음 AI Platform Training에서 실행하여 애플리케이션을 학습시키는 방법을 배웠습니다.

실습 종료

실습을 완료하면 실습 종료를 클릭합니다. Qwiklabs에서 사용된 리소스를 자동으로 삭제하고 계정을 지웁니다.

실습 경험을 평가할 수 있습니다. 해당하는 별표 수를 선택하고 의견을 입력한 후 제출을 클릭합니다.

별점의 의미는 다음과 같습니다.

  • 별표 1개 = 매우 불만족
  • 별표 2개 = 불만족
  • 별표 3개 = 중간
  • 별표 4개 = 만족
  • 별표 5개 = 매우 만족

의견을 제공하고 싶지 않다면 대화상자를 닫으면 됩니다.

의견이나 제안 또는 수정할 사항이 있다면 지원 탭을 사용하세요.

Copyright 2020 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

시크릿 브라우징 사용

  1. 실습에 입력한 사용자 이름비밀번호를 복사합니다.
  2. 비공개 모드에서 콘솔 열기를 클릭합니다.

콘솔에 로그인

    실습 사용자 인증 정보를 사용하여
  1. 로그인합니다. 다른 사용자 인증 정보를 사용하면 오류가 발생하거나 요금이 부과될 수 있습니다.
  2. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
  3. 실습을 완료했거나 다시 시작하려고 하는 경우가 아니면 실습 종료를 클릭하지 마세요. 이 버튼을 클릭하면 작업 내용이 지워지고 프로젝트가 삭제됩니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하려면 시크릿 모드 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.