arrow_back

Dataplex를 사용한 데이터 품질 평가

로그인 가입
700개 이상의 실습 및 과정 이용하기

Dataplex를 사용한 데이터 품질 평가

실습 1시간 30분 universal_currency_alt 크레딧 1개 show_chart 입문
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
700개 이상의 실습 및 과정 이용하기

GSP1158

Google Cloud 사용자 주도형 실습 로고

개요

Dataplex Universal Catalog는 조직이 데이터 레이크, 데이터 웨어하우스, 데이터 마트의 데이터를 중앙에서 검색, 관리, 모니터링, 제어할 수 있게 하여 규모에 따른 분석을 제공하는 지능형 데이터 패브릭입니다.

Dataplex Universal Catalog의 중요한 기능은 BigQuery 테이블, Cloud Storage 파일과 같은 Dataplex Universal Catalog 애셋에 대한 데이터 품질 검사를 정의하고 실행하는 기능입니다. Dataplex 데이터 품질 작업을 사용하면 데이터 프로덕션 파이프라인의 일부인 데이터를 검증하고, 일련의 기준에 따라 데이터 품질을 정기적으로 모니터링하고, 규제 요건에 대한 데이터 품질 보고서를 작성하여 데이터 품질 검사를 일상적인 워크플로에 통합할 수 있습니다.

이 실습에서는 커스텀 데이터 품질 사양 파일을 만들고 이를 사용하여 BigQuery 데이터에서 데이터 품질 작업을 정의하고 실행함으로써 Dataplex Universal Catalog를 사용하여 데이터 품질을 평가하는 방법을 배웁니다.

실습할 내용

  • Dataplex Universal Catalog 레이크, 영역, 애셋 만들기
  • 데이터 품질 검토를 위한 BigQuery 테이블 쿼리하기
  • 데이터 품질 사양 파일을 만들고 업로드하기
  • Dataplex에서 데이터 품질 작업을 정의하고 실행하기
  • 데이터 품질 작업 결과 검토하기

설정 및 요건

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드(권장) 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학습자 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간(실습을 시작하고 나면 일시중지할 수 없음)
참고: 이 실습에는 학습자 계정만 사용하세요. 다른 Google Cloud 계정을 사용하는 경우 해당 계정에 비용이 청구될 수 있습니다.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스에 액세스하려면 탐색 메뉴를 클릭하거나 검색창에 제품 또는 서비스 이름을 입력합니다. 탐색 메뉴 아이콘 및 검색창

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 Cloud Shell 활성화 아이콘를 클릭합니다.

  2. 다음 창을 클릭합니다.

    • Cloud Shell 정보 창을 통해 계속 진행합니다.
    • 사용자 인증 정보를 사용하여 Google Cloud API를 호출할 수 있도록 Cloud Shell을 승인합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID, (으)로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

출력:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.

Dataproc API 사용 설정

  1. Google Cloud 콘솔 제목 표시줄의 검색 필드에 Cloud Dataproc API를 입력한 다음 검색 결과에서 Cloud Dataproc API를 클릭합니다.

  2. 아직 사용 설정하지 않았다면 사용 설정을 클릭합니다.

작업 1. Dataplex에서 레이크, 영역, 애셋 만들기

데이터 품질 작업을 정의하고 실행하려면 몇 가지 Dataplex Universal Catalog 리소스가 필요합니다.

이 작업에서는 새 Dataplex Universal Catalog 레이크를 만들어 전자상거래 고객 정보를 저장하고 레이크에 원시 데이터 영역을 추가한 다음 미리 만든 BigQuery 데이터 세트를 영역의 새 애셋으로 연결합니다.

레이크 만들기

  1. Google Cloud 콘솔의 탐색 메뉴(탐색 메뉴) > '모든 제품 보기'에서 애널리틱스 > Dataplex Universal Catalog로 이동합니다.

Welcome to the new Dataplex Universal Catalog experience라는 메시지가 표시되면 닫기를 클릭합니다.

  1. 레이크 관리에서 관리를 클릭합니다.

  2. 레이크 만들기를 클릭합니다.

  3. 필요한 정보를 입력하여 다음과 같은 새 레이크를 만듭니다. 다른 필드는 모두 기본값 그대로 둡니다.

속성
표시 이름 Ecommerce Lake
리전
  1. 만들기를 클릭합니다.

레이크를 만드는 데 최대 3분이 걸릴 수 있습니다.

레이크에 영역 추가

  1. 관리 탭에서 레이크의 이름을 클릭합니다.

  2. 영역 추가를 클릭합니다.

  3. 필요한 정보를 입력하여 다음과 같은 새 영역을 만듭니다. 다른 필드는 모두 기본값 그대로 둡니다.

속성
표시 이름 Customer Contact Raw Zone
유형 원시 데이터 영역
데이터 위치 리전
  1. 만들기를 클릭합니다.

영역을 만드는 데 최대 2분이 걸릴 수 있습니다.

참고: 영역의 상태가 활성이면 다음 작업을 수행할 수 있습니다.

영역에 애셋 연결

  1. 영역 탭에서 Customer Contact Raw Zone을 클릭합니다.

  2. 애셋 탭에서 애셋 추가를 클릭합니다.

  3. 애셋 추가를 클릭합니다.

  4. 필요한 정보를 입력하여 새 애셋을 연결합니다. 다른 필드는 기본값 그대로 둡니다.

속성
유형 BigQuery 데이터 세트
표시 이름 Contact Info
데이터 세트 .customers
  1. 완료를 클릭합니다.

  2. 계속을 클릭합니다.

  3. 검색 설정에 대해 상속을 선택하여 영역 수준에서 검색 설정을 상속한 다음 계속을 클릭합니다.

  4. 제출을 클릭합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Dataplex Universal Catalog에서 레이크, 영역, 애셋 만들기

작업 2. 데이터 품질 검토를 위한 BigQuery 테이블 쿼리하기

이 실습에서는 미리 생성된 두 개의 BigQuery 데이터 세트를 사용합니다.

  • customers: 고객 ID, 이름, 이메일 등 고객의 연락처 정보가 포함된 contact_info라는 테이블이 하나 포함되어 있습니다. 이것은 이 실습에서 데이터 품질 문제를 탐색하고 확인하는 테이블입니다.

  • customers_dq_dataset: 테이블이 포함되어 있지 않습니다. 이후 작업에서 데이터 품질 작업을 정의할 때 이 데이터 세트를 데이터 품질 작업 결과가 포함된 새 테이블의 위치로 사용합니다.

이 작업에서는 customers 데이터 세트를 쿼리하여 데이터 품질 작업에 검사로 포함할 데이터 품질 문제를 식별합니다. 또한 나중에 작업할 때 데이터 품질 작업 결과를 저장하기 위해 customers_dq_dataset 데이터 세트를 지정합니다.

BigQuery 콘솔 열기

  1. Google Cloud 콘솔에서 탐색 메뉴 > BigQuery를 선택합니다.

Cloud 콘솔의 BigQuery에 오신 것을 환영합니다라는 메시지 상자가 열립니다. 이 메시지 상자에서는 빠른 시작 가이드 및 출시 노트로 연결되는 링크가 제공됩니다.

  1. 완료를 클릭합니다.

BigQuery 콘솔이 열립니다.

contact_info 테이블 쿼리

  1. 탐색기 창에서 프로젝트 ID 옆의 펼치기 화살표()를 클릭하여 콘텐츠를 나열합니다.

다음 세 개의 데이터 세트가 표시됩니다.

  • Customer Contact Raw Zone
  • customers
  • customers_dq_dataset
  1. SQL 편집기에서 SQL 쿼리(+)를 클릭합니다. 다음 쿼리를 붙여넣은 다음 실행을 클릭합니다.
SELECT * FROM `{{{project_0.project_id}}}.customers.contact_info` ORDER BY id LIMIT 50

이 쿼리는 원본 테이블에서 50개의 레코드를 선택하고 결과에서 고객 ID 별로 레코드를 정렬합니다.

  1. 결과 창에서 결과를 스크롤합니다.

    일부 레코드에 고객 ID가 누락되었거나 잘못된 이메일이 있어 고객 주문을 관리하기 어려울 수 있습니다.

contact-info 테이블의 불완전한 데이터

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. 데이터 품질 검토를 위한 BigQuery 테이블 쿼리하기

작업 3. 데이터 품질 사양 파일을 만들고 업로드하기

Dataplex 데이터 품질 확인 요구사항은 CloudDQ YAML 사양 파일을 사용하여 정의됩니다. 만들어진 YAML 사양 파일은 데이터 품질 작업에 액세스하도록 만들어진 Cloud Storage 버킷에 업로드됩니다.

YAML 파일에는 네 개의 키 섹션이 있습니다.

  • 실행할 규칙 목록(사전 정의된 규칙 또는 사용자설정 규칙)
  • 검증을 위한 데이터의 하위 집합을 선택하는 행 필터
  • 정의된 규칙을 테이블에 적용하는 규칙 바인딩
  • YAML 파일에 포함할 수 있는 규칙의 유형을 지정하는 선택적 규칙 측정기준

이 작업에서는 지정된 BigQuery 테이블에서 null 고객 ID 및 이메일을 식별하는 데이터 품질 검사를 위한 새 YAML 사양 파일을 정의합니다. 또한 데이터 품질 결과를 dq_results라는 이름의 테이블에 저장하기 위해 customer_dq_dataset이라는 이름의 미리 만든 BigQuery 데이터 세트도 지정합니다.

파일을 정의한 후에는 나중에 데이터 품질 작업을 실행하는 작업에 사용할 수 있도록 미리 만들어진 Cloud Storage 버킷에 파일을 업로드합니다.

데이터 품질 사양 파일 만들기

  1. Cloud Shell에서 다음 명령어를 실행하여 데이터 품질 사양을 위한 빈 파일을 새로 만듭니다.
nano dq-customer-raw-data.yaml
  1. 다음 코드를 파일에 붙여넣습니다.
rules: - nonNullExpectation: {} column: id dimension: COMPLETENESS threshold: 1 - regexExpectation: regex: '^[^@]+[@]{1}[^@]+$' column: email dimension: CONFORMANCE ignoreNull: true threshold: .85 postScanActions: bigqueryExport: resultsTable: projects/{{{project_0.project_id | Project ID}}}/datasets/customers_dq_dataset/tables/dq_results
  1. 코드를 검토하여 이 파일에 정의된 두 가지 기본 데이터 품질 규칙을 식별합니다.

dq-customer-raw-data.yaml은 다음 두 가지 규칙을 지정합니다.

  • 첫 번째 규칙은 null 값과 같은 완전성 측정기준을 나타냅니다.
  • 두 번째 규칙은 잘못된 값과 같은 적합성 측정기준을 나타냅니다.

이 파일에서 두 규칙은 특정 테이블 열에 바인딩됩니다.

  • 첫 번째 규칙 바인딩은 notNullExpectation 규칙을 contact_info 테이블의 id 열에 100% 기준점으로 바인딩하여 ID 열에 NULL 값이 있는지 확인합니다.
  • 두 번째 규칙 바인딩은 regexExpectation 규칙을 contact_info 테이블의 email 열에 85%의 기준점으로 바인딩하여 유효한 이메일이 있는지 확인합니다.
  1. Ctrl+X를 입력한 다음 Y를 입력하여 파일을 저장하고 닫습니다.

Cloud Storage에 파일 업로드

  • Cloud Shell에서 다음 명령어를 실행하여 파일을 Cloud Storage 버킷에 업로드합니다.
gsutil cp dq-customer-raw-data.yaml gs://{{{project_0.project_id | Project ID}}}-bucket

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. 데이터 품질 사양 파일을 만들고 업로드하기

작업 4. Dataplex에서 자동 데이터 품질 작업을 정의하고 실행하기

데이터 품질 프로세스는 데이터 품질 사양 YAML 파일을 사용하여 데이터 품질 작업을 실행하고 BigQuery 데이터 세트에 기록되는 데이터 품질 측정항목을 생성합니다.

이 작업에서는 Cloud Storage의 데이터 품질 사양 YAML 파일을 사용하여 자동 데이터 품질 작업을 정의하고 실행합니다. 작업을 정의할 때 데이터 품질 결과를 저장하기 위해 customer_dq_dataset 데이터 세트도 지정합니다.

  1. Cloud Shell에서 다음 명령어를 실행하여 데이터 품질 스캔을 만듭니다.
gcloud dataplex datascans create data-quality customer-orders-data-quality-job \ --project={{{project_0.project_id | Project ID}}} \ --location={{{project_0.default_region | Region}}} \ --data-source-resource="//bigquery.googleapis.com/projects/{{{project_0.project_id | Project ID}}}/datasets/customers/tables/contact_info" \ --data-quality-spec-file="gs://{{{project_0.project_id | Project ID}}}-bucket/dq-customer-raw-data.yaml" 참고: 이 실습에서는 Compute Engine 기본 서비스 계정이 적절한 IAM 역할과 권한을 갖도록 사전 구성되어 있습니다. 자세한 내용은 서비스 계정 만들기라는 제목의 Dataplex Universal Catalog 문서를 참고하세요.
  1. 콘솔로 돌아갑니다. 여전히 Dataplex Universal Catalog에 있어야 합니다.

  2. 제어 아래에서 데이터 프로파일링 및 품질을 클릭합니다.

  3. customer-orders-data-quality-job을 클릭합니다.

  4. 지금 실행을 클릭합니다.

참고: 작업이 시작되기까지 몇 분 정도 걸릴 수 있습니다.

작업이 완료되면 상태가 1개 측정기준 1개 규칙 실패로 표시됩니다.

  1. 결과 보기를 클릭합니다.

email 열의 데이터 품질 규칙은 통과되었지만 id 열의 데이터 품질 규칙은 실패했습니다. 이는 다음과 같은 이유 때문인 것으로 예상됩니다.

  • id 열의 규칙은 기준점이 100%Null Check입니다. 즉, 규칙을 통과하려면 모든 행에 id 값이 있어야 합니다. 이 경우 contact_info 테이블의 id 열에 있는 행의 10%null 값을 갖습니다. 따라서 이 규칙은 실패합니다.

  • email 열의 규칙은 기준점이 85%Regex Check입니다. 즉, 레코드의 15%가 잘못된 이메일 형식을 가지고 있으면 규칙이 실패합니다. 이 경우 contact_info 테이블의 email 열에 있는 행의 ~10.5%가 잘못된 이메일을 가지고 있습니다. 따라서 이 규칙은 통과됩니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Dataplex Universal Catalog에서 데이터 품질 작업을 정의하고 실행하기

작업 5. BigQuery의 데이터 품질 결과 검토하기

이 작업에서는 customers_dq_dataset의 테이블을 검토하여 고객 ID 값이 누락되었거나 이메일에 잘못된 값이 있는 레코드를 식별합니다.

  1. BigQuery로 돌아가 탐색기 창에서 프로젝트 ID 옆의 화살표를 펼쳐 콘텐츠를 나열합니다.

  2. customer_dq_dataset 데이터 세트 옆의 펼치기 화살표를 클릭합니다.

  3. dq_results 테이블을 클릭합니다.

  4. 미리보기 탭을 클릭하여 결과를 확인합니다.

  5. rule_failed_records_query라는 이름의 열로 스크롤합니다.

  6. 쿼리를 복사합니다. 쿼리는 WITH로 시작합니다.

  7. SQL 쿼리(+)를 클릭합니다. 쿼리를 복사하여 SQL 편집기에 붙여넣고 실행을 클릭합니다.

    쿼리 결과는 contact_info 테이블에 잘못된 이메일 값을 제공합니다. dq_validation_column_id 열의 각 항목에 'email'이 표시됩니다.

    VALID_EMAIL의 데이터 품질 결과

  8. VALID_CUSTOMER 규칙 결과의 경우 쿼리가 포함된 두 번째 셀에 대해 7~8단계를 반복합니다.

    쿼리 결과는 contact_info 테이블에 ID 값이 누락된 레코드가 10개 있는 것으로 확인되었습니다.

    VALID_CUSTOMER의 데이터 품질 결과

    dq_validation_column_id 열의 각 항목에 'id'가 있습니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. BigQuery 테이블의 데이터 품질 결과 검토하기

수고하셨습니다

커스텀 데이터 품질 사양 파일을 만들고 이를 사용하여 BigQuery 테이블에서 데이터 품질 작업을 실행하는 방식으로 Dataplex Universal Catalog를 사용하여 데이터 품질을 평가했습니다.

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2025년 9월 2일

실습 최종 테스트: 2025년 9월 2일

Copyright 2025 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

시크릿 브라우징 사용

  1. 실습에 입력한 사용자 이름비밀번호를 복사합니다.
  2. 비공개 모드에서 콘솔 열기를 클릭합니다.

콘솔에 로그인

    실습 사용자 인증 정보를 사용하여
  1. 로그인합니다. 다른 사용자 인증 정보를 사용하면 오류가 발생하거나 요금이 부과될 수 있습니다.
  2. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
  3. 실습을 완료했거나 다시 시작하려고 하는 경우가 아니면 실습 종료를 클릭하지 마세요. 이 버튼을 클릭하면 작업 내용이 지워지고 프로젝트가 삭제됩니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하려면 시크릿 모드 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.