가입 로그인

Google Cloud 콘솔에서 기술 적용

Katusha Fletcher

회원 가입일: 2024

실버 리그

52120포인트
Google Cloud 기초: 핵심 인프라 Earned 1월 2, 2025 EST
Google Cloud의 데이터 엔지니어링 입문 Earned 12월 30, 2024 EST
BigQuery에서 Gemini 모델 사용하기 Earned 12월 26, 2024 EST
BigQuery의 Gemini로 생산성 향상 Earned 12월 26, 2024 EST
Manage Data Models in Looker Earned 12월 26, 2024 EST
Applying Advanced LookML Concepts in Looker Earned 12월 26, 2024 EST
데이터 분석가를 위한 BigQuery Earned 11월 13, 2024 EST
Build LookML Objects in Looker Earned 10월 23, 2024 EDT
Data Catalog Fundamentals Earned 10월 4, 2024 EDT
BigQuery ML로 ML 모델 만들기 Earned 9월 24, 2024 EDT
BigQuery 데이터에서 인사이트 도출 Earned 9월 24, 2024 EDT
Developing Data Models with LookML Earned 9월 11, 2024 EDT
Looker 대시보드 및 보고서를 위해 데이터 준비하기 Earned 9월 10, 2024 EDT
Analyzing and Visualizing Data in Looker Earned 9월 10, 2024 EDT
Google Cloud 기반 데이터 분석 입문 Earned 9월 7, 2024 EDT
Google Cloud에서 ML API용으로 데이터 준비하기 Earned 9월 7, 2024 EDT
Serverless Data Processing with Dataflow: Develop Pipelines Earned 9월 7, 2024 EDT
BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 Earned 9월 7, 2024 EDT
Dataplex로 데이터 메시 빌드하기 Earned 9월 7, 2024 EDT
BigQuery로 데이터 웨어하우스 빌드 Earned 9월 5, 2024 EDT
Serverless Data Processing with Dataflow: Operations Earned 9월 1, 2024 EDT
Serverless Data Processing with Dataflow: Foundations Earned 8월 25, 2024 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어 Earned 8월 25, 2024 EDT
Google Cloud 기반 복원력이 우수한 스트리밍 분석 시스템 구축하기 Earned 8월 24, 2024 EDT
Google Cloud에서 일괄 데이터 파이프라인 빌드하기 Earned 8월 23, 2024 EDT
Google Cloud로 데이터 레이크 및 데이터 웨어하우스 현대화하기 Earned 8월 21, 2024 EDT
Preparing for your Professional Data Engineer Journey Earned 8월 20, 2024 EDT

Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.

자세히 알아보기

이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.

자세히 알아보기

이 과정은 BigQuery에서 생성형 AI 작업에 AI/ML 모델을 사용하는 방법을 보여줍니다. 고객 관계 관리와 관련된 실제 사용 사례를 통해 Gemini 모델로 비즈니스 문제를 해결하는 워크플로를 설명합니다. 이해를 돕기 위해 SQL 쿼리와 Python 노트북을 사용하는 코딩 솔루션을 단계별로 안내합니다.

자세히 알아보기

이 과정에서는 데이터-AI 워크플로를 지원하는 AI 기반 기능 모음인 BigQuery의 Gemini에 관해 살펴봅니다. 이러한 기능에는 데이터 탐색 및 준비, 코드 생성 및 문제 해결, 워크플로 탐색 및 시각화 등이 있습니다. 이 과정은 개념 설명, 실제 사용 사례, 실무형 실습을 통해 데이터 실무자가 생산성을 향상하고 개발 파이프라인의 속도를 높이는 데 도움이 됩니다.

자세히 알아보기

Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.

자세히 알아보기

In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.

자세히 알아보기

본 과정은 데이터 분석 작업에 BigQuery를 사용하는 방법을 배우고자 하는 데이터 분석가를 대상으로 고안되었습니다. 동영상, 실습, 데모를 통해 BigQuery에서 데이터를 수집, 변환, 쿼리하여 비즈니스 의사 결정에 도움이 되는 인사이트를 도출하는 방법을 논의하는 다양한 주제를 다룹니다.

자세히 알아보기

Complete the introductory Build LookML Objects in Looker skill badge to demonstrate skills in the following: building new dimensions and measures, views, and derived tables; setting measure filters and types based on requirements; updating dimensions and measures; building and refining Explores; joining views to existing Explores; and deciding which LookML objects to create based on business requirements.

자세히 알아보기

Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.

자세히 알아보기

중급 BigQuery ML로 ML 모델 만들기 기술 배지 과정을 완료하면 BigQuery ML로 머신러닝 모델을 만들고 평가하여 데이터 예측을 수행하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.

자세히 알아보기

초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받게 됩니다.

자세히 알아보기

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

자세히 알아보기

초급 Looker 대시보드 및 보고서를 위해 데이터 준비하기 기술 배지 과정을 완료하면 데이터를 필터링, 정렬, 피벗팅하고, 다른 Looker Explore의 결과를 병합하고, 함수 및 연산자를 사용해 데이터 분석 및 시각화를 위한 Looker 대시보드 및 보고서를 빌드하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유 가능한 기술 배지를 받을 수 있습니다.

자세히 알아보기

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

자세히 알아보기

초급 과정에서는 Google Cloud에서 데이터 분석 워크플로와 데이터를 탐색, 분석, 시각화하여 이해관계자와 결과물을 공유하는 데 활용할 수 있는 도구에 대해 학습합니다. 이 과정에서는 우수사례를 실무형 실습, 강의, 퀴즈/데모와 함께 활용해 원시 데이터 세트에서 데이터를 정리하여 효과적인 시각화 및 대시보드를 만드는 방법을 설명합니다. 이미 데이터를 활용하고 있고 Google Cloud를 효과적으로 활용하는 방법을 알고 싶거나 경력을 발전시키고 싶은 학습자라면 이 과정으로 학습을 시작해 보세요. 업무에서 데이터 분석을 수행하거나 활용하는 거의 모든 학습자에게 도움이 될 수 있습니다.

자세히 알아보기

초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.

자세히 알아보기

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

자세히 알아보기

중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.

자세히 알아보기

초급 Dataplex로 데이터 메시 빌드하기 기술 배지 과정을 완료하여, Dataplex를 통해 데이터 메시를 빌드해 Google Cloud에서 데이터 보안, 거버넌스, 탐색을 활용하는 역량을 입증하세요. Dataplex에서 애셋에 태그를 지정하고, IAM 역할을 할당하고, 데이터 품질을 평가하는 기술을 연습하고 테스트할 수 있습니다. 기술 배지는 개인의 Google Cloud 제품 및 서비스 능력에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크와 공유 가능한 디지털 배지를 받을 수 있습니다.

자세히 알아보기

중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.

자세히 알아보기

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

자세히 알아보기

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

자세히 알아보기

머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.

자세히 알아보기

스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및 변환을 스트리밍 데이터에 적용하는 방법과 처리된 레코드를 분석을 위해 BigQuery 또는 Bigtable에 저장하는 방법에 대해서도 다룹니다. Google Cloud에서 Qwiklabs를 사용해 스트리밍 데이터 파이프라인 구성요소를 빌드하는 실습을 진행해 볼 수도 있습니다.

자세히 알아보기

데이터 파이프라인은 일반적으로 추출-로드(EL), 추출-로드-변환(ELT) 또는 추출-변환-로드(ETL) 패러다임 중 하나에 속합니다. 이 과정에서는 일괄 데이터에 사용해야 할 패러다임과 사용 시기에 대해 설명합니다. 또한 BigQuery, Dataproc에서의 Spark 실행, Cloud Data Fusion의 파이프라인 그래프, Dataflow를 사용한 서버리스 데이터 처리 등 데이터 변환을 위한 Google Cloud의 여러 가지 기술을 다룹니다. Google Cloud에서 Qwiklabs를 사용해 데이터 파이프라인 구성요소를 빌드하는 실무형 실습도 진행합니다.

자세히 알아보기

데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Google Cloud의 데이터 엔지니어링' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 'Google Cloud에서 일괄 데이터 파이프라인 빌드하기' 과정에 등록하세요.

자세히 알아보기

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

자세히 알아보기