Rodrigo Ewerling
회원 가입일: 2020
다이아몬드 리그
127595포인트
회원 가입일: 2020
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
'생성형 AI 에이전트: 조직 혁신'은 생성형 AI 리더 학습 과정의 다섯 번째이자 마지막 과정입니다. 이 과정에서는 조직이 커스텀 생성형 AI 에이전트를 사용하여 어떻게 특정 비즈니스 과제를 해결할 수 있는지 살펴봅니다. 모델, 추론 루프, 도구와 같은 에이전트의 구성요소를 살펴보며 기본적인 생성형 AI 에이전트를 빌드하는 실무형 실습을 진행합니다.
'생성형 AI 앱: 업무 혁신'은 생성형 AI 리더 학습 과정의 네 번째 과정입니다. 이 과정에서는 Workspace를 위한 Gemini, NotebookLM 등 Google의 생성형 AI 애플리케이션을 소개합니다. 그라운딩, 검색 증강 생성, 효과적인 프롬프트 작성, 자동화된 워크플로 구축 등의 개념을 안내합니다.
'생성형 AI: 환경 살펴보기'는 생성형 AI 리더 학습 과정의 세 번째 과정입니다. 생성형 AI는 업무 방식을 비롯해 주변 세계와 상호작용하는 방식에 변화를 일으키고 있습니다. 리더로서 생성형 AI를 활용하여 실질적인 비즈니스 성과를 얻으려면 어떻게 해야 할까요? 이 과정에서는 생성형 AI 솔루션 빌드의 다양한 계층, Google Cloud 제품, 솔루션을 선택할 때 고려해야 할 요소를 살펴봅니다.
'생성형 AI: 기본 개념 이해'는 생성형 AI 리더 학습 과정의 두 번째 과정입니다. 이 과정에서는 생성형 AI의 기본 개념을 이해하기 위해 AI, ML, 생성형 AI의 차이점을 살펴보고 다양한 데이터 유형에서 생성형 AI로 어떻게 비즈니스 과제를 해결할 수 있는지 알아봅니다. 파운데이션 모델의 제한사항과 책임감 있고 안전한 AI 개발 및 배포의 주요 과제를 해결할 수 있도록 Google Cloud 전략에 관한 인사이트도 제공합니다.
'생성형 AI: 챗봇 그 이상의 가치'는 생성형 AI 리더 학습 과정의 첫 번째 과정이며 요구되는 기본 요건이 없습니다. 이 과정은 챗봇에 대한 기본적인 이해를 넘어 조직을 위한 생성형 AI의 진정한 잠재력을 살펴보는 것을 목표로 합니다. 생성형 AI의 강력한 기능을 활용하는 데 중요한 파운데이션 모델 및 프롬프트 엔지니어링과 같은 개념을 살펴봅니다. 또한 조직을 위한 성공적인 생성형 AI 전략을 개발할 때 고려해야 할 중요한 사항도 안내합니다.
This course explores the Geographic Information Systems (GIS), GIS Visualization, and machine learning enhancements to BigQuery.
This course explores how to implement a streaming analytics solution using Dataflow and BigQuery.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This course explores how to implement a streaming analytics solution using Pub/Sub.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataflow.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.
This course identifies best practices for migrating data warehouses to BigQuery and the key skills required to perform successful migration.
Welcome to Optimize in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on optimization.
Welcome to Design in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on schema design.
이 과정에서는 AI 개인 정보 보호 및 안전에 관한 중요한 주제를 소개합니다. Google Cloud 제품과 오픈소스 도구를 사용하여 AI 개인 정보 보호 및 안전 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
This course discusses the key elements of Google's Data Warehouse solution portfolio and strategy.
이 과정에서는 AI 해석 가능성과 투명성의 개념을 소개합니다. 개발자와 엔지니어에게 AI 투명성이 얼마나 중요한지를 설명합니다. 데이터와 AI 모델 모두에서 해석 가능성과 투명성을 구현하는 데 도움이 되는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 책임감 있는 AI라는 개념과 AI 원칙을 소개합니다. 공정성과 편향을 실질적으로 식별하고 AI/ML 실무에서 편향을 완화하는 기법을 알아봅니다. Google Cloud 제품과 오픈소스 도구를 사용하여 책임감 있는 AI 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이 발명되기 전에는 불가능에 가까웠던 새로운 사용자 경험을 만들 수 있습니다. 어떻게 하면 애플리케이션 개발자가 생성형 AI를 사용해 Google Cloud에서 강력한 대화형 앱을 빌드할 수 있을까요? 이 과정에서는 생성형 AI 애플리케이션에 대해 알아보고 프롬프트 설계 및 검색 증강 생성(RAG)을 사용해 LLM 기반의 강력한 애플리케이션을 빌드하는 방법을 학습합니다. 생성형 AI 애플리케이션에 사용할 수 있는 프로덕션 레디 아키텍처를 살펴보고 LLM 및 RAG 기반 채팅 애플리케이션을 빌드합니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정은 데이터 준비부터 모델 배포와 모니터링까지 전체 머신러닝 워크플로를 위한 통합 플랫폼을 제공하는 Jupyter 노트북 기반 환경인 Vertex AI Notebooks를 소개합니다. 이 과정에서는 (1) 다양한 유형의 Vertex AI Notebooks와 그 특징, (2) Vertex AI Notebooks를 만들고 관리하는 방법을 다룹니다.
이 과정에서는 데이터-AI 워크플로를 지원하는 AI 기반 기능 모음인 BigQuery의 Gemini에 관해 살펴봅니다. 이러한 기능에는 데이터 탐색 및 준비, 코드 생성 및 문제 해결, 워크플로 탐색 및 시각화 등이 있습니다. 이 과정은 개념 설명, 실제 사용 사례, 실무형 실습을 통해 데이터 실무자가 생산성을 향상하고 개발 파이프라인의 속도를 높이는 데 도움이 됩니다.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
Organizations of all sizes are embracing the power and flexibility of the cloud to transform how they operate. However, managing and scaling cloud resources effectively can be a complex task. Scaling with Google Cloud Operations explores the fundamental concepts of modern operations, reliability, and resilience in the cloud, and how Google Cloud can help support these efforts. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
As organizations move their data and applications to the cloud, they must address new security challenges. The Trust and Security with Google Cloud course explores the basics of cloud security, the value of Google Cloud's multilayered approach to infrastructure security, and how Google earns and maintains customer trust in the cloud. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Artificial intelligence (AI) and machine learning (ML) represent an important evolution in information technologies that are quickly transforming a wide range of industries. “Innovating with Google Cloud Artificial Intelligence” explores how organizations can use AI and ML to transform their business processes. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Many traditional enterprises use legacy systems and applications that can't stay up-to-date with modern customer expectations. Business leaders often have to choose between maintaining their aging IT systems or investing in new products and services. "Modernize Infrastructure and Applications with Google Cloud" explores these challenges and offers solutions to overcome them by using cloud technology. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Cloud technology can bring great value to an organization, and combining the power of cloud technology with data has the potential to unlock even more value and create new customer experiences. “Exploring Data Transformation with Google Cloud” explores the value data can bring to an organization and ways Google Cloud can make data useful and accessible. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
There's much excitement about cloud technology and digital transformation, but often many unanswered questions. For example: What is cloud technology? What does digital transformation mean? How can cloud technology help your organization? Where do you even begin? If you've asked yourself any of these questions, you're in the right place. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey. If you want to learn about cloud technology so you can excel in your role and help build the future of your business, then this introductory course on digital transformation is for you. This course is part of the Cloud Digital Leader learning path.
이 과정에서는 예측 및 생성형 AI 프로젝트를 모두 빌드하는 Google Cloud 기반 AI 및 머신러닝(ML) 제품군을 소개합니다. AI 기반, 개발, 솔루션을 모두 포함하여 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 기술과 제품, 도구를 살펴봅니다. 이 과정의 목표는 흥미로운 학습 경험과 실제적인 실무형 실습을 통해 데이터 과학자, AI 개발자, ML 엔지니어의 기술 및 지식 역량 강화를 지원하는 것입니다.
This is the second of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll explore how data is structured and organized. You’ll gain hands-on experience with the data lakehouse architecture and cloud components like BigQuery, Google Cloud Storage, and DataProc to efficiently store, analyze, and process large datasets.
이 과정은 학습자가 프로페셔널 머신러닝 엔지니어(PMLE) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야의 범위를 살펴보고 자신의 시험 준비 상태를 평가한 다음 개별 학습 계획을 세웁니다.
이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Earn a skill badge by completing the Share Data Using Google Data Cloud skill badge course, where you will gain practical experience with Google Cloud Data Sharing Partners, which have proprietary datasets that customers can use for their analytics use cases. Customers subscribe to this data, query it within their own platform, then augment it with their own datasets and use their visualization tools for their customer facing dashboards.
중급 Google Cloud에서 Cloud 보안 기본사항 구현하기 기술 배지 과정을 완료하여 Identity and Access Management(IAM)로 역할 생성 및 할당, 서비스 계정 생성 및 관리, 가상 프라이빗 클라우드(VPC) 네트워크에서 비공개 연결 사용 설정, IAP(Identity-Aware Proxy)를 사용한 애플리케이션 액세스 제한, Cloud Key Management Service(KMS)를 사용한 키와 암호화된 데이터 관리, 비공개 Kubernetes 클러스터 생성과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.
This skill badge course aims to unlock the power of data visualization and business intelligence reporting with Looker, and gain hands-on experience through labs.
Vertex AI에서 머신러닝 솔루션 빌드 및 배포하기 과정을 완료하여 중급 기술 배지를 획득하세요. 이 과정에서는 Google Cloud의 Vertex AI Platform, AutoML, 커스텀 학습 서비스를 사용해 머신러닝 모델을 학습, 평가, 조정, 설명, 배포하는 방법을 알아봅니다. 이 기술배지 과정은 전문 데이터 과학자 및 머신러닝 엔지니어를 대상으로 합니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받게 됩니다.
Pub/Sub 시작하기 퀘스트를 완료하고 기술 배지를 획득하세요. 퀘스트에서는 Cloud 콘솔을 통해 Pub/Sub를 사용하는 방법, Cloud Scheduler 작업이 사용자를 지원하는 방법, Pub/Sub Lite를 사용하여 높은 볼륨의 이벤트 수집에 드는 비용을 절감할 수 있는 경우를 학습합니다. 기술 배지는 개인의 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
Earn a skill badge by completing the Get Started with Looker skill badge course, where you learn how to analyze, visualize, and curate data using Looker Studio and Looker.
초급 Dataplex 시작하기 기술 배지 과정을 완료하여 Dataplex 애셋 생성, 관점 유형 생성, Dataplex의 항목에 관점 적용과 관련된 기술 역량을 입증하세요.
Earn a skill badge by completing the Get Started with Cloud Storage skill badge course, where you learn how to create a Cloud Storage bucket, how to use the Cloud Storage command line, and how to use Bucket Lock to protect objects in a bucket.
Earn a skill badge by completing the Create a Streaming Data Lake on Cloud Storage course, where you use Pub/Sub, Dataflow, and Cloud Storage together to create a streaming data lake on Google Cloud. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
Cloud Storage에서 안전한 데이터 레이크 만들기 퀘스트를 완료하고 기술 배지를 획득하세요. 이 퀘스트에서는 Cloud Storage, IAM, Dataplex를 사용해 Google Cloud에서 안전한 데이터 레이크를 만들어 봅니다.
Cloud Storage, Cloud Functions, and Cloud Pub/Sub are all Google Cloud Platform services that can be used to store, process, and manage data. All three services can be used together to create a variety of data-driven applications. In this skill badge you use Cloud Storage to store images, Cloud Functions to process the images, and Cloud Pub/Sub to send the images to another application.
Cloud Storage, Cloud Functions, Cloud Pub/Sub는 모두 데이터를 저장, 처리, 관리하는 데 사용할 수 있는 Google Cloud Platform 서비스입니다. 세 가지 서비스를 모두 활용하여 다양한 데이터 기반 애플리케이션을 만들 수 있습니다. 이 기술 배지 과정에서는 Cloud Storage를 사용하여 이미지를 저장하고, Cloud Functions를 사용하여 이미지를 처리하고, Cloud Pub/Sub를 사용하여 이미지를 다른 애플리케이션으로 보냅니다.
Earn a skill badge by completing the Use APIs to Work with Cloud Storage quest, where you learn how APIs work in Google, and how to use the Cloud Storage API specifically. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
Google Cloud Compute 기본 퀘스트를 완료하고 기술 배지를 획득하세요. 퀘스트에서는 Compute Engine을 사용하여 가상 머신(VM), 영구 디스크, 웹 서버로 작업하는 방법을 학습합니다. 기술 배지는 개인의 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.
Earn a skill badge by completing the Tag and Discover BigLake Data quest, where you use BigQuery, BigLake, and Data Catalog within Dataplex to create, tag, and discover BigLake tables. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
BigQuery로 스트리밍 분석 퀘스트를 완료하여 기술 배지를 획득하세요. 이 퀘스트에서는 Pub/Sub, Dataflow, BigQuery를 함께 사용하여 분석을 위한 데이터를 스트리밍합니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
Earn a skill badge by completing the Secure BigLake Data quest, where you use IAM, BigQuery, BigLake, and Data Catalog within Dataplex to create and secure BigLake tables. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
Complete the introductory Get Started with Sensitive Data Protection skill badge to demonstrate skills in the following: using Sensitive Data Protection services (including the Cloud Data Loss Prevention API) to inspect, redact, and de-identify sensitive data in Google Cloud. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge course, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Earn the introductory skill badge by completing the Monitoring in Google Cloud course, where you learn how to use Cloud Monitoring tools.
Earn a skill badge by completing the Integrate BigQuery Data and Google Workspace using Apps Script quest, where you learn ways to connect Workspace products with BigQuery by using App Sheet. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
This skill badge aims to evaluate a partner's ability to migrate data from Cloudera to Google Cloud Platform. Learners will gain hands-on experience through labs and achieve comprehensive knowledge and practical skills for migrating data from Cloudera to Google Cloud Platform.
This is the fifth of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll combine and apply the foundational knowledge and skills from courses 1-4 in a hands-on Capstone project that focuses on the full data lifecycle project. You’ll practice using cloud-based tools to acquire, store, process, analyze, visualize, and communicate data insights effectively. By the end of the course, you’ll have completed a project demonstrating their proficiency in effectively structuring data from multiple sources, presenting solutions to varied stakeholders, and visualizing data insights using cloud-based software. You’ll also update your resume and practice interview techniques to help prepare for applying and interviewing for jobs.
This is the fourth of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll focus on developing skills in the five key stages of visualizing data in the cloud: storytelling, planning, exploring data, building visualizations, and sharing data with others. You’ll also gain experience using UI/UX skills to wireframe impactful, cloud-native visualizations and work with cloud-native data visualization tools to explore datasets, create reports, and build dashboards that drive decisions and foster collaboration.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
This is the third of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll begin by getting an overview of the data journey, from collection to insights. You’ll then learn how to use SQL to transform raw data into a usable format. Next, you’ll learn how to transform high volumes of data with a data pipeline. Finally, you’ll gain experience applying transformation strategies to real data sets to solve business needs.
Complete the introductory Build LookML Objects in Looker skill badge course to demonstrate skills in the following: building new dimensions and measures, views, and derived tables; setting measure filters and types based on requirements; updating dimensions and measures; building and refining Explores; joining views to existing Explores; and deciding which LookML objects to create based on business requirements.
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
초급 Looker 대시보드 및 보고서를 위해 데이터 준비하기 기술 배지 과정을 완료하면 데이터를 필터링, 정렬, 피벗팅하고, 다른 Looker Explore의 결과를 병합하고, 함수 및 연산자를 사용해 데이터 분석 및 시각화를 위한 Looker 대시보드 및 보고서를 빌드하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유 가능한 기술 배지를 받을 수 있습니다.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
본 과정은 데이터 분석 작업에 BigQuery를 사용하는 방법을 배우고자 하는 데이터 분석가를 대상으로 고안되었습니다. 동영상, 실습, 데모를 통해 BigQuery에서 데이터를 수집, 변환, 쿼리하여 비즈니스 의사 결정에 도움이 되는 인사이트를 도출하는 방법을 논의하는 다양한 주제를 다룹니다.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
초급 과정에서는 Google Cloud에서 데이터 분석 워크플로와 데이터를 탐색, 분석, 시각화하여 이해관계자와 결과물을 공유하는 데 활용할 수 있는 도구에 대해 학습합니다. 이 과정에서는 우수사례를 실무형 실습, 강의, 퀴즈/데모와 함께 활용해 원시 데이터 세트에서 데이터를 정리하여 효과적인 시각화 및 대시보드를 만드는 방법을 설명합니다. 이미 데이터를 활용하고 있고 Google Cloud를 효과적으로 활용하는 방법을 알고 싶거나 경력을 발전시키고 싶은 학습자라면 이 과정으로 학습을 시작해 보세요. 업무에서 데이터 분석을 수행하거나 활용하는 거의 모든 학습자에게 도움이 될 수 있습니다.
중급 BigQuery ML로 ML 모델 만들기 기술 배지 과정을 완료하면 BigQuery ML로 머신러닝 모델을 만들고 평가하여 데이터 예측을 수행하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
Earn the intermediate skill badge by completing the Perform Predictive Data Analysis in BigQuery course, where you will gain practical experience on the fundamentals of sports data science using BigQuery, including how to create a soccer dataset in BigQuery by importing CSV and JSON files; harness the power of BigQuery with sophisticated SQL analytical concepts, including using BigQuery ML to train an expected goals model on the soccer event data, and evaluate the impressiveness of World Cup goals.
초급 Dataplex로 데이터 메시 빌드하기 기술 배지 과정을 완료하여, Dataplex를 통해 데이터 메시를 빌드해 Google Cloud에서 데이터 보안, 거버넌스, 탐색을 활용하는 역량을 입증하세요. Dataplex에서 애셋에 태그를 지정하고, IAM 역할을 할당하고, 데이터 품질을 평가하는 기술을 연습하고 테스트할 수 있습니다. 기술 배지는 개인의 Google Cloud 제품 및 서비스 능력에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크와 공유 가능한 디지털 배지를 받을 수 있습니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
Excited to follow your favorite soccer/football stars on their next quest? Use GenAIus Travel Guides to learn how to interact with chat applications, master prompt engineering, understand the importance of context in AI, and work with Generative AI. Earn an exclusive Google Cloud Generative AI Credential and showcase your new skills! No prior experience needed!
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
This is the first of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll define the field of cloud data analysis and describe roles and responsibilities of a cloud data analyst as they relate to data acquisition, storage, processing, and visualization. You’ll explore the architecture of Google Cloud-based tools, like BigQuery and Cloud Storage, and how they are used to effectively structure, present, and report data.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
Today, developers need all the tools to shine. Artifact Registry is your one-stop shop for storing and managing your code. Learn how to start building your dream code and earn a Google Cloud Credential along the way!- No prior experience needed!
Today's fast-paced digital world needs security experts. Become one by mastering the fine points of security and compliance in the Cloud! Boost your skillset with a Google Cloud Credential- No prior experience required!
Hey there! You're invited to game on with the Arcade Trivia for May Week 4! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 4 badge!
Discover the craft of turning data into actionable insights and earn a Google Cloud Credential along the way! No prior experience needed!
초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받게 됩니다.
Hey there! You're invited to game on with the Arcade Trivia for May Week 3! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 3 badge!
Hey there! You're invited to game on with the Arcade Trivia for May Week 2! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 2 badge!
Hey there! You're invited to game on with the Arcade Trivia for May Week 1! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 1 badge!
Google Cloud Certifications provide a tangible way for you to demonstrate your skills to potential or current employers. These certifications incorporate performance-based questions, testing your hands-on expertise through practical tasks. Begin your journey towards becoming a Google Certified Professional with the help of the Arcade Cert Zone. Be one of the first 20 people to complete the challenge and earn a 100% discount voucher for your next Google Cloud Digital Leader Examination. Welcome!
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
SQL만으로 몇 시간이 아닌 몇 분 만에 머신러닝 모델을 빌드하고 싶으신가요? BigQuery ML은 데이터 분석가가 기존 SQL 도구와 기술을 사용하여 머신러닝 모델을 만들고, 학습시키고, 평가하고, 예측할 수 있게 하여 머신러닝을 범용화합니다. 이 실습 시리즈에서는 다양한 모델 유형을 실험하고 좋은 모델을 만드는 요소를 알아봅니다.
In this series of labs you will learn how to use BigQuery to analyze NCAA basketball data with SQL. Build a Machine Learning Model to predict the outcomes of NCAA March Madness basketball tournament games.
Want to turn your marketing data into insights and build dashboards? Bring all of your data into one place for large-scale analysis and model building. Get repeatable, scalable, and valuable insights into your data by learning how to query it and using BigQuery. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Organizations around the world rely on Apache Kafka to integrate existing systems in real time and build a new class of event streaming applications that unlock new business opportunities. Google and Confluent are in a partnership to deliver the best event streaming service based on Apache Kafka and to build event driven applications and big data pipelines on Google Cloud Platform. In this game, you will first learn how to deploy and create a streaming data pipeline with Apache Kafka. You will then perform hand-on labs on the different functionalities of the Confluent Platform including deploying and running Apache Kafka on GKE and developing a Streaming Microservices Application.
Get hands-on practice with Google Cloud’s fundamental tools and services.You will compete with your peers to see who can finish this game with the most points. Speed and accuracy will be used to calculate your scores — earn points by completing the labs accurately and bonus points for speed! Be sure to click “End” where you’re done with each lab to be rewarded your points. All players who complete all of the labs will be awarded with this game badge. The access code for this game will be- "5a-devjam"
This quest offers hands-on practice with Cloud Data Fusion, a cloud-native, code-free, data integration platform. ETL Developers, Data Engineers and Analysts can greatly benefit from the pre-built transformations and connectors to build and deploy their pipelines without worrying about writing code. This Quest starts with a quickstart lab that familiarises learners with the Cloud Data Fusion UI. Learners then get to try running batch and realtime pipelines as well as using the built-in Wrangler plugin to perform some interesting transformations on data.
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
Google Cloud 네트워크 설정 과정을 완료하고 기술 배지를 획득하세요. 이 실습에서는 Google Cloud Platform에서 기본적인 네트워킹 작업을 수행하는 방법을 알아봅니다. 커스텀 네트워크를 만들고 서브넷 방화벽 규칙을 추가한 다음 VM을 만들고 VM이 서로 통신할 때의 지연 시간을 테스트합니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.
Google Cloud 네트워크 개발 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 IAM 역할 탐색 및 프로젝트 액세스 권한 추가/삭제, VPC 네트워크 생성, Compute Engine VM 배포 및 모니터링, SQL 쿼리 작성, Compute Engine에서 VM 배포 및 모니터링, Kubernetes를 여러 배포 접근 방식과 함께 사용하여 애플리케이션을 배포하는 등의 다양한 애플리케이션 배포 및 모니터링 방법을 배울 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
Using large scale computing power to recognize patterns and "read" images is one of the foundational technologies in AI, from self-driving cars to facial recognition. The Google Cloud Platform provides world class speed and accuracy via systems that can utilized by simply calling APIs. With these and a host of other APIs, GCP has a tool for just about any machine learning job. In this introductory quest, you will get hands-on practice with machine learning as it applies to image processing by taking labs that will enable you to label images, detect faces and landmarks, as well as extract, analyze, and translate text from within images.
Google Cloud 앱 개발 환경 설정 과정을 완료하여 기술 배지를 획득하세요. Cloud Storage, Identity and Access Management, Cloud Functions, Pub/Sub의 기본 기능을 사용하여 스토리지 중심 클라우드 인프라를 구축하고 연결하는 방법을 배울 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
이 과정은 Google Cloud 기본 개념 과정 이상의 지식을 얻기 위해 실무형 실습을 찾는 초보 클라우드 개발자에게 도움이 됩니다. 실습을 통해 Cloud Storage와 Monitoring 및 Cloud Functions 등 기타 주요 애플리케이션 서비스를 자세히 살펴보며 실무 경험을 쌓게 됩니다. 모든 Google Cloud 이니셔티브에 적용할 수 있는 유용한 기술을 개발할 수 있습니다.
중급 Google Cloud에서 DevOps 워크플로 구현 기술 배지 과정을 완료하여 Cloud Source Repositories로 Git 저장소 만들기, Google Kubernetes Engine(GKE)에서 배포 실행, 관리, 확장, 그리고 컨테이너 이미지 빌드 및 GKE로의 배포를 자동화하는 CI/CD 파이프라인 설계 등에 관한 기술을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
중급 Google Cloud에서 Kubernetes 애플리케이션 배포하기 기술 배지 과정을 완료하여 Docker 컨테이너 이미지 구성 및 빌드, Google Kubernetes Engine(GKE) 클러스터 생성 및 관리, kubectl을 활용한 효율적인 클러스터 관리, 강력한 지속적 배포(CD) 관행으로 Kubernetes 애플리케이션 배포를 위한 기술을 갖추었음을 입증하세요.
Obtain a competitive advantage through DevOps. DevOps is an organizational and cultural movement that aims to increase software delivery velocity, improve service reliability, and build shared ownership among software stakeholders. In this course you will learn how to use Google Cloud to improve the speed, stability, availability, and security of your software delivery capability. DevOps Research and Assessment has joined Google Cloud. How does your team measure up? Take this five question multiple-choice quiz and find out!
이 초급 과정에서는 다른 과정과 차별화된 실습을 제공합니다. 이 과정은 IT 전문가에게 Google Cloud 공인 어소시에이트 클라우드 엔지니어 자격증 시험에서 다루는 주제와 서비스에 대한 실무형 실습을 제공하도록 선별되었습니다. IAM, 네트워킹, Kubernetes Engine 배포 등에 대해 다루며 Google Cloud 지식을 테스트해 볼 수 있는 구체적인 실습으로 구성되어 있습니다. 이러한 실습만으로도 기술과 역량을 향상시킬 수 있지만 시험 가이드 및 함께 제공되는 다른 준비용 리소스도 검토해 보시기 바랍니다.
Cloud SQL is a fully managed database service that stands out from its peers due to high performance, seamless integration, and impressive scalability. In this quest you will receive hands-on practice with the basics of Cloud SQL and quickly progress to advanced features, which you will apply to production frameworks and application environments. From creating instances and querying data with SQL, to building Deployment Manager scripts and connecting Cloud SQL instances with applications run on GKE containers, this quest will give you the knowledge and experience needed so you can start integrating this service right away.
초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받게 됩니다.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Looking to build or optimize your data warehouse? Learn best practices to Extract, Transform, and Load your data into Google Cloud with BigQuery. In this series of interactive labs you will create and optimize your own data warehouse using a variety of large-scale BigQuery public datasets. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
Want to learn the core SQL and visualization skills of a Data Analyst? Interested in how to write queries that scale to petabyte-size datasets? Take the BigQuery for Analyst Quest and learn how to query, ingest, optimize, visualize, and even build machine learning models in SQL inside of BigQuery.
Earn the advanced skill badge by completing the Use Machine Learning APIs on Google Cloud course, where you learn the basic features for the following machine learning and AI technologies: Cloud Vision API, Cloud Translation API, and Cloud Natural Language API.
This is the first of two Quests of hands-on labs is derived from the exercises from the book Data Science on Google Cloud Platform, 2nd Edition by Valliappa Lakshmanan, published by O'Reilly Media, Inc. In this first Quest, covering up through chapter 8, you are given the opportunity to practice all aspects of ingestion, preparation, processing, querying, exploring and visualizing data sets using Google Cloud tools and services.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Big data, machine learning, and scientific data? It sounds like the perfect match. In this advanced-level quest, you will get hands-on practice with GCP services like Big Query, Dataproc, and Tensorflow by applying them to use cases that employ real-life, scientific data sets. By getting experience with tasks like earthquake data analysis and satellite image aggregation, Scientific Data Processing will expand your skill set in big data and machine learning so you can start tackling your own problems across a spectrum of scientific disciplines.
It's no secret that machine learning is one of the fastest growing fields in tech, and Google Cloud has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning APIs by taking labs like Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API. Looking for a hands-on challenge lab to demonstrate your skills and validate your knowledge? Enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
데이터 파이프라인은 일반적으로 추출-로드(EL), 추출-로드-변환(ELT) 또는 추출-변환-로드(ETL) 패러다임 중 하나에 속합니다. 이 과정에서는 일괄 데이터에 사용해야 할 패러다임과 사용 시기에 대해 설명합니다. 또한 BigQuery, Dataproc에서의 Spark 실행, Cloud Data Fusion의 파이프라인 그래프, Dataflow를 사용한 서버리스 데이터 처리 등 데이터 변환을 위한 Google Cloud의 여러 가지 기술을 다룹니다. Google Cloud에서 Qwiklabs를 사용해 데이터 파이프라인 구성요소를 빌드하는 실무형 실습도 진행합니다.
빅데이터, 머신러닝, 인공지능은 오늘날 인기 있는 컴퓨팅 관련 주제이지만 매우 전문화된 분야이기 때문에 초급용 자료를 구하기 어렵습니다. 다행히도 Google Cloud는 이러한 분야에서 사용자 친화적인 서비스를 제공하며 초급 과정을 통해 학습자에게 BigQuery, Cloud Speech API, Video Intelligence와 같은 도구를 사용해 시작할 기회를 제공합니다.
입문 Compute Engine에서 부하 분산 구현 기술 배지 과정을 완료하여 gcloud 명령어 작성 및 Cloud Shell 사용, Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 HTTP 부하 분산기 구성에 관한 본인의 기술을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스에 대한 개인의 숙련도를 인정하기 위해 Google Cloud에서 단독 발급하는 디지털 배지로서 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트합니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받게 됩니다.
가장 인기 있는 이 탐구 과정에서 Google Cloud를 처음으로 실습할 수 있습니다. Stackdriver 및 Kubernetes의 고급 개념으로 실습하여 VM 가동, 키 인프라 도구 구성과 같은 기본사항을 익혀 보세요.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및 변환을 스트리밍 데이터에 적용하는 방법과 처리된 레코드를 분석을 위해 BigQuery 또는 Bigtable에 저장하는 방법에 대해서도 다룹니다. Google Cloud에서 Qwiklabs를 사용해 스트리밍 데이터 파이프라인 구성요소를 빌드하는 실습을 진행해 볼 수도 있습니다.
데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Google Cloud의 데이터 엔지니어링' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 'Google Cloud에서 일괄 데이터 파이프라인 빌드하기' 과정에 등록하세요.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.