Tony Ng
회원 가입일: 2021
실버 리그
17185포인트
회원 가입일: 2021
이 과정에서는 Google Cloud에서 프로덕션 ML 시스템 배포, 평가, 모니터링, 운영을 위한 MLOps 도구와 권장사항을 소개합니다. MLOps는 프로덕션에서 ML 시스템을 배포, 테스트, 모니터링, 자동화하는 방법론입니다. 머신러닝 엔지니어링 전문가들은 배포된 모델의 지속적인 개선과 평가를 위해 도구를 사용합니다. 이들이 협력하거나 때론 그 역할을 하는 데이터 과학자는 고성능 모델을 빠르고 정밀하게 배포할 수 있도록 모델을 개발합니다.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
이 과정에서는 우수사례를 중심으로 ML 워크플로에 대한 실질적인 접근 방식을 취합니다. ML팀은 다양한 ML 비즈니스 요구사항과 사용 사례에 직면합니다. 팀에서는 데이터 관리 및 거버넌스에 필요한 도구를 이해하고 가장 효과적으로 데이터 전처리에 접근하는 방식을 파악해야 합니다. 두 가지 사용 사례를 위한 ML 모델을 빌드하는 세 가지 옵션이 팀에 제시됩니다. 이 과정에서는 목표를 달성하기 위해 AutoML, BigQuery ML 또는 커스텀 학습을 사용하는 이유를 설명합니다.
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
이 과정에서는 TensorFlow 및 Keras를 사용한 ML 모델 빌드, ML 모델의 정확성 개선, 사용 사례 확장을 위한 ML 모델 작성에 대해 다룹니다.
이 과정에서는 먼저 데이터에 관해 논의하면서 데이터 품질을 개선하고 탐색적 데이터 분석을 수행하는 방법을 알아봅니다. Vertex AI AutoML과 코드를 한 줄도 작성하지 않고 ML 모델을 빌드하고, 학습시키고, 배포하는 방법을 설명합니다. 학습자는 Big Query ML의 이점을 이해할 수 있습니다. 그런 다음, 머신러닝(ML) 모델 최적화 방법과 일반화 및 샘플링으로 커스텀 학습용 ML 모델 품질을 평가하는 방법을 다룹니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
Welcome to the TechCon Lab Bash 2022 hands-on lab event! Below, you are presented with a series of labs ranging from Level 100 to Level 400. Level 100 labs are video walkthroughs of the lab content. Level 200 labs are traditional Learning Labs which provide you with step-by-step instructions. Level 300 are Challenge Labs which provide you with limited instructions and a hands-on technical scenario to solve. Level 400 are break/fix labs where you must identify the issues in the environment and resolve them.