가입 로그인

Oskar Hurme

회원 가입일: 2023

실버 리그

6100포인트
Generative AI Explorer - Vertex AI 배지 Generative AI Explorer - Vertex AI Earned 2월 9, 2024 EST
Introduction to Generative AI Studio - 한국어 배지 Introduction to Generative AI Studio - 한국어 Earned 1월 11, 2024 EST
Create Image Captioning Models - 한국어 배지 Create Image Captioning Models - 한국어 Earned 1월 9, 2024 EST
Transformer Models and BERT Model - 한국어 배지 Transformer Models and BERT Model - 한국어 Earned 1월 8, 2024 EST
Encoder-Decoder Architecture - 한국어 배지 Encoder-Decoder Architecture - 한국어 Earned 12월 5, 2023 EST
Attention Mechanism - 한국어 배지 Attention Mechanism - 한국어 Earned 12월 1, 2023 EST
Introduction to Image Generation - 한국어 배지 Introduction to Image Generation - 한국어 Earned 12월 1, 2023 EST
Introduction to Generative AI - 한국어 배지 Introduction to Generative AI - 한국어 Earned 11월 20, 2023 EST

The Generative AI Explorer - Vertex Quest is a collection of labs on how to use Generative AI on Google Cloud. Through the labs, you will learn about how to use the models in the Vertex AI PaLM API family, including text-bison, chat-bison, and textembedding-gecko. You will also learn about prompt design, best practices, and how it can be used for ideation, text classification, text extraction, text summarization, and more. You will also learn how to tune a foundation model by training it via Vertex AI custom training and deploy it to a Vertex AI endpoint.

자세히 알아보기

이 과정에서는 생성형 AI 모델의 프로토타입을 제작하고 맞춤설정하여 애플리케이션에서 해당 기능을 사용할 수 있도록 도와주는 Vertex AI 제품인 생성형 AI 스튜디오를 소개합니다. 또한 생성형 AI 스튜디오의 정의, 기능 및 옵션, 작동 방식을 제품 데모를 살펴보면서 알아봅니다. 마지막에는 배운 내용을 적용해 볼 수 있는 실무형 실습과 지식을 테스트할 수 있는 퀴즈가 준비되어 있습니다.

자세히 알아보기

이 과정에서는 딥 러닝을 사용해 이미지 캡션 모델을 만드는 방법을 알아봅니다. 인코더 및 디코더와 모델 학습 및 평가 방법 등 이미지 캡션 모델의 다양한 구성요소에 대해 알아봅니다. 이 과정을 마치면 자체 이미지 캡션 모델을 만들고 이를 사용해 이미지의 설명을 생성할 수 있게 됩니다.

자세히 알아보기

이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.

자세히 알아보기

이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.

자세히 알아보기

이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.

자세히 알아보기

이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.

자세히 알아보기

생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.

자세히 알아보기