Kursus ini memperkenalkan Anda pada arsitektur Transformer dan model Representasi Encoder Dua Arah dari Transformer (Bidirectional Encoder Representations from Transformers atau BERT). Anda akan belajar tentang komponen utama arsitektur Transformer, seperti mekanisme self-attention, dan cara penggunaannya untuk membangun model BERT. Anda juga akan belajar tentang berbagai tugas yang dapat memanfaatkan BERT, seperti klasifikasi teks, menjawab pertanyaan, dan inferensi natural language. Kursus ini diperkirakan memakan waktu sekitar 45 menit untuk menyelesaikannya.
Kursus ini memberi Anda sinopsis tentang arsitektur encoder-decoder, yang merupakan arsitektur machine learning yang canggih dan umum untuk tugas urutan-ke-urutan seperti terjemahan mesin, ringkasan teks, dan tanya jawab. Anda akan belajar tentang komponen utama arsitektur encoder-decoder serta cara melatih dan menyalurkan model ini. Dalam panduan lab yang sesuai, Anda akan membuat kode pada penerapan simpel arsitektur encoder-decoder di TensorFlow untuk pembuatan puisi dari awal.
Kursus ini dikhususkan untuk membekali Anda dengan pengetahuan dan alat yang diperlukan guna mengungkap tantangan unik yang dihadapi oleh tim MLOps saat men-deploy dan mengelola model AI Generatif, serta mengeksplorasi cara Vertex AI memberdayakan tim AI dalam menyederhanakan proses MLOps dan mencapai keberhasilan dalam project AI Generatif.