This course introduces you to the Transformer architecture and the Bidirectional Encoder Representations from Transformers (BERT) model. You learn about the main components of the Transformer architecture, such as the self-attention mechanism, and how it is used to build the BERT model. You also learn about the different tasks that BERT can be used for, such as text classification, question answering, and natural language inference.This course is estimated to take approximately 45 minutes to complete.
To szybkie szkolenie dla początkujących wyjaśnia, czym są duże modele językowe (LLM) oraz jakie są ich zastosowania. Przedstawia również możliwości zwiększenia ich wydajności przez dostrajanie przy użyciu promptów oraz narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.