Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln