Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Les applications d'IA générative peuvent créer de nouvelles expériences utilisateur qu'il était quasiment impossible d'obtenir avant l'invention des grands modèles de langage (LLM). En tant que développeur d'applications, comment pouvez-vous utiliser l'IA générative pour créer des applications interactives et performantes sur Google Cloud ? Dans ce cours, vous allez découvrir les applications d'IA générative, et comment vous pouvez utiliser la conception de requêtes et la génération augmentée par récupération (RAG) pour créer des applications performantes à l'aide de LLM. Vous allez vous familiariser avec une architecture prête pour la production qui peut être utilisée pour les applications d'IA générative, et vous allez créer une application de chat basée sur des LLM et sur le RAG.