Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les participants s'entraîneront à utiliser l'ingestion en flux continu de Vertex AI Feature Store au niveau du SDK.
Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les ingénieurs en machine learning utilisent des outils pour améliorer et évaluer en permanence les modèles déployés. Ils collaborent avec des data scientists (ou peuvent occuper ce poste) qui développent des modèles permettant de déployer de manière rapide et rigoureuse les solutions de machine learning les plus performantes.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
Ce cours présente une approche pratique du workflow de ML avec une étude de cas dans laquelle une équipe est confrontée à plusieurs exigences métier et cas d'utilisation de ML. Cette équipe doit comprendre quels outils sont nécessaires pour gérer et gouverner les données, et trouver la meilleure approche pour les prétraiter. On présente à cette équipe trois options de création de modèles de ML pour deux cas d'utilisation spécifiques. Ce cours explique pourquoi l'équipe tire parti des avantages d'AutoML, de BigQuery ML ou de l'entraînement personnalisé pour atteindre ses objectifs.
Ce cours présente les avantages liés à l'utilisation de Vertex AI Feature Store, ainsi que la manière d'améliorer la précision des modèles de ML et de déterminer les colonnes de données présentant les caractéristiques les plus utiles. Ce cours inclut également du contenu et des ateliers portant sur l'ingénierie des caractéristiques à l'aide de BigQuery ML, Keras et TensorFlow.
Ce cours porte sur la création de modèles de ML à l'aide de TensorFlow et Keras, l'amélioration de la précision des modèles de ML et l'écriture de modèles de ML pour une utilisation évolutive.
Le cours commence par une discussion sur les données : vous découvrirez comment améliorer leur qualité et effectuer des analyses exploratoires. Ensuite, nous vous présenterons Vertex AI AutoML et vous expliquerons comment créer, entraîner et déployer un modèle de machine learning (ML) sans écrire une ligne de code. Vous découvrirez également les avantages de BigQuery ML. Enfin, nous verrons comment optimiser un modèle de ML, et en quoi la généralisation ainsi que l'échantillonnage peuvent vous aider à évaluer la qualité des modèles de ML destinés à un entraînement personnalisé.
Ce cours présente les solutions d'IA et de machine learning (ML) de Google Cloud permettant de développer des projets d'IA prédictive et générative. Il décrit les technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, en englobant les éléments de base, le développement et les solutions d'IA. Son but est d'aider les data scientists, les développeurs d'IA et les ingénieurs en ML à améliorer leurs compétences et connaissances par le biais d'expériences d'apprentissage captivantes et d'exercices pratiques.
Le cours "Explorateur de l'IA générative – Vertex AI" est un ensemble d'ateliers consacrés à l'utilisation de l'IA générative sur Google Cloud. Vous apprendrez à utiliser les modèles de la famille d'API PaLM Vertex AI comme text-bison, chat-bison, et textembedding-gecko. Vous découvrirez également comment rédiger des prompts, quelles bonnes pratiques appliquer, et comment utiliser l'IA générative pour l'idéation, la classification et l'extraction de texte, la création de synthèses, et plus encore. Enfin, vous apprendrez à régler un modèle de fondation à l'aide de l'entraînement personnalisé Vertex AI et à le déployer sur un point de terminaison Vertex AI.
Ce cours présente Vertex AI Studio, un outil permettant d'interagir avec des modèles d'IA générative, de prototyper des idées commerciales et de les envoyer en production. Au moyen d'un cas d'utilisation immersif, de leçons captivantes et d'un atelier pratique, vous allez découvrir le cycle de vie de la requête au produit. Vous apprendrez également à utiliser Vertex AI Studio pour les applications multimodales Gemini, la conception de requêtes, le prompt engineering (ingénierie des requêtes) et le réglage de modèles. L'objectif est de vous permettre d'exploiter tout le potentiel de l'IA générative dans vos projets avec Vertex AI Studio.
Dans ce cours, vous allez apprendre à créer un modèle de sous-titrage d'images à l'aide du deep learning. Vous découvrirez les différents composants de ce type de modèle, comme l'encodeur et le décodeur, et comment l'entraîner et l'évaluer. À la fin du cours, vous serez en mesure de créer vos propres modèles de sous-titrage d'images et de les utiliser pour générer des sous-titres pour des images.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
This course helps you structure your preparation for the Professional Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez le cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge numérique que vous pourrez partager avec votre réseau.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.
Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".