This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Learners will get hands-on practice using Vertex AI Feature Store's streaming ingestion at the SDK layer.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Machine Learning Engineering professionals use tools for continuous improvement and evaluation of deployed models. They work with (or can be) Data Scientists, who develop models, to enable velocity and rigor in deploying the best performing models.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
Questo corso adotta un approccio pratico reale al flusso di lavoro ML attraverso un case study. Un team ML è chiamato a rispondere a numerosi requisiti aziendali e ad affrontare vari casi d'uso ML. Deve comprendere gli strumenti necessari per la gestione e la governance dei dati e considerare l'approccio migliore per la pre-elaborazione dei dati. Al team vengono presentate tre opzioni per creare modelli ML per due casi d'uso. Il corso spiega perché il team utilizzerà AutoML, BigQuery ML o l'addestramento personalizzato per raggiungere i propri obiettivi.
Questo corso illustra i vantaggi dell'utilizzo di Vertex AI Feature Store, come migliorare l'accuratezza dei modelli di ML e come trovare le colonne di dati che forniscono le caratteristiche più utili. Il corso include inoltre contenuti e lab sul feature engineering utilizzando BigQuery ML, Keras e TensorFlow.
Questo corso tratta la creazione di modelli ML con TensorFlow e Keras, il miglioramento dell'accuratezza dei modelli ML e la scrittura di modelli ML per l'uso su larga scala.
Il corso inizia con una discussione sui dati: come migliorare la qualità dei dati ed eseguire analisi esplorative dei dati. Descriveremo Vertex AI AutoML e come creare, addestrare ed eseguire il deployment di un modello di ML senza scrivere una sola riga di codice. Comprenderai i vantaggi di Big Query ML. Discuteremo quindi di come ottimizzare un modello di machine learning (ML) e di come la generalizzazione e il campionamento possano aiutare a valutare la qualità dei modelli di ML per l'addestramento personalizzato.
Questo corso presenta le offerte di intelligenza artificiale (AI) e machine learning (ML) su Google Cloud per la creazione di progetti di AI predittiva e generativa. Esplora le tecnologie, i prodotti e gli strumenti disponibili durante tutto il ciclo di vita data-to-AI, includendo le basi, lo sviluppo e le soluzioni di AI. Ha lo scopo di aiutare data scientist, sviluppatori di AI e ML engineer a migliorare le proprie abilità e conoscenze attraverso attività di apprendimento coinvolgenti ed esercizi pratici.
Il corso Viaggio nell'AI generativa - Vertex AI è una raccolta di lab su come utilizzare l'AI generativa su Google Cloud. Nei lab imparerai a utilizzare i modelli nella famiglia di API Vertex AI PaLM, tra cui text-bison, chat-bison, e textembedding-gecko. Acquisirai inoltre competenze su progettazione di prompt, best practice e modalità di utilizzo per l'ideazione, oltre che per la classificazione, l'estrazione e il riassunto di testi e altro ancora. Imparerai anche come ottimizzare un foundation model utilizzando l'addestramento personalizzato di Vertex AI ed eseguendone il deployment in un endpoint Vertex AI.
Questo corso illustra Generative AI Studio, un prodotto su Vertex AI che ti aiuta a prototipare e personalizzare i modelli di AI generativa in modo da poterne utilizzare le capacità nelle tue applicazioni. In questo corso imparerai cos'è Generative AI Studio, le sue funzionalità e opzioni e come utilizzarlo, esaminando le demo del prodotto. Alla fine, troverai un laboratorio pratico per mettere in pratica ciò che hai imparato e un quiz per testare le tue conoscenze.
Questo corso ti insegna come creare un modello per le didascalie delle immagini utilizzando il deep learning. Scoprirai i diversi componenti di un modello per le didascalie delle immagini, come l'encoder e il decoder, e imparerai ad addestrare e valutare il tuo modello. Alla fine di questo corso, sarai in grado di creare modelli personali per le didascalie delle immagini e utilizzarli per generare didascalie per le immagini.
Questo corso ti offre un riepilogo dell'architettura encoder-decoder, che è un'architettura di machine learning potente e diffusa per attività da sequenza a sequenza come traduzione automatica, riassunto del testo e risposta alle domande. Apprenderai i componenti principali dell'architettura encoder-decoder e come addestrare e fornire questi modelli. Nella procedura dettagliata del lab corrispondente, implementerai in TensorFlow dall'inizio un semplice codice dell'architettura encoder-decoder per la generazione di poesie da zero.
Questo corso ti introduce all'architettura Transformer e al modello BERT (Bidirectional Encoder Representations from Transformers). Scopri i componenti principali dell'architettura Transformer, come il meccanismo di auto-attenzione, e come viene utilizzata per creare il modello BERT. Imparerai anche le diverse attività per le quali può essere utilizzato il modello BERT, come la classificazione del testo, la risposta alle domande e l'inferenza del linguaggio naturale. Si stima che il completamento di questo corso richieda circa 45 minuti.
Questo corso ti introdurrà al meccanismo di attenzione, una potente tecnica che consente alle reti neurali di concentrarsi su parti specifiche di una sequenza di input. Imparerai come funziona l'attenzione e come può essere utilizzata per migliorare le prestazioni di molte attività di machine learning, come la traduzione automatica, il compendio di testi e la risposta alle domande.
Questo corso introduce i modelli di diffusione, una famiglia di modelli di machine learning che recentemente si sono dimostrati promettenti nello spazio di generazione delle immagini. I modelli di diffusione traggono ispirazione dalla fisica, in particolare dalla termodinamica. Negli ultimi anni, i modelli di diffusione sono diventati popolari sia nella ricerca che nella produzione. I modelli di diffusione sono alla base di molti modelli e strumenti di generazione di immagini all'avanguardia su Google Cloud. Questo corso ti introduce alla teoria alla base dei modelli di diffusione e a come addestrarli ed eseguirne il deployment su Vertex AI.
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
Complete the intermediate Create ML Models with BigQuery ML skill badge to demonstrate skills in creating and evaluating machine learning models with BigQuery ML to make data predictions.
This course helps you structure your preparation for the Professional Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge course, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Complete the intermediate Build a Data Warehouse with BigQuery skill badge to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge course, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Ottieni il corso intermedio con badge delle competenze Prepara i dati per le API ML su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: pulizia dei dati con Dataprep di Trifacta, esecuzione delle pipeline di dati in Dataflow, creazione dei cluster ed esecuzione dei job Apache Spark in Dataproc e richiamo delle API ML tra cui l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text e l'API Video Intelligence. Un badge delle competenze è un badge digitale esclusivo rilasciato da Google Cloud come riconoscimento della tua competenza nell'uso di prodotti e servizi Google Cloud dopo aver messo alla prova la tua capacità di applicare le tue conoscenze in un ambiente interattivo pratico. Completa questo corso con badge delle competenze e il Challenge Lab finale di valutazione per ricevere un badge delle competenze da condividere con la tua rete.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
L'elaborazione dei flussi di dati sta diventando sempre più diffusa poiché la modalità flusso consente alle aziende di ottenere parametri in tempo reale sulle operazioni aziendali. Questo corso tratta la creazione di pipeline di dati in modalità flusso su Google Cloud. Pub/Sub viene presentato come strumento per la gestione dei flussi di dati in entrata. Il corso spiega anche come applicare aggregazioni e trasformazioni ai flussi di dati utilizzando Dataflow e come archiviare i record elaborati in BigQuery o Bigtable per l'analisi. Gli studenti acquisiranno esperienza pratica nella creazione di componenti della pipeline di dati in modalità flusso su Google Cloud utilizzando QwikLabs.
L'integrazione del machine learning nelle pipeline di dati aumenta la capacità di estrarre insight dai dati. Questo corso illustra i modi in cui il machine learning può essere incluso nelle pipeline di dati su Google Cloud. Per una personalizzazione minima o nulla, il corso tratta di AutoML. Per funzionalità di machine learning più personalizzate, il corso introduce Notebooks e BigQuery Machine Learning (BigQuery ML). Inoltre, il corso spiega come mettere in produzione soluzioni di machine learning utilizzando Vertex AI.
Le pipeline di dati in genere rientrano in uno dei paradigmi EL (Extract, Load), ELT (Extract, Load, Transform) o ETL (Extract, Transform, Load). Questo corso descrive quale paradigma dovrebbe essere utilizzato e quando per i dati in batch. Inoltre, questo corso tratta diverse tecnologie su Google Cloud per la trasformazione dei dati, tra cui BigQuery, l'esecuzione di Spark su Dataproc, i grafici della pipeline in Cloud Data Fusion e trattamento dati serverless con Dataflow. Gli studenti fanno esperienza pratica nella creazione di componenti della pipeline di dati su Google Cloud utilizzando Qwiklabs.
I due componenti chiave di qualsiasi pipeline di dati sono costituiti dai data lake e dai data warehouse. In questo corso evidenzieremo i casi d'uso per ogni tipo di spazio di archiviazione e approfondiremo i dettagli tecnici delle soluzioni di data lake e data warehouse disponibili su Google Cloud. Inoltre, descriveremo il ruolo di un data engineer, illustreremo i vantaggi di una pipeline di dati di successo per le operazioni aziendali ed esamineremo i motivi per cui il data engineering dovrebbe essere eseguito in un ambiente cloud. Questo è il primo corso della serie Data engineering su Google Cloud. Dopo il completamento di questo corso, iscriviti al corso Creazione di pipeline di dati in batch su Google Cloud.