Neste curso, os participantes vão conhecer as ferramentas de MLOps e as práticas recomendadas para a implantação, a avaliação, o monitoramento e a operação de sistemas de ML de produção no Google Cloud. MLOps é uma disciplina com foco na implantação, teste, monitoramento e automação de sistemas de ML em produção. Também incluímos experiências práticas de uso da ingestão de streaming do Vertex AI Feature Store na camada do SDK.
Neste curso, os participantes vão conhecer as ferramentas de MLOps e as práticas recomendadas para a implantação, a avaliação, o monitoramento e a operação de sistemas de ML de produção no Google Cloud. MLOps é uma disciplina com foco na implantação, no teste, no monitoramento e na automação de sistemas de ML em produção. Profissionais de engenharia de machine learning usam ferramentas para fazer melhorias contínuas e avaliações de modelos implantados. São profissionais que trabalham com ciências de dados e desenvolvem modelos para garantir a velocidade e o rigor na implantação de modelos com melhor desempenho.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
Este curso tem uma abordagem realista para o fluxo de trabalho de ML usando um estudo de caso em que uma equipe tem vários casos de uso e exigências comerciais em ML. Essa equipe precisa conhecer as ferramentas necessárias para a governança e o gerenciamento de dados e decidir a melhor abordagem para o processamento deles. A equipe terá três opções para criar modelos de ML em dois casos de uso. Neste curso, explicamos quando usar o AutoML, o BigQuery ML ou o treinamento personalizado para alcançar os objetivos.
O curso apresenta os benefícios de usar a Vertex AI Feature Store e ensina a melhorar a acurácia dos modelos de ML e a identificar as colunas de dados que apresentam os atributos mais úteis. Ele também oferece conteúdo teórico e laboratórios sobre engenharia de atributos com BigQuery ML, Keras e TensorFlow.
Este curso ensina a criar modelos de ML com o TensorFlow e o Keras, melhorar a acurácia deles e desenvolver modelos para uso em escala.
O curso começa com a seguinte discussão: como melhorar a qualidade dos dados e fazer uma análise exploratória deles? Descrevemos o AutoML na Vertex AI e como criar, treinar e implantar um modelo de ML sem escrever nenhuma linha de código. Você vai conhecer os benefícios do BigQuery ML. Depois vamos falar sobre como otimizar um modelo de machine learning (ML) e como a generalização e a amostragem podem ajudar na avaliação de qualidade dos modelos de ML em treinamentos personalizados.
Neste curso, apresentamos os recursos de IA e machine learning (ML) no Google Cloud que criam projetos de IA generativa e preditiva. Vamos conhecer as tecnologias, os produtos e as ferramentas disponíveis em todo o ciclo de vida de dados à IA, o que inclui os fundamentos dessa tecnologia, o desenvolvimento e as soluções dela. O objetivo é ajudar cientistas de dados, desenvolvedores de IA e engenheiros de ML a aprimorar habilidades e o conhecimento com experiências de aprendizado envolventes e exercícios práticos.
O curso Descobrindo a IA Generativa - Vertex AI é uma coleção de laboratórios sobre como usar a IA generativa no Google Cloud. Nos laboratórios, você vai aprender como usar os modelos da família da API Vertex AI PaLM, incluindo text-bison, chat-bison, e textembedding-gecko. Você também vai aprender sobre design de comandos, práticas recomendadas, e como isso pode ser usado para gerar ideias, classificar, extrair e resumir textos e muito mais. Saiba também como ajustar um modelo de fundação com um treinamento personalizado no Vertex AI e implantá-lo em um endpoint do Vertex AI.
Neste curso, vamos conhecer o Vertex AI Studio, uma ferramenta para interagir com modelos de IA generativa, prototipar ideias comerciais e colocá-las em produção. Com a ajuda de um caso de uso imersivo, lições interessantes e um laboratório, você vai conhecer o ciclo de vida do comando à produção, além de usar o Vertex AI Studio para aplicativos multimodais do Gemini, design e engenharia de comandos e ajuste de modelos. O objetivo é permitir que você descubra todo o potencial da IA generativa nos seus projetos com o Vertex AI Studio.
Neste curso, ensinamos a criar um modelo de legenda para imagens usando aprendizado profundo. Você vai aprender sobre os diferentes componentes de um modelo de legenda para imagens, como o codificador e decodificador, e de que forma treinar e avaliar seu modelo. Ao final deste curso, você será capaz de criar e usar seus próprios modelos de legenda para imagens.
Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.
Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.
Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).
Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
Conclua o selo de habilidade intermediário Criar modelos de ML com o BigQuery ML para mostrar que você sabe: criar e avaliar modelos de machine learning usando o BigQuery ML para fazer previsões de dados. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam a habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua este curso e o laboratório com desafio da avaliação final para receber um selo de habilidade que pode ser compartilhado com seus contatos.
This course helps you structure your preparation for the Professional Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam sua habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado com sua rede.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Google Cloud e testam sua habilidade de aplicar esse conhecimento em um ambiente prático e interativo. Conclua este curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado nas suas redes sociais e currículo.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.
Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".