Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.
Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam sua habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado com sua rede.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Google Cloud e testam sua habilidade de aplicar esse conhecimento em um ambiente prático e interativo. Conclua este curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado nas suas redes sociais e currículo.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.
Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
Receba um selo de habilidade ao concluir os cursos "Introduction to Generative AI", "Introduction to Large Language Models" e "Introduction to Responsible AI". Consiga a aprovação nos testes finais dos cursos para demonstrar seu conhecimento sobre os conceitos básicos da IA generativa. Os selos de habilidades são digitais. Eles são emitidos pelo Google Cloud como forma de reconhecer sua capacidade de trabalhar com os produtos e serviços do Cloud. Torne seu perfil público e adicione os selos de habilidades às suas mídias sociais para mostrar seus conhecimentos.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Welcome to Cloud Composer, where we discuss how to orchestrate data lake workflows with Cloud Composer.
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Este curso apresenta os produtos e serviços de Big Data e machine learning do Google Cloud que auxiliam no ciclo de vida de dados para IA. Ele explica os processos, os desafios e os benefícios de criar um pipeline de Big Data e modelos de machine learning com a Vertex AI no Google Cloud.