Inscreva-se Fazer login

Aplique suas habilidades no console do Google Cloud

Babak Jamshidi

Participante desde 2019

Liga Prata

4700 pontos
How Google Does Machine Learning - Português Brasileiro Earned Jun 17, 2023 EDT
Processamento de dados sem servidor com o Dataflow: operações Earned May 28, 2023 EDT
Processamento de dados sem servidor com o Dataflow: desenvolvimento de pipelines Earned May 25, 2023 EDT
Dados de engenharia para modelagem preditiva com o BigQuery ML Earned May 21, 2023 EDT
Processamento de dados sem servidor com o Dataflow: fundamentos Earned May 19, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Português Brasileiro Earned Apr 23, 2023 EDT
Como criar sistemas de análise de streaming resilientes no Google Cloud Earned Apr 14, 2023 EDT
Como criar pipelines de dados em lote no Google Cloud Earned Apr 8, 2023 EDT
Scientific Data Processing Earned Mar 22, 2023 EDT
Como modernizar data lakes e data warehouses com o Google Cloud Earned Mar 20, 2023 EDT
Criar um data warehouse com o BigQuery Earned Mar 12, 2023 EDT
Preparação para sua jornada da certificação Professional Data Engineer Earned Mar 12, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Português Brasileiro Earned Mar 12, 2023 EDT
Enterprise Database Migration Earned Mar 10, 2023 EST
Prepare os dados para relatórios e dashboards do Looker Earned Mar 8, 2023 EST
Preparar dados para APIs de ML no Google Cloud Earned Feb 25, 2023 EST
Noções básicas: dados, ML, IA Earned Feb 8, 2023 EST
Create and Manage AlloyDB Instances Earned Jan 28, 2023 EST
BigQuery for Data Warehousing Earned Jan 19, 2023 EST
DEPRECATED BigQuery Basics for Data Analysts Earned Jan 18, 2023 EST

Quais são as práticas recomendadas para implementar machine learning no Google Cloud? O que é Vertex AI e como é possível usar a plataforma para criar, treinar e implantar modelos de machine learning do AutoML com rapidez e sem escrever nenhuma linha de código? O que é machine learning e que tipos de problema ele pode resolver? O Google pensa em machine learning de uma forma um pouco diferente. Para nós, o processo de ML é sobre fornecer uma plataforma unificada para conjuntos de dados gerenciados, como uma Feature Store, uma forma de criar, treinar e implantar modelos de machine learning sem escrever nenhuma linha de código. Além disso, o ML também é sobre a habilidade de rotular dados, criar notebooks do Workbench usando frameworks (como TensorFlow, SciKit Learn, Pytorch e R) e muito mais. A plataforma Vertex AI também inclui a possibilidade de treinar modelos personalizados, criar pipelines de componente e realizar previsões em lote e on-line. Também falamos sobre as cinco fas…

Saiba mais

Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.

Saiba mais

Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.

Saiba mais

Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam sua habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado com sua rede.

Saiba mais

Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.

Saiba mais

A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.

Saiba mais

O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.

Saiba mais

Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.

Saiba mais

Big data, machine learning e dados científicos? Parece uma combinação perfeita. Nesta Quest de nível avançado, você terá experiência prática nos serviços do GCP, como o Big Query, o Dataproc e o Tensorflow, usando conjuntos de dados científicos reais. Em Scientific Data Processing, você ganhará experiência em tarefas como análise de dados de terremotos e agregação de imagens de satélites. Assim, você expandirá as habilidades em big data e machine learning e poderá solucionar seus problemas em diversas disciplinas científicas.

Saiba mais

Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".

Saiba mais

Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.

Saiba mais

Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.

Saiba mais

Este curso apresenta os produtos e serviços de Big Data e machine learning do Google Cloud que auxiliam no ciclo de vida de dados para IA. Ele explica os processos, os desafios e os benefícios de criar um pipeline de Big Data e modelos de machine learning com a Vertex AI no Google Cloud.

Saiba mais

This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.

Saiba mais

Conquiste o selo de habilidade introdutório Prepare os dados para relatórios e dashboards do Looker para mostrar que você sabe: filtrar, ordenar e dinamizar dados; mesclar resultados de diferentes Análises do Looker; e usar funções e operadores para criar dashboards e relatórios do Looker para análise e visualização de dados. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprova sua capacidade de aplicar esse conhecimento em um ambiente prático e interativo. Conclua este curso e o laboratório com desafio da avaliação final para receber um selo de habilidade que pode ser compartilhado com seus contatos.

Saiba mais

Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Google Cloud e testam sua habilidade de aplicar esse conhecimento em um ambiente prático e interativo. Conclua este curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado nas suas redes sociais e currículo.

Saiba mais

Big Data, machine learning e inteligência artificial são áreas da computação que estão em alta. Mas esses são campos muito especializados, e é difícil encontrar materiais introdutórios sobre eles. Felizmente, o Google Cloud oferece serviços fáceis de usar nessas áreas, e com este curso de nível básico, você já pode começar sua jornada com ferramentas como o BigQuery, a API Cloud Speech e o Video Intelligence.

Saiba mais

Complete the introductory Create and Manage AlloyDB Instances skill badge to demonstrate skills in the following: performing core AlloyDB operations and tasks, migrating to AlloyDB from PostgreSQL, administering an AlloyDB database, and accelerating analytical queries using the AlloyDB Columnar Engine.

Saiba mais

Quer criar ou otimizar um armazenamento de dados? Aprenda práticas recomendadas para extrair, transformar e carregar dados no Google Cloud com o BigQuery. Nesta série de laboratórios interativos, você vai criar e otimizar seu próprio armazenamento usando diversos conjuntos de dados públicos de grande escala do BigQuery. O BigQuery é um banco de dados de análise NoOps, totalmente gerenciado e de baixo custo desenvolvido pelo Google. Com ele, você pode consultar muitos terabytes de dados sem ter que gerenciar uma infraestrutura ou precisar de um administrador de banco de dados. O BigQuery usa SQL e está disponível no modelo de pagamento por utilização. Com ele, você se concentra na análise dos dados para encontrar insights relevantes.

Saiba mais

Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.

Saiba mais