Inscreva-se Fazer login

Aplique suas habilidades no console do Google Cloud

Matthew Billman

Participante desde 2019

Liga Bronze

5750 pontos
Arquitetura de codificador-decodificador Earned Sep 4, 2024 EDT
Modelos de transformador e modelo de BERT Earned Sep 4, 2024 EDT
Mecanismo de atenção Earned Sep 4, 2024 EDT
Introdução à geração de imagens Earned Sep 4, 2024 EDT
Criação de sistemas de machine learning de produção Earned Sep 3, 2024 EDT

Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.

Saiba mais

Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.

Saiba mais

Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).

Saiba mais

Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.

Saiba mais

Neste curso, vamos conhecer os componentes e as práticas recomendadas para criar sistemas de ML com alto desempenho em ambientes de produção. Vamos abordar algumas considerações comuns relacionadas à criação desses sistemas, como treinamento estático e dinâmico, inferência estática e dinâmica, TensorFlow distribuído e TPUs. O objetivo deste curso é conhecer as características de um sistema de ML eficiente, que vão muito além da capacidade de fazer boas previsões.

Saiba mais