Henry Rausch
Miembro desde 2024
Liga de Oro
3405 puntos
Miembro desde 2024
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
Obtén la insignia de habilidad intermedia Implementa aplicaciones de Kubernetes en Google Cloud y demuestra tus habilidades para configurar y crear imágenes de contenedores de Docker, crear y administrar clústeres de Google Kubernetes Engine (GKE), utilizar kubectl para la administración eficiente de clústeres y, además, implementar aplicaciones de Kubernetes con prácticas de entrega continua (CD) sólidas.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.