Este curso ayuda a los participantes a crear un plan de estudios para el examen de certificación de PMLE (Professional Machine Learning Engineer). Los estudiantes conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Combina la experiencia en la búsqueda y la IA de Google con Agentspace, una herramienta empresarial diseñada para ayudar a los empleados a encontrar información específica en almacenes de documentos, correos electrónicos, chats, sistemas de tickets y otras fuentes de datos, todo desde una sola barra de búsqueda. El asistente de Agentspace también puede ayudarte a generar ideas, investigar, crear esquemas de documentos y realizar acciones como invitar a compañeros de trabajo a un evento de calendario para acelerar el trabajo de conocimiento y la colaboración de todo tipo.
En este curso, se exploran los beneficios de utilizar Vertex AI Feature Store, cómo mejorar la exactitud de los modelos de AA y cómo descubrir cuáles columnas de datos producen los atributos más útiles. El curso también incluye contenido y labs sobre la ingeniería de atributos en los que se usan BigQuery ML, Keras y TensorFlow.
En este curso, se explica cómo crear modelos de AA con TensorFlow y Keras, cómo mejorar la exactitud de los modelos de AA y cómo escribir modelos de AA para uso escalado.
This Data Analytics course consists of a series of advanced-level labs designed to validate your proficiency in using Google Cloud services. Each lab presents a set of the required tasks that you must complete with minimal assistance. The labs in this course have replaced the previous L300 Data Analytics Challenge Lab. If you have already completed the Challenge Lab as part of your L300 accreditation requirement, it will be carried over and count towards your L300 status. You must score 80% or higher for each lab to complete this course, and fulfill your CEPF L300 Data Analytics requirement. For technical issues with a Challenge Lab, please raise a Buganizer ticket using this CEPF Buganizer template: go/cepfl300labsupport
El curso comienza con un debate sobre los datos: cómo mejorar su calidad y cómo realizar análisis exploratorios de ellos. Describimos Vertex AI AutoML y cómo crear, entrenar e implementar un modelo de AA sin escribir una sola línea de código. Conocerás los beneficios de BigQuery ML. Luego, se analiza cómo optimizar un modelo de aprendizaje automático (AA) y cómo la generalización y el muestreo pueden ayudar a evaluar la calidad de los modelos de AA para el entrenamiento personalizado.
En este curso, se presentan las ofertas de aprendizaje automático (AA) en Google Cloud que compilan proyectos de IA predictiva y generativa. También se exploran las tecnologías, los productos y las herramientas disponibles durante el ciclo de vida desde los datos hasta la IA, que engloban los fundamentos, el desarrollo y las soluciones de IA. El objetivo es ayudar a científicos de datos, ingenieros de AA y desarrolladores de IA a mejorar sus habilidades y conocimientos a través de experiencias de aprendizaje atractivas y ejercicios prácticos.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
El curso Explorador de IA generativa - Vertex AI es una colección de labs sobre cómo usar la IA generativa en Google Cloud. A través de los labs, aprenderás sobre cómo usar los modelos de la familia de APIs de PaLM de Vertex AI, incluidos text-bison, chat-bison y textembedding-gecko. También aprenderás sobre el diseño de instrucciones, las prácticas recomendadas y cómo se puede usar para la ideación, la clasificación, la extracción y el resumen de texto, y mucho más. También aprenderás a ajustar un modelo de base mediante el entrenamiento personalizado de Vertex AI y, luego, implementarlo en un extremo de Vertex AI.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Obtén la insignia de habilidad intermedia completando el curso Crea e implementa soluciones de aprendizaje automático en Vertex AI, en el que aprenderás a usar la plataforma de Vertex AI de Google Cloud, así como AutoML y los servicios de entrenamiento personalizado para entrenar, evaluar, ajustar y, además, implementar modelos de aprendizaje automático. Este curso con insignia de habilidad está dirigido a ingenieros de aprendizaje automático y científicos de datos profesionales. Una insignia de habilidad es una insignia digital exclusiva otorgada por Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad para aplicar tus conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir en tus redes.
Obtén una insignia de habilidad completando la Quest Crea un data lake seguro en Cloud Storage, en la que usas Cloud Storage, IAM y Dataplex en conjunto para crear un data lake seguro en Google Cloud.
Completa la insignia de habilidad introductoria Comienza a usar Dataplex para demostrar tus habilidades en las siguientes tareas: crear recursos de Dataplex, crear tipos de aspectos y aplicar aspectos a las entradas en Dataplex.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
En esta Quest de nivel básico, adquirirá experiencia práctica en las herramientas y los servicios fundamentales de Google Cloud Platform. GCP Essentials es la primera Quest recomendada para el estudiante de Google Cloud. Ingresará con poco o ningún conocimiento previo sobre la nube, y saldrá con experiencia práctica que podrá aplicar a su primer proyecto de GCP. Desde la escritura de comandos de Cloud Shell y la implementación de su primera máquina virtual hasta la ejecución de aplicaciones en Kubernetes Engine o mediante el balanceo de cargas, GCP Essentials es una excelente introducción a las funciones básicas de la plataforma. En los videos de 1 minuto, se le explicarán los conceptos clave de cada lab.