Meredith Olson
Miembro desde 2022
Liga de Plata
7390 puntos
Miembro desde 2022
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Organizaciones de todos los tamaños están aprovechando la potencia y flexibilidad de la nube para transformar sus operaciones. Sin embargo, administrar y escalar eficazmente los recursos en la nube puede ser una tarea compleja. En Escala con Google Cloud Operations, se exploran los conceptos fundamentales de las operaciones modernas, la confiabilidad y la resiliencia en la nube, y cómo Google Cloud puede ayudar con esas tareas. Como parte de la ruta de aprendizaje de Líder digital de Cloud, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
Muchas empresas tradicionales usan aplicaciones y sistemas heredados que no pueden adecuarse a las expectativas de los clientes actuales. A menudo los líderes empresariales deben elegir entre mantener sus sistemas de TI anticuados o invertir en nuevos productos y servicios. En “Moderniza infraestructura y aplicaciones con Google Cloud”, se exploran estos desafíos y se ofrecen soluciones para superarlos con la tecnología de la nube. Como parte de la ruta de aprendizaje de Líder digital de Cloud, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
La tecnología de Cloud puede aportar un gran valor a una organización y, si la combinamos con datos, podemos generar aún más valor y crear nuevas experiencias para los clientes.En “Explora la transformación de datos con Google Cloud”, se explora el valor que los datos pueden aportar a una organización y las formas en que Google Cloud puede hacer que estos sean útiles y accesibles.Como parte de la ruta de aprendizaje de Líder digital de Cloud, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
Existe mucho entusiasmo sobre la tecnología de la nube y la transformación digital, pero también muchas preguntas sin respuesta. Por ejemplo: ¿Qué es la tecnología de la nube? ¿Qué significa transformación digital? ¿De qué manera puede ser útil la tecnología de la nube para la organización? ¿Cómo se puede comenzar? Si te has hecho alguna de esas preguntas, estás en el lugar indicado. En este curso, se proporciona una descripción general de los tipos de oportunidades y desafíos a los que las empresas suelen enfrentarse en su recorrido de transformación digital. Si quieres aprender sobre la tecnología de la nube para sobresalir en tu rol y ayudar a desarrollar el futuro de tu empresa, entonces este curso introductorio sobre transformación digital es para ti. Este curso es parte de la ruta de aprendizaje de Líder digital de Cloud.
¿Cuáles son las prácticas recomendadas para implementar el aprendizaje automático en Google Cloud? ¿Qué es Vertex AI y cómo se puede utilizar la plataforma para crear, entrenar e implementar rápidamente modelos de aprendizaje automático de AutoML sin escribir una sola línea de código? ¿Qué es el aprendizaje automático? ¿Qué tipos de problemas puede solucionar? Google considera que el aprendizaje automático es diferente: se trata de proporcionar una plataforma unificada para conjuntos de datos administrados, un almacén de atributos, una forma de crear, entrenar e implementar modelos de aprendizaje automático sin escribir una sola línea de código, así como proporcionar la capacidad de etiquetar datos y crear notebooks de Workbench utilizando frameworks como TensorFlow, SciKit-learn, Pytorch, R y otros. Vertex AI Platform también ofrece la posibilidad de entrenar modelos personalizados, crear canalizaciones de componentes y realizar predicciones en línea y por lotes. Además, analiza…
Complete the introductory Create and Manage Bigtable Instances skill badge to demonstrate skills in the following: creating instances, designing schemas, querying data, and performing administrative tasks in Bigtable including monitoring performance and configuring node autoscaling and replication.
Complete the introductory Create and Manage Cloud Spanner Instances skill badge to demonstrate skills in the following: creating and interacting with Cloud Spanner instances and databases; loading Cloud Spanner databases using various techniques; backing up Cloud Spanner databases; defining schemas and understanding query plans; and deploying a Modern Web App connected to a Cloud Spanner instance.
This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.
Aspectos básicos de Google Cloud: Infraestructura principal presenta conceptos y terminología importantes para trabajar con Google Cloud. Mediante videos y labs prácticos, en este curso se presentan y comparan muchos de los servicios de procesamiento y almacenamiento de Google Cloud, junto con importantes recursos y herramientas de administración de políticas.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.
Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Para ganar una insignia de habilidad, completa el curso Configura un entorno de desarrollo de apps en Google Cloud. Allí aprenderás a crear y conectar una infraestructura de nube centrada en el almacenamiento usando las capacidades básicas de las siguientes tecnologías: Cloud Storage, Identity and Access Management, Cloud Functions y Pub/Sub. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia que puedes compartir con tu red.
¿Macrodatos, aprendizaje automático y datos científicos? Parece la combinación perfecta. En esta Quest de nivel avanzado, obtendrá experiencia práctica en servicios de GCP como Big Query, Dataproc y Tensorflow, aplicándolos a casos prácticos en los que se usan conjuntos de datos científicos de la vida real. Mediante la adquisición de experiencia en tareas como el análisis de datos de terremotos y la agregación de imágenes satelitales, Scientific Data Processing lo ayudará a expandir sus habilidades en macrodatos y aprendizaje automático para que pueda solucionar problemas propios relacionados con un amplio espectro de disciplinas científicas.
In this course you will learn how to use several BigQuery ML features to improve retail use cases. Predict the demand for bike rentals in NYC with demand forecasting, and see how to use BigQuery ML for a classification task that predicts the likelihood of a website visitor making a purchase.
Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso y el lab de desafío de la evaluación final para recibir una insignia de habilidad que puedes compartir con tus contactos.
Los macrodatos, el aprendizaje automático y la Inteligencia Artificial son temas informáticos populares en la actualidad; sin embargo, estos campos son muy especializados y es difícil conseguir material básico. Por suerte, Google Cloud proporciona servicios fáciles de usar en estas áreas y, con este curso de nivel básico, puedes dar tus primeros pasos con herramientas como BigQuery, la API de Cloud Speech y Video Intelligence.
Complete the introductory Create and Manage AlloyDB Instances skill badge to demonstrate skills in the following: performing core AlloyDB operations and tasks, migrating to AlloyDB from PostgreSQL, administering an AlloyDB database, and accelerating analytical queries using the AlloyDB Columnar Engine.
¿Quieres compilar modelos de AA en minutos en lugar de horas utilizando únicamente SQL? BigQuery ML democratiza el aprendizaje automático, ya que permite que los analistas de datos creen, entrenen, evalúen y realicen predicciones con modelos de aprendizaje automático a través de herramientas y habilidades de SQL existentes. En esta serie de labs, experimentarás con diferentes tipos de modelos y aprenderás cuáles son las características de un buen modelo.
En esta Quest de nivel básico, adquirirá experiencia práctica en las herramientas y los servicios fundamentales de Google Cloud Platform. GCP Essentials es la primera Quest recomendada para el estudiante de Google Cloud. Ingresará con poco o ningún conocimiento previo sobre la nube, y saldrá con experiencia práctica que podrá aplicar a su primer proyecto de GCP. Desde la escritura de comandos de Cloud Shell y la implementación de su primera máquina virtual hasta la ejecución de aplicaciones en Kubernetes Engine o mediante el balanceo de cargas, GCP Essentials es una excelente introducción a las funciones básicas de la plataforma. En los videos de 1 minuto, se le explicarán los conceptos clave de cada lab.
In this fundamental-level course, you will learn the ins and outs of Google Cloud's operations suite running on Google Kubernetes Engine, an important service for generating insights into the health of your applications. It provides a wealth of information in application monitoring, report logging, and diagnoses. The labs in this course will give you hands-on practice with and will teach you how to monitor virtual machines, generate logs and alerts, and create custom metrics for application data. It is recommended that the students have at least earned a Badge by completing the Google Cloud Essentials course. Additional lab experience with the labs in the Baseline - Infrastructure course will also be useful. Looking for a hands-on challenge lab to demonstrate your skills and validate your knowledge? On completing this course, enroll in and finish the additional challenge lab at the end of this course to receive an exclusive Google Cloud digital badge.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
In this series of labs you will learn how to use BigQuery to analyze NCAA basketball data with SQL. Build a Machine Learning Model to predict the outcomes of NCAA March Madness basketball tournament games.
In this quest you will get hands-on experience writing infrastructure as code with Terraform.