Stefan Mettler
Miembro desde 2023
Miembro desde 2023
Esta Quest de nivel avanzado es única entre las demás ofertas de Qwiklabs. Los labs se seleccionaron para ofrecer a los profesionales de TI prácticas con temas y servicios que aparecen en la certificación Professional Data Engineer de Google Cloud Certified. Desde BigQuery hasta Dataproc y TensorFlow, esta Quest se compone de labs específicos que pondrán a prueba sus conocimientos de ingeniería de datos de GCP. Tenga en cuenta que, si bien realizar estos labs le permitirá aumentar sus habilidades y capacidades, también necesitará otro tipo de preparación. El examen es bastante exigente y se recomienda contar con estudios externos, experiencia o capacitación en ingeniería de datos en la nube. Completa esta búsqueda, incluido el laboratorio de desafío al final, para recibir una insignia digital exclusiva de Google Cloud. El laboratorio de desafío no proporciona pasos prescriptivos, sino que requiere la creación de soluciones con una orientación mínima y pondrá a prueba sus habilidades te…
Los macrodatos, el aprendizaje automático y la inteligencia artificial son temas informáticos populares en la actualidad; sin embargo, estos campos son muy especializados y es difícil conseguir material básico. Afortunadamente, GCP ofrece servicios fáciles de usar en estas áreas y Qwiklabs le proporciona esta Quest de nivel básico para que pueda dar sus primeros pasos con herramientas como BigQuery, API de Cloud Speech y Cloud ML Engine. Completa esta búsqueda, incluido el laboratorio de desafío al final, para recibir una insignia digital exclusiva de Google Cloud. En los videos de 1 minuto, se le explicarán los conceptos clave de cada lab.
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Serverless Data Processing with Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad de las empresas para extraer estadísticas de sus datos. En este curso, veremos numerosas formas de incluir el aprendizaje automático en las canalizaciones de datos de Google Cloud según el nivel de personalización que se necesite. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Kubeflow. Los estudiantes obtendrán experiencia práctica en la creación de modelos de aprendizaje automático en Google Cloud con Qwiklabs.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Cloud Bigtable para analizarlos. Los estudiantes obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con Qwiklabs.
Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Data Engineering on Google Cloud. Después de completar este curso, inscríbase en Building Batch Data Pipelines on Google Cloud.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.