Completa la insignia de habilidad intermedia Administra Kubernetes en Google Cloud para demostrar tus capacidades para administrar implementaciones con kubectl y supervisar y depurar aplicaciones en Google Kubernetes Engine (GKE), así como con las técnicas de entrega continua. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud para reconocer que dominas sus productos y servicios, y que pone a prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el lab de desafío de la evaluación final, y recibirás una insignia digital que puedes compartir con tus contactos.
Obtén la insignia de habilidad intermedia completando el curso Implementa canalizaciones de CI/CD en Google Cloud en el que aprenderás a usar Artifact Registry, Cloud Build y Cloud Deploy. Interactuarás con la consola de Cloud, Google Cloud CLI, Cloud Run y GKE. En este curso, aprenderás a crear canalizaciones de integración continua, almacenar y proteger artefactos, analizar vulnerabilidades, atestiguar la validez de lanzamientos aprobados. Además, obtendrás experiencia práctica en la implementación de aplicaciones tanto a GKE como a Cloud Run. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir con tus contactos.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso y el lab de desafío de la evaluación final para recibir una insignia de habilidad que puedes compartir con tus contactos.
En este curso, descubrirás cómo Gemini, un colaborador potenciado por IA generativa de Google Cloud, ayuda a analizar los datos de los clientes y predecir las ventas de productos. También aprenderás a identificar, categorizar y desarrollar los clientes nuevos usando datos de clientes en BigQuery. A través de labs prácticos, comprobarás cómo Gemini mejora los flujos de trabajo de análisis de datos y aprendizaje automático. Recuerda que Duet AI ahora se llama Gemini, nuestro modelo de nueva generación.
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
This course is an introduction to building forecasting solutions with Google Cloud. You start with sequence models and time series foundations. You then walk through an end-to-end workflow: from data preparation to model development and deployment with Vertex AI. Finally, you learn the lessons and tips from a retail use case and apply the knowledge by building your own forecasting models.
Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.
Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.