Unirse Acceder

Aplica tus habilidades en la consola de Google Cloud

Ruqiya Bin Safi

Miembro desde 2019

Liga de Plata

4230 puntos
Modelos de transformadores y modelo BERT Earned jun 24, 2023 EDT
Mecanismo de atención Earned jun 8, 2023 EDT
Arquitectura de codificador-decodificador Earned jun 8, 2023 EDT
Introducción a la IA responsable Earned jun 4, 2023 EDT
Introducción a los modelos de lenguaje grandes Earned jun 4, 2023 EDT
Cloud Hero BQML Earned may 24, 2023 EDT
Introducción a la IA generativa Earned may 17, 2023 EDT
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned abr 27, 2023 EDT
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned abr 27, 2023 EDT
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned abr 22, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned abr 22, 2023 EDT
Creación de sistemas de analíticas en tiempo real resilientes en Google Cloud Earned abr 22, 2023 EDT
Ingeniería de datos para crear modelos predictivos con BigQuery ML Earned abr 21, 2023 EDT
Creación de flujos de procesamiento de datos por lotes en Google Cloud Earned abr 20, 2023 EDT
Crea un almacén de datos con BigQuery Earned abr 18, 2023 EDT
Prepara datos para las APIs de AA en Google Cloud Earned abr 17, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned abr 14, 2023 EDT
Modernización de data lakes y almacenes de datos con Google Cloud Earned abr 14, 2023 EDT
Preparación para el proceso de certificación Professional Data Engineer Earned abr 13, 2023 EDT
DEPRECATED Creating with Google Maps Earned ene 31, 2020 EST
Conceptos básicos de Google Workspace Earned nov 26, 2019 EST
Advanced ML: ML Infrastructure Earned nov 26, 2019 EST
Intermediate ML: TensorFlow on Google Cloud Earned nov 25, 2019 EST
Introducción al AA: procesamiento de lenguaje Earned jul 3, 2019 EDT
Introducción al AA: procesamiento de imágenes Earned jul 3, 2019 EDT
[DEPRECATED] Data Engineering Earned jun 15, 2019 EDT
Modelo de referencia: datos, AA, IA Earned may 23, 2019 EDT
API de aprendizaje automático Earned may 23, 2019 EDT
Google Cloud Essentials Earned abr 3, 2019 EDT

En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.

Más información

Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.

Más información

En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.

Más información

Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.

Más información

Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.

Más información

Welcome Gamers! Learn the fundamentals of BQML, all while having fun! In this game, you will learn to use the python-based command line tool for BigQuery. The hands-on labs will help you create a machine learning model, a classification model, and a forecasting model. Earn the points by completing the steps in the lab... Be sure to click "End" when you're done with each lab to get the maximum points. All players will be awarded the game badge.

Más información

Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.

Más información

Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.

Más información

Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso con insignia de habilidad y el lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir con tus contactos.

Más información

Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información

In this quest you will use several tools available in Google Cloud to manipulate data and create a Google Map - map location details to find subway stations or a business; use geocoding and Apps Script to send an email of a map; visualize data on a customized map; and build a server-side proxy to create a map on a mobile device.

Más información

Workspace es la plataforma de aplicaciones de colaboración de Google que se ofrece a través de Google Cloud. En este curso de nivel introductorio, obtendrás experiencia práctica con las aplicaciones principales de Workspace desde la perspectiva del usuario. Aunque hay muchas más aplicaciones y componentes de herramientas en Workspace que los que se abordan aquí, obtendrás experiencia en las apps principales: Gmail, Calendario, Hojas de cálculo y más. Cada lab toma entre 10 y 15 minutos, pero se proporciona tiempo adicional para realizar una exploración autodidacta de las aplicaciones.

Más información

Machine Learning is one of the most innovative fields in technology, and the Google Cloud Platform has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning at scale and how to employ the advanced ML infrastructure available on Google Cloud.

Más información

TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.

Más información

No es ningún secreto que el aprendizaje automático es uno de los campos de mayor crecimiento en el ámbito de la tecnología, y Google Cloud desempeñó un papel decisivo para impulsar su desarrollo. Con su gran cantidad de APIs, GCP cuenta con una herramienta para casi cualquier trabajo de aprendizaje automático. En este curso introductorio, obtendrás experiencia práctica con el aprendizaje automático a medida que se aplica al procesamiento del lenguaje en labs que te permitirán extraer entidades de un texto, realizar análisis sintácticos y de opiniones, y usar la API de Speech-to-Text para la transcripción.

Más información

Usar potencia de procesamiento a gran escala para reconocer patrones y “leer” imágenes es una de las tecnologías fundamentales de la IA, que, por ejemplo, se usa en los vehículos autónomos y el reconocimiento facial. Google Cloud proporciona velocidad y precisión de primer nivel a través de sistemas que se pueden utilizar con solo llamar a las APIs. Con estas y muchas otras APIs, Google Cloud cuenta con herramientas para casi cualquier trabajo de aprendizaje automático. En este curso introductorio, obtendrás experiencia práctica con el aprendizaje automático a medida que se aplica a procesamiento de imágenes en labs que te permitirán etiquetar imágenes, detectar rostros y puntos de referencia, y también extraer, analizar y traducir texto de las imágenes.

Más información

This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.

Más información

Los macrodatos, el aprendizaje automático y la Inteligencia Artificial son temas informáticos populares en la actualidad; sin embargo, estos campos son muy especializados y es difícil conseguir material básico. Por suerte, Google Cloud proporciona servicios fáciles de usar en estas áreas y, con este curso de nivel básico, puedes dar tus primeros pasos con herramientas como BigQuery, la API de Cloud Speech y Video Intelligence.

Más información

No es ningún secreto que el aprendizaje automático es uno de los campos de mayor crecimiento en tecnología, y Google Cloud Platform desempeñó un papel decisivo como impulsor de su desarrollo. Con una gran cantidad de API, GCP cuenta con una herramienta para casi cualquier trabajo de aprendizaje automático. En esta Quest de nivel avanzado, adquirirá experiencia práctica en las API de aprendizaje automático cuando complete los labs Cómo implementar un chatbot de IA con Dialogflow y Cómo detectar etiquetas, rostros y puntos de referencia en imágenes con la API de Cloud Vision, entre otros.

Más información

En esta Quest de nivel básico, adquirirá experiencia práctica en las herramientas y los servicios fundamentales de Google Cloud Platform. GCP Essentials es la primera Quest recomendada para el estudiante de Google Cloud. Ingresará con poco o ningún conocimiento previo sobre la nube, y saldrá con experiencia práctica que podrá aplicar a su primer proyecto de GCP. Desde la escritura de comandos de Cloud Shell y la implementación de su primera máquina virtual hasta la ejecución de aplicaciones en Kubernetes Engine o mediante el balanceo de cargas, GCP Essentials es una excelente introducción a las funciones básicas de la plataforma. En los videos de 1 minuto, se le explicarán los conceptos clave de cada lab.

Más información