Sai Siva Prabhu Teja Kondapalli
Jest członkiem od 2024
Liga złota
34935 pkt.
Jest członkiem od 2024
This course introduces the AI and machine learning (ML) offerings on Google Cloud that build both predictive and generative AI projects. It explores the technologies, products, and tools available throughout the data-to-AI life cycle, encompassing AI foundations, development, and solutions. It aims to help data scientists, AI developers, and ML engineers enhance their skills and knowledge through engaging learning experiences and practical hands-on exercises.
Im szerzej wykorzystuje się w firmach sztuczną inteligencję i systemy uczące się, tym większej wagi nabiera odpowiedzialne podejście do opracowywania tych technologii. Wielu organizacjom trudniej jest jednak wprowadzić zasady odpowiedzialnej AI w praktyce niż tylko o tym rozmawiać. To szkolenie jest przeznaczone dla osób, które chcą się dowiedzieć, jak wdrożyć odpowiedzialną AI w swojej organizacji. W jego trakcie dowiesz się, jak robimy to w Google Cloud, oraz poznasz sprawdzone metody i wnioski z naszych działań w tym zakresie. Pomoże Ci to opracować własne podejście do odpowiedzialnej AI.
Complete the introductory Prompt Design in Vertex AI skill badge to demonstrate skills in the following: prompt engineering, image analysis, and multimodal generative techniques, within Vertex AI. Discover how to craft effective prompts, guide generative AI output, and apply Gemini models to real-world marketing scenarios.
Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest odpowiedzialna AI i dlaczego jest ważna, oraz przedstawienie, jak Google wprowadza ją w swoich usługach. Szkolenie zawiera także wprowadzenie do siedmiu zasad Google dotyczących sztucznej inteligencji.
To szybkie szkolenie dla początkujących wyjaśnia, czym są duże modele językowe (LLM) oraz jakie są ich zastosowania. Przedstawia również możliwości zwiększenia ich wydajności przez dostrajanie przy użyciu promptów oraz narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.
Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest generatywna AI oraz jakie są jej zastosowania. Szkolenie przedstawia również różnice pomiędzy tą technologią a tradycyjnymi systemami uczącymi się, a także narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.
Ukończ szkolenie wprowadzające Tworzenie siatki danych przy użyciu Dataplex, aby zdobyć odznakę potwierdzającą zdobycie następujących umiejętności: tworzenie siatki danych przy użyciu Dataplex w celu ułatwienia zarządzania danymi oraz ich wykrywania i ochrony w Google Cloud. Przećwiczysz i sprawdzisz swoje umiejętności w zakresie tagowania zasobów, przypisywania ról uprawnień i oceny jakości danych w Dataplex.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.
Complete the intermediate Build a Data Warehouse with BigQuery skill badge course to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery.
Ukończ szkolenie wprowadzające Przygotowywanie danych do użycia z interfejsami ML w Google Cloud, aby zdobyć odznakę potwierdzającą zdobycie następujących umiejętności: czyszczenie danych przy użyciu usługi Dataprep firmy Trifacta, uruchamianie potoków danych w Dataflow, tworzenie klastrów i uruchamianie zadań Apache Spark w Dataproc, a także wywoływanie interfejsów API dotyczących uczenia maszynowego, w tym Cloud Natural Language API, Google Cloud Speech-to-Text API oraz Video Intelligence API. Odznaka umiejętności to wyjątkowa cyfrowa odznaka wydawana przez Google Cloud, która potwierdza Twoją wiedzę o produktach i usługach Google Cloud. Aby ją zdobyć, musisz pokazać, że potrafisz zastosować zdobytą wiedzę w praktycznym, interaktywnym środowisku. Ukończ to szkolenie oraz moduł Challenge Lab, aby zdobyć odznakę umiejętności, którą możesz udostępnić w swojej sieci kontaktów.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.