Teilnehmen Anmelden

Ihre Kompetenzen in der Google Cloud Console anwenden

Norah Guetari

Mitglied seit 2023

Silver League

2310 Punkte
Natural Language Processing on Google Cloud Earned Mär 6, 2025 EST
Einstieg in die Bildgenerierung Earned Mai 25, 2023 EDT
Transformer-Modelle und BERT-Modell Earned Mai 25, 2023 EDT
Aufmerksamkeitsmechanismus Earned Mai 25, 2023 EDT
Einführung in Large Language Models Earned Mai 25, 2023 EDT
Einführung in generative KI Earned Mai 25, 2023 EDT

This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.

Weitere Informationen