加入 登录

在 Google Cloud 控制台中运用您的技能

paulami saha

成为会员时间:2023

青铜联赛

915 积分
注意力機制 Earned Oct 10, 2023 EDT
編碼器-解碼器架構 Earned Sep 7, 2023 EDT
Transformer 和 BERT 模型 Earned Sep 6, 2023 EDT
大型語言模型簡介 Earned Sep 5, 2023 EDT

本課程將介紹注意力機制,說明這項強大技術如何讓類神經網路專注於輸入序列的特定部分。此外,也將解釋注意力的運作方式,以及如何使用注意力來提高各種機器學習任務的成效,包括機器翻譯、文字摘要和回答問題。

了解详情

本課程概要說明解碼器與編碼器的架構,這種強大且常見的機器學習架構適用於序列對序列的任務,例如機器翻譯、文字摘要和回答問題。您將認識編碼器與解碼器架構的主要元件,並瞭解如何訓練及提供這些模型。在對應的研究室逐步操作說明中,您將學習如何從頭開始使用 TensorFlow 寫程式,導入簡單的編碼器與解碼器架構來產生詩詞。

了解详情

這堂課程將說明變換器架構,以及基於變換器的雙向編碼器表示技術 (BERT) 模型,同時帶您瞭解變換器架構的主要組成 (如自我注意力機制) 和如何用架構建立 BERT 模型。此外,也會介紹 BERT 適用的各種任務,像是文字分類、問題回答和自然語言推論。課程預計約 45 分鐘。

了解详情

這是一堂入門級的微學習課程,旨在探討大型語言模型 (LLM) 的定義和用途,並說明如何調整提示來提高 LLM 成效。此外,也會介紹多項 Google 工具,協助您自行開發生成式 AI 應用程式。

了解详情