hadjikhani ali
メンバー加入日: 2024
ブロンズリーグ
58275 ポイント
メンバー加入日: 2024
Google Cloud Computing Foundations コースでは、クラウド コンピューティングの 知識または経験がほとんどあるいはまったくない受講者に、クラウドの基礎、ビッグ データ、機械学習を網羅したコンセプトの概要と、Google Cloud がどこで、どのよう に役立つかについて詳しく説明します。 受講者はコースを修了するまでに、クラウド コンピューティング、ビッグデータ、 機械学習に関連するコンセプトを明確に説明したり、いくつかの実践的スキルを実証し たりできるようになっているはずです。 このコースは、Google Cloud Computing Foundations という一連のコースの一部です。 コースは次の順序で受講してください: Google Cloud Computing Foundations: Cloud Computing Fundamentals - Locales Google Cloud Computing Foundations: Infrastructure in Google Cloud - Locales Google Cloud Computing Foundations: Networking and Security in Google Cloud - Locales Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud - Locales この 3 番目のコースでは、安全なネットワークを構築する方法、 およびクラウドの自動化と管理ツールについて説明します。
The Google Cloud Computing Foundations courses are for individuals with little to no background or experience in cloud computing. They provide an overview of concepts central to cloud basics, big data, and machine learning, and where and how Google Cloud fits in. By the end of the series of courses, learners will be able to articulate these concepts and demonstrate some hands-on skills. The courses should be completed in the following order: 1. Google Cloud Computing Foundations: Cloud Computing Fundamentals 2. Google Cloud Computing Foundations: Infrastructure in Google Cloud 3. Google Cloud Computing Foundations: Networking and Security in Google Cloud 4. Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud This final course in the series reviews managed big data services, machine learning and its value, and how to demonstrate your skill set in Google Cloud further by earning Skill Badges.
Google Cloud Computing Foundations コースでは、クラウド コンピューティングの 知識または経験がほとんどあるいはまったくない受講者に、クラウドの基礎、ビッグ データ、機械学習を網羅したコンセプトの概要と、Google Cloud がどこで、どのよう に役立つかについて詳しく説明します。 受講者はコースを修了するまでに、クラウド コンピューティング、ビッグデータ、 機械学習に関連するコンセプトを明確に説明したり、いくつかの実践的スキルを実証し たりできるようになっているはずです。 このコースは、Google Cloud Computing Foundations という一連のコースの一部です。 コースは次の順序で受講してください: Google Cloud Computing Foundations: Cloud Computing Fundamentals - Locales Google Cloud Computing Foundations: Infrastructure in Google Cloud - Locales Google Cloud Computing Foundations: Networking and Security in Google Cloud - Locales Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud - Locales この 2 番目のコースでは、ストレージ モデルの実装、さまざまなアプリケーション マネージド サービス オプション、GoogleCloudでのセキュリティ管理について説明します。
Google Cloud Computing Foundations コースでは、クラウド コンピューティングの知識または経験がほとんどあるいはまったくない受講者に、 クラウドの基礎、ビッグデータ、機械学習を網羅したコンセプトの概要と、Google Cloud がどこで、どのように役立つかについて詳しく説明します。 最初にクラウド コンピューティングの概要を確認してから、クラウド·コンピューティング·インフラストラクチャと、ビッグデータおよび機械学習の 2 つの分野を詳しく見ていきます。 受講者はコースを修了するまでに、クラウド コンピューティング、ビッグデータ、機械学習に関連するコンセプトを明確に説明したり、 いくつかの実践的スキルを実証したりできるようになっているはずです。 このコースは、Google Cloud Computing Foundations という一連のコースの一部です。 コースは次の順序で受講してください: Google Cloud Computing Foundations: Cloud Computing Fundamentals - Locales Google Cloud Computing Foundations: Infrastructure in Google Cloud - Locales Google Cloud Computing Foundations: Networking and Security in Google Cloud - Locales Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud - Locales この最初のコースでは、クラウド コンピューティングの概要、Google Cloud の使用方法、さまざまなコンピューティング オプションについて説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
このコースでは、本番環境で高パフォーマンスな ML システムを構築するためのコンポーネントとベスト プラクティスについて学習します。また、ML システムを構築するうえで最も一般的な考慮事項を紹介します。これには、静的トレーニング、動的トレーニング、静的な推論、動的な推論、分散型 TensorFlow、TPU などが含まれます。このコースでは、優れた予測能力にとどまらない、優れた ML システムの特性を探索することに焦点を当てています。
「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。
このコースでは、ML ワークフローに対する実践的なアプローチを取り上げます。具体的には、いくつかの ML のビジネス要件とユースケースに取り組む ML チームをケーススタディ形式で紹介します。このチームは、データ マネジメントとガバナンスに必要なツールを理解し、データの前処理に最適なアプローチを検討する必要があります。 2 つのユースケースに対して ML モデルを構築するための 3 つのオプションがチームに提示されます。このコースでは、チームの目標を達成するために、AutoML、BigQuery ML、カスタム トレーニングを使用する理由について説明します。
このコースでは、Vertex AI Feature Store を使用するメリット、ML モデルの精度を向上させる方法、最も有効な特徴を抽出できるデータ列の見極め方について説明します。また、BigQuery ML、Keras、TensorFlow を使用した特徴量エンジニアリングに関するコンテンツとラボも用意されています。
このコースでは、TensorFlow と Keras を使用した ML モデルの構築、ML モデルの精度の向上、スケーリングに対応した ML モデルの作成について取り上げます。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
「Generative AI Explorer - Vertex AI」コースには、 Google Cloud での生成 AI の使用方法に関する複数のラボが含まれます。ラボでは、Vertex AI PaLM API ファミリーの text-bison、chat-bison、 textembedding-gecko などのモデルの使用方法を確認し、プロンプト設計やベスト プラクティス、さらに Vertex AI を活用した アイディエーション、テキスト分類、テキスト抽出、テキスト要約について 学びます。また、 Vertex AI カスタム トレーニングによって基盤モデルをチューニングし、Vertex AI エンドポイントにデプロイする方法も学びます。
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。機械学習エンジニアリングの担当者は、ツールを活用して、デプロイしたモデルの継続的な改善と評価を行います。また、データ サイエンティストと協力して、あるいは自らがデータ サイエンティストとして、最も効果的なモデルを迅速かつ正確にデプロイできるようモデルを開発します。
このコースでは、生成 AI モデルのデプロイと管理において MLOps チームが直面する特有の課題に対処するために必要な知識とツールを提供し、AI チームが MLOps プロセスを合理化して生成 AI プロジェクトを成功させるうえで Vertex AI がどのように役立つかを説明します。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
このコースでは、予測 AI と生成 AI の両方のプロジェクトを構築できる、Google Cloud の AI および機械学習(ML)サービスについて紹介します。AI の基盤、開発、ソリューションを含むデータから AI へのライフサイクル全体で利用可能なテクノロジー、プロダクト、ツールについて説明するとともに、魅力的な学習体験と実践的なハンズオン演習を通じて、データ サイエンティスト、AI 開発者、ML エンジニアの方々がスキルや知識を強化できるようサポートすることを目指しています。
Gemini for Google Workspace は、生成 AI 機能へのアクセスをユーザーに提供するアドオンです。このコースでは、Google Meet での Gemini の機能について掘り下げます。動画レッスン、ハンズオン アクティビティ、実用的な例を通じて Google Meet の Gemini 機能を総合的に理解し、Gemini を使用した背景画像の生成、ビデオ通話の映りの改善、字幕翻訳の方法を学びます。このコースを修了すると、Google Meet で Gemini を自信を持って活用し、ビデオ会議の効果を最大限に高めるための知識とスキルを身に付けられます。
Gemini for Google Workspace は、Google Workspace の生成 AI 機能をお客様に提供するアドオンです。このミニコースでは、Gemini の主な機能と、それらの機能を使用して Google スプレッドシートの生産性と効率を向上させる方法について学びます。
Gemini for Google Workspace は、Google Workspace の生成 AI 機能をお客様に提供するアドオンです。このミニコースでは、Gemini の主な機能と、それらの機能を使用して Google スライドの生産性と効率を向上させる方法について学びます。
Gemini for Google Workspace は、生成 AI 機能へのアクセスをユーザーに提供するアドオンです。動画レッスン、ハンズオン アクティビティ、実用的な例を使用して、Gemini in Google ドキュメントの機能について詳しく説明します。Gemini を使用して、プロンプトに基づいて文書のコンテンツを生成する方法を学びます。また、Gemini を使用して、記述済みのテキストを編集し、全体的な生産性の向上を支援することも検討します。このコースを修了すると、自信を持って Gemini in Google ドキュメントを活用し、文章作成能力を向上させるための知識やスキルを身に付けることができます。
Gemini for Google Workspace は、Google Workspace の生成 AI 機能をお客様に提供するアドオンです。このミニコースでは、Gemini の主な機能と、それらの機能を使用して Gmail の生産性と効率を向上させる方法について学びます。
Gemini for Google Workspace は、Google Workspace の生成 AI 機能をお客様に提供するアドオンです。この学習プログラムでは、Gemini の主な機能と、それらの機能を使用して Google Workspace の生産性と効率を向上させる方法について学びます。
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。