このコースでは、Amazon SageMaker JumpStart を使用して大規模言語モデル (LLM) をカスタマイズおよび評価する方法について学習します。Amazon SageMaker JumpStart は、基盤モデル、組み込みアルゴリズム、数クリックでデプロイできる事前構築済みの ML ソリューションを備えた機械学習 (ML) のハブです。プロンプトエンジニアリングや検索拡張生成 (RAG) の基礎など、ファインチューニングに代わる方法について学習します。また、SageMaker JumpStart で利用可能なモデルのファインチューニング、デプロイ、ファインチューニング済みモデルの評価についても学習します。
自分の AWS アカウントと提供されたノートブックを使用して、Amazon SageMaker と LangChain の統合を使用することで、RAG アプリケーションの構築を練習できます。Llama3 モデルをファインチューニングし、評価メトリクスを使用して評価することもできます。プロンプトのステレオタイプに対応したノートブックにより、責任ある AI の側面の 1 つを練習できます。また、ノートブックの実行方法の動画デモを見ることもできます。
- コースレベル: 上級
- 所要時間: 4 時間
アクティビティ
このコースには、プレゼンテーション、デモンストレーション、評価テストが含まれます。
コースの目標
このコースでは、以下の内容を実施します。
- LLM をカスタマイズするさまざまな方法を説明する。
- カスタマイズオプションとしてプロンプトエンジニアリングと検索拡張生成をどのような場合に使用するかを説明する。
- Amazon SageMaker と LangChain の統合の使用により、Falcon モデルを使用して RAG アプリケーションを構築する方法をデモンストレーションする。
- ドメイン適応とインストラクションファインチューニングの使用について説明する。
- SageMaker JumpStart ML ハブからモデルをファインチューニングしてデプロイする方法をデモンストレーションする。
- SageMaker Python SDK の使用により、パラメータ効率の高いファインチューニング (PEFT) を使用して LLM をファインチューニングする方法をデモンストレーションする。
- SageMaker JumpStart コンソールと fmeval ライブラリを使用して基盤モデルを評価する。
対象者
このコースは次のような職務の方を対象としています。
- データサイエンティスト
- 機械学習エンジニア
前提条件
このコースを受講するにあたって、次の前提条件を満たしておくことをお勧めします。
- 自然言語処理 (NLP) における 1 年以上の経験
- 言語モデルのトレーニングおよびチューニングにおける 1 年以上の経験
- 中級レベルの Python 言語プログラミング能力
- AWS Technical Essentials
- Amazon SageMaker JumpStart Foundations
コースの概要
モジュール 1: LLM のカスタマイズの概要
- LLM のカスタマイズ
- カスタマイズ方法の選択
モジュール 2: LLM をカスタマイズするためのプロンプトエンジニアリングと RAG
- プロンプトエンジニアリングの使用
- 検索拡張生成 (RAG) の使用
- 高度な RAG パターンの使用
デモ 1: Amazon SageMaker と LangChain の統合および SageMaker JumpStart の Falcon 7B モデルを使用して RAG アプリケーションを作成する
モジュール 3: 基盤モデルのファインチューニングとデプロイ
- ファインチューニングを使用して基盤モデルをカスタマイズする
- SageMaker JumpStart コンソールを使用して LLM をファインチューニングおよびデプロイする方法
デモ 2: Amazon SageMaker Python SDK を使用して、SageMaker JumpStart で利用可能な Llama 3 モデルをファインチューニングする
モジュール 4: 基盤モデルの評価
- モデル評価メトリクスについて検討する
- Amazon SageMaker JumpStart コンソールを使用して基盤モデルを評価する
デモ 3: fmeval ライブラリを使用して Falcon-7B モデルのプロンプトのステレオタイプを評価する
モジュール 5: リソース
- 詳細情報
- お問い合わせ