このモデル開発ドメインの最終コースでは、ML モデルのパフォーマンスを分析する方法について説明します。分類や回帰問題のメトリクスなど、モデル評価の主な概念と手法について学びます。また、コンバージェンスの問題を特定し、再現性のある実験を行う方法についても学びます。最後に、Amazon SageMaker Clarify や Amazon SageMaker Debugger などの AWS サービスを使用して、機械学習 (ML) のトレーニングデータとモデルの問題についてのインサイトを得ます。
・コースレベル :上級
・所要時間: 1 時間 30 分
アクティビティ
- オンライン資料
- 演習
- ナレッジチェックの問題
コースの目標
このコースでは、以下について学習します。
- パフォーマンスベースラインの作成方法を特定する。
- モデルのパフォーマンス、トレーニング時間、コストの間のトレードオフを評価する。
- 分類問題の評価手法と指標を特定する。
- 回帰問題の評価手法と指標を特定する。
- Amazon SageMaker Training Compiler と Amazon SageMaker Automatic Model Tuning (AMT) を使用して、コンバージェンスの問題を特定し、モデルのコンバージェンスの問題を防止する。
- ML トレーニングデータおよびモデルに関するインサイトを得るための SageMaker Clarify メトリクスを特定する。
- SageMaker Clarify を使用してモデルの出力を解釈する。
- AWS サービスを使用して再現可能な実験を行う方法を説明する。
- SageMaker Model Debugger を使用してモデルコンバージェンスをデバッグする。
対象者
このコースは次のような方を対象としています。
- クラウドアーキテクト
- 機械学習エンジニア
推奨スキル
- SageMaker およびその他の AWS サービスを機械学習エンジニアリングに使用した経験が 1 年以上あること
- バックエンドソフトウェアデベロッパー、DevOps デベロッパー、データエンジニア、データサイエンティストなどの関連職での経験が 1 年以上あること
- Python などのプログラミング言語に関する基本的な理解
- AWS ML エンジニアアソシエイトの学習プランの以前のコースを修了していること
コースの概要
セクション 1: はじめに
・レッスン 1: このコースの使用方法
・レッスン 2: コースの概要
・レッスン 3: パフォーマンスベースライン
セクション 2: モデル評価
・レッスン 4: モデル評価の手法と指標
・レッスン 5: コンバージェンスの問題
・レッスン 6: SageMaker Debugger によるモデルコンバージェンスのデバッグ
・レッスン 7: SageMaker Clarify とメトリクスの概要
・レッスン 8: SageMaker Clarify を使用してモデルの出力を解釈する
・レッスン 9: Amazon SageMaker の実験
セクション 3: まとめ
・レッスン 10: コースのまとめ
・レッスン 11: 評価テスト
・レッスン 12: お問い合わせ