Neste curso, você aprenderá técnicas para monitorar e manter o desempenho e a confiabilidade de suas soluções de machine learning (ML) usando os recursos de monitoramento do Amazon SageMaker. Você começará estabelecendo a importância do monitoramento e os tipos de desvio no ML. Em seguida, você descobrirá métodos para detectar desvio de dados, problemas de qualidade do modelo, viés estatístico e desvio na designação de atributos. Você explorará o SageMaker Model Monitor para monitoramento contínuo, o SageMaker Clarify para detectar vieses e fornecer explicações interpretáveis e o SageMaker Model Dashboard para visualizar e analisar métricas de desempenho.
Este curso compartilha as práticas recomendadas para ajudar você a criar e manter soluções de ML confiáveis, de alto desempenho e que se alinham aos princípios de design da Lente de Machine Learning do AWS Well-Architected. Você aprenderá abordagens para tomada de decisão proativa, correção automatizada, notificações e fluxos de trabalho de retreinamento, que ajudarão a manter suas soluções de ML eficazes ao longo do tempo.
- Nível do curso: avançado
- Duração: 2 horas e 30 minutos
Observação: Este curso tem transcrições/legendas traduzidas. A narração está em inglês. Para exibir as legendas, clique no botão CC no canto inferior direito do player.
Atividades
- Materiais on-line
- Exercícios
- Perguntas de teste de conhecimento
Objetivos do curso
- Descrever os princípios de design da Lente de Machine Learning do AWS Well-Architected para monitoramento.
- Identificar as práticas recomendadas para monitorar a qualidade dos dados e o desempenho do modelo.
- Usar o SageMaker Model Monitor para monitorar continuamente modelos em produção em busca de problemas de desvio de dados e qualidade do modelo.
- Explicar como o Amazon SageMaker Clarify pode detectar o viés do modelo e fornecer explicações interpretáveis.
- Descrever os benefícios e os casos de uso do SageMaker Clarify para monitoramento de atribuição.
- Descrever os benefícios de monitorar o desempenho do modelo na produção usando testes A/B.
- Explicar os principais recursos e os casos de uso comuns do SageMaker Model Dashboard.
- Identificar problemas de forma proativa monitorando as soluções de ML e implementando fluxos de trabalho automatizados de correção, notificações e retreinamento.
Público-alvo
- Arquitetos de nuvem
- Engenheiros de machine learning
Habilidades recomendadas
- Ter pelo menos um ano de experiência com o uso da solução SageMaker e outros serviços da AWS para engenharia de ML
- Ter pelo menos um ano de experiência em uma função relacionada, como desenvolvedor de software de back-end, desenvolvedor de DevOps, engenheiro de dados ou cientista de dados
- Uma compreensão fundamental de linguagens de programação como Python
- Ter concluído os cursos anteriores no plano de aprendizado AWS ML Engineer Associate.
Conteúdo do curso
- Seção 1: Introdução
- Lição 1: Como usar este curso
- Lição 2: Introdução ao domínio
- Lição 3: Visão geral do curso
- Seção 2: Monitoramento de soluções de machine learning
- Lição 4: A importância do monitoramento em ML
- Lição 5: Detecção de desvios no monitoramento
- Lição 6: Amazon SageMaker Model Monitor
- Lição 7: Monitoramento de desvios na qualidade de dados
- Lição 8: Monitoramento da qualidade do modelo usando o SageMaker Model Monitor
- Lição 9: Demonstração do SageMaker Model Monitor
- Lição 10: Monitoramento do desvio de viés estatístico com o SageMaker Clarify
- Lição 11: Monitoramento do desvio na designação de atributos
- Lição 12: Monitoramento do desempenho do modelo usando testes A/B
- Lição 13: Introdução ao SageMaker Model Dashboard
- Lição 14: Escolha sua abordagem de monitoramento
- Seção 3: Correção de problemas identificados pelo monitoramento
- Lição 15: Correção e solução de problemas automatizadas
- Seção 4: Conclusão
- Lição 16: Resumo do curso
- Lição 17: Avaliação
- Lição 18: Entrar em contato conosco