Class Central is learner-supported. When you buy through links on our site, we may earn an affiliate commission.

Amazon Web Services

AWS ML Engineer Associate 4.1 Monitor Model Performance and Data Quality (Português)

Amazon Web Services and Amazon via AWS Skill Builder

Overview

Coursera Plus Monthly Sale: All Certificates & Courses 40% Off!
Depois de 28 de março, os títulos dos cursos estarão somente em inglês. No entanto, as descrições dos cursos permanecerão disponíveis no idioma de sua preferência para permitir que você pesquise nesse idioma.

Neste curso, você aprenderá técnicas para monitorar e manter o desempenho e a confiabilidade de suas soluções de machine learning (ML) usando os recursos de monitoramento do Amazon SageMaker. Você começará estabelecendo a importância do monitoramento e os tipos de desvio no ML. Em seguida, você descobrirá métodos para detectar desvio de dados, problemas de qualidade do modelo, viés estatístico e desvio na designação de atributos. Você explorará o SageMaker Model Monitor para monitoramento contínuo, o SageMaker Clarify para detectar vieses e fornecer explicações interpretáveis e o SageMaker Model Dashboard para visualizar e analisar métricas de desempenho. 

Este curso compartilha as práticas recomendadas para ajudar você a criar e manter soluções de ML confiáveis, de alto desempenho e que se alinham aos princípios de design da Lente de Machine Learning do AWS Well-Architected. Você aprenderá abordagens para tomada de decisão proativa, correção automatizada, notificações e fluxos de trabalho de retreinamento, que ajudarão a manter suas soluções de ML eficazes ao longo do tempo.

  • Nível do curso: avançado
  • Duração: 2 horas e 30 minutos


Observação: Este curso tem transcrições/legendas traduzidas. A narração está em inglês. Para exibir as legendas, clique no botão CC no canto inferior direito do player.


Atividades

  • Materiais on-line
  • Exercícios
  • Perguntas de teste de conhecimento


Objetivos do curso

  • Descrever os princípios de design da Lente de Machine Learning do AWS Well-Architected para monitoramento.
  • Identificar as práticas recomendadas para monitorar a qualidade dos dados e o desempenho do modelo.
  • Usar o SageMaker Model Monitor para monitorar continuamente modelos em produção em busca de problemas de desvio de dados e qualidade do modelo.
  • Explicar como o Amazon SageMaker Clarify pode detectar o viés do modelo e fornecer explicações interpretáveis.
  • Descrever os benefícios e os casos de uso do SageMaker Clarify para monitoramento de atribuição.
  • Descrever os benefícios de monitorar o desempenho do modelo na produção usando testes A/B.
  • Explicar os principais recursos e os casos de uso comuns do SageMaker Model Dashboard.
  • Identificar problemas de forma proativa monitorando as soluções de ML e implementando fluxos de trabalho automatizados de correção, notificações e retreinamento.


Público-alvo

  • Arquitetos de nuvem
  • Engenheiros de machine learning


Habilidades recomendadas

  • Ter pelo menos um ano de experiência com o uso da solução SageMaker e outros serviços da AWS para engenharia de ML
  • Ter pelo menos um ano de experiência em uma função relacionada, como desenvolvedor de software de back-end, desenvolvedor de DevOps, engenheiro de dados ou cientista de dados
  • Uma compreensão fundamental de linguagens de programação como Python
  • Ter concluído os cursos anteriores no plano de aprendizado AWS ML Engineer Associate.


Conteúdo do curso

  • Seção 1: Introdução
    • Lição 1: Como usar este curso
    • Lição 2: Introdução ao domínio
    • Lição 3: Visão geral do curso
  • Seção 2: Monitoramento de soluções de machine learning
    • Lição 4: A importância do monitoramento em ML
    • Lição 5: Detecção de desvios no monitoramento
    • Lição 6: Amazon SageMaker Model Monitor
    • Lição 7: Monitoramento de desvios na qualidade de dados
    • Lição 8: Monitoramento da qualidade do modelo usando o SageMaker Model Monitor
    • Lição 9: Demonstração do SageMaker Model Monitor
    • Lição 10: Monitoramento do desvio de viés estatístico com o SageMaker Clarify
    • Lição 11: Monitoramento do desvio na designação de atributos
    • Lição 12: Monitoramento do desempenho do modelo usando testes A/B
    • Lição 13: Introdução ao SageMaker Model Dashboard
    • Lição 14: Escolha sua abordagem de monitoramento
  • Seção 3: Correção de problemas identificados pelo monitoramento
    • Lição 15: Correção e solução de problemas automatizadas
  • Seção 4: Conclusão
    • Lição 16: Resumo do curso
    • Lição 17: Avaliação
    • Lição 18: Entrar em contato conosco


Reviews

Start your review of AWS ML Engineer Associate 4.1 Monitor Model Performance and Data Quality (Português)

Never Stop Learning.

Get personalized course recommendations, track subjects and courses with reminders, and more.

Someone learning on their laptop while sitting on the floor.