MLOps: Compresión y Cuantización de Modelos YOLO con OpenVino Toolkit
The Machine Learning Engineer via YouTube
Overview
Aprende a convertir un modelo YoloV10 al formato OpenVINO IR y cuantizarlo a int8 utilizando nnvc de OpenVINO en este tutorial de 49 minutos. Explora el proceso paso a paso para comprimir y cuantizar modelos YOLO, mejorando su rendimiento y eficiencia. Realiza ejemplos prácticos de inferencia en CPU comparando las versiones YoloV10 y YoloV8. Accede al notebook complementario en GitHub para seguir la implementación detallada y profundizar en las técnicas de MLOps aplicadas a la optimización de modelos de visión por computadora.
Syllabus
MLOps: OpenVino Toolkit Comprimir y Quantizar YOLO Model #datascience #machinelearning
Taught by
The Machine Learning Engineer