Class Central is learner-supported. When you buy through links on our site, we may earn an affiliate commission.

Amazon Web Services

Customizing and Evaluating LLMs Using Amazon SageMaker JumpStart (Español LATAM)

Amazon Web Services and Amazon via AWS Skill Builder

Overview

Coursera Plus Monthly Sale: All Certificates & Courses 40% Off!
Después del 28 de marzo, los títulos de los cursos solo estarán disponibles en inglés. Sin embargo, las descripciones de los cursos permanecerán disponibles en su idioma preferido para que pueda consultarlas.

En este curso, aprenderá a personalizar y evaluar modelos de lenguaje grandes (LLM) con Amazon SageMaker JumpStart, un centro de machine learning (ML) que incluye modelos fundacionales, algoritmos integrados y soluciones de ML prediseñadas que puede implementar con unos pocos clics. Conocerá las alternativas del ajuste de precisión, como los fundamentos de la ingeniería de peticiones y la generación aumentada por recuperación (RAG). También aprenderá a ajustar, implementar y evaluar los modelos ajustados disponibles en SageMaker JumpStart.


Con su propia cuenta de AWS y los cuadernos proporcionados, puede practicar con la creación de aplicaciones RAG mediante la integración de Amazon SageMaker en LangChain. También puede ajustar un modelo Llama3 y analizarlo mediante métricas de evaluación. Puede practicar uno de los aspectos de la IA responsable con la ayuda de un cuaderno que aborde el estereotipado de peticiones. Si lo prefiere, puede ver una demostración en video de cómo utilizar los cuadernos.

  • Nivel del curso: avanzado
  • Duración: 4 horas


Nota: Este curso tiene transcripciones o subtítulos localizados. La narración está en inglés. Para mostrar los subtítulos, haga clic en el botón CC en la esquina inferior derecha del reproductor.


Actividades

Este curso incluye presentaciones, demostraciones y evaluaciones.


Objetivos del curso

En este curso, hará lo siguiente:

  • describir las diferentes técnicas para personalizar LLM,
  • explicar cuándo se debe utilizar la ingeniería de peticiones y la generación aumentada por recuperación como opciones de personalización,
  • demostrar cómo usar la integración de Amazon SageMaker en LangChain para crear una aplicación RAG con un modelo Falcon,
  • describir el uso de la adaptación del dominio y el ajuste con precisión de las instrucciones,
  • demostrar cómo se ajusta e implementa un modelo desde el centro de ML de SageMaker JumpStart,
  • demostrar el uso del SDK de Python de SageMaker para ajustar con precisión los LLM mediante el Ajuste de precisión eficiente de parámetros (PEFT), y
  • evaluar modelos fundacionales mediante la consola de SageMaker JumpStart y la biblioteca FMEval.


Audiencia

Este curso está destinado a quienes desempeñan los siguientes roles:

  • científicos de datos, e
  • ingenieros de machine learning.


Requisitos previos

Recomendamos que los asistentes a este curso cuenten con lo siguiente:

  • más de 1 año de experiencia en procesamiento de lenguaje natural (PLN),
  • Más de 1 año de experiencia en la formación y la optimización de modelos lingüísticos
  • conocimientos de nivel intermedio de programación con lenguaje Python.
  • Fundamentos técnicos de AWS 
  • Fundamentos de Amazon SageMaker JumpStart


Esquema del curso

Módulo 1: Introducción a la personalización de LLM

  • Personalización de LLM
  • Elección de métodos de personalización


Módulo 2: Ingeniería de peticiones y RAG para personalizar LLM

  • Uso de ingeniería de peticiones
  • Uso de la generación aumentada por recuperación (RAG)
  • Uso de patrones de RAG avanzados


Demostración 1: Creación de una aplicación RAG con la integración de Amazon SageMaker en LangChain y un modelo Falcon 7B de SageMaker JumpStart


Módulo 3: Ajuste de precisión e implementación de modelos fundacionales

  • Personalización de modelos fundacionales mediante el ajuste de precisión
  • Cómo usar la consola de SageMaker JumpStart para ajustar con precisión e implementar un LLM


Demostración 2: Ajuste con precisión de un modelo Llama 3 disponible en SageMaker JumpStart mediante el SDK de Python de Amazon SageMaker


Módulo 4: Evaluación de modelos fundacionales

  • Análisis de las métricas de evaluación del modelo
  • Evaluación de los modelos fundacionales con la consola de Amazon SageMaker JumpStart


Demostración 3: Evaluación del estereotipado de peticiones de un modelo Falcon-7B con la biblioteca FMEval


Módulo 5: Recursos

  • Más información
  • Contáctenos

Reviews

Start your review of Customizing and Evaluating LLMs Using Amazon SageMaker JumpStart (Español LATAM)

Never Stop Learning.

Get personalized course recommendations, track subjects and courses with reminders, and more.

Someone learning on their laptop while sitting on the floor.