Formación Avanzada

Fine-Tuning y
Personalización

Entrena modelos personalizados con tus datos. Desde fine-tuning completo hasta técnicas PEFT eficientes como LoRA y QLoRA. Construye modelos de lenguaje pequeños específicos de dominio que superan a los gigantes de propósito general en tus tareas.

40 Horas
Avanzado
GPU Requerida

Resumen del Curso

El fine-tuning adapta modelos pre-entrenados a tu dominio específico. Cuando RAG no es suficiente—cuando necesitas que el modelo piense diferente, no solo acceda a datos diferentes—el fine-tuning es la respuesta. Este curso cubre técnicas modernas de eficiencia de parámetros que hacen el entrenamiento accesible.

1

Fundamentos de Transfer Learning

Cómo los modelos pre-entrenados codifican conocimiento y por qué funciona el fine-tuning.

Pre-training Catastrophic Forgetting Domain Shift
2

Preparación de Dataset

Curación de datos de entrenamiento, formateo para instruction tuning, filtrado de calidad.

Formato Alpaca ShareGPT Data Augmentation
3

LoRA & QLoRA

Fine-tuning eficiente en parámetros. Entrena modelos de miles de millones de parámetros en GPUs de consumo.

LoRA QLoRA PEFT
4

Infraestructura de Entrenamiento

Configuración de entornos de entrenamiento, entrenamiento distribuido, monitoreo.

HuggingFace Axolotl W&B
5

Evaluación e Iteración

Midiendo el éxito del fine-tuning. Benchmarks, evaluación humana, pruebas A/B.

Perplexity Task Metrics Regression Tests
6

Despliegue y Serving

Cuantización, fusión de modelos e inferencia eficiente para producción.

GGUF vLLM TensorRT-LLM

Cuándo Fine-Tune vs RAG

Caso de Uso Mejor Enfoque Por Qué
Responder preguntas sobre documentos RAG El modelo no necesita memorizar, solo razonar
Generar código en estilo de empresa Fine-Tune El estilo está embebido en pesos, no es recuperable
Terminología específica de dominio Ambos Fine-tune para fluidez, RAG para hechos
Formatos de salida estructurados Fine-Tune Formato consistente requiere entrenamiento
Información en tiempo real RAG No puedes reentrenar para cada actualización
Tono/personalidad específica Fine-Tune La voz emerge del entrenamiento, no de la recuperación

Patrones Creacionales para Entrenamiento

Los pipelines de entrenamiento se benefician de patrones creacionales que gestionan la construcción y configuración de objetos complejos.

Builder

Construye configuraciones de entrenamiento complejas paso a paso. Model settings, config LoRA, argumentos de training—validados y ensamblados correctamente.

Abstract Factory

Crea familias de objetos relacionados: modelo + tokenizer + trainer para diferentes modelos base (Llama, Mistral, Qwen).

Prototype

Clona configuraciones de entrenamiento para sweeps de hiperparámetros. Comienza desde una config funcional y modifica parámetros específicos.

Memento

Guarda el estado de entrenamiento para checkpointing y recuperación. Resume desde cualquier punto después de crashes o preemption.

Proyectos Prácticos

Requisitos de GPU

Este curso requiere acceso a GPU. QLoRA puede entrenar modelos 7B en 8GB VRAM, pero 24GB+ se recomienda para iteración cómoda. Opciones cloud: RunPod, Lambda Labs, o Colab Pro.

¿Listo para Entrenar Modelos Personalizados?

Construye IA que piense como tu experto de dominio. Continúa con Estrategia de IA Empresarial para aprender cómo desplegar y gobernar IA a escala.

Inscribirse Ahora
Pregunta a iSeeCI