Guía de Fine-tuning de LLMs con AstrApp
Aprende todos los conceptos básicos y mejores prácticas del fine-tuning. Ideal para principiantes.
Selección de Modelo
Llama, Qwen, Mistral, Phi
Datasets
Formatos y templates
Hyperparameters
LoRA rank, alpha, epochs
¿Qué es el Fine-tuning?
El fine-tuning de un LLM (Large Language Model) te permite personalizar su comportamiento, mejorar e inyectar conocimiento, y optimizar su rendimiento para dominios o tareas específicas.
Con AstrApp, al hacer fine-tuning de un modelo pre-entrenado puedes:
Actualizar + Aprender Nuevo Conocimiento
Inyectar y aprender información específica de tu dominio o industria.
Personalizar Comportamiento
Ajustar el tono, personalidad o estilo de respuesta del modelo.
Optimizar para Tareas
Mejorar la precisión y relevancia para casos de uso específicos.
Casos de Uso Prácticos
Análisis Financiero
Predecir impacto de titulares en empresas
Atención al Cliente
Respuestas precisas basadas en historial
Legal
Análisis de contratos y cumplimiento
E-commerce
Asistentes que conocen tu catálogo
Contenido de la Guía
¿Qué es el Fine-tuning?
Personaliza el comportamiento de LLMs, inyecta conocimiento y optimiza para tareas específicas.
Elegir el Modelo y Método
QLoRA vs LoRA, modelos Instruct vs Base, y configuraciones importantes.
Tu Dataset
Estructura, formatos y generación de datos para entrenamiento.
Hyperparameters de Entrenamiento
Learning rate, epochs, batch size, gradient accumulation y más.
Instalación y Requisitos
AstrApp maneja todo por ti, pero aquí están los requisitos si entrenas localmente.
Entrenamiento y Evaluación
Interpreta el training loss, configura evaluación y detecta problemas.
Ejecutar y Guardar el Modelo
Inferencia, conversaciones multi-turno y exportación.
Mitos y Conceptos Erróneos
¿Listo para empezar?
Continúa con la siguiente guía para elegir el modelo correcto para tu caso de uso.
¿Qué modelo debo usar?