Entrenamiento de Modelos
Aprende a entrenar (fine-tune) tu propio modelo de IA usando tus datos. AstrApp se encarga de la infraestructura, tú solo defines qué quieres entrenar.
¿Qué es Fine-tuning?
Fine-tuning es el proceso de adaptar un modelo pre-entrenado (como Llama o Qwen) a tu caso de uso específico usando tus propios datos. En lugar de entrenar un modelo desde cero, aprovechas el conocimiento existente y lo especializas.
Asistente de Entrenamiento
AstrApp incluye un asistente de 4 pasos (wizard) que te guía desde la selección del modelo hasta el lanzamiento del trabajo de entrenamiento. Accede desde Entrenamiento → Nuevo Entrenamiento.
Seleccionar Modelo
- Explora el registro de LLMs de código abierto.
- Filtra por arquitectura: Llama, Qwen, Mistral, Phi y más.
- Consulta los detalles de cada modelo: número de parámetros, VRAM requerida y fortalezas.
- Elige el tamaño que mejor se adapta a tu caso: 7B, 13B, 70B, etc.
Configurar Entrenamiento
- Elige el método: LoRA o Full Fine-tuning.
- Ajusta los hyperparámetros: Epochs (1–10), Batch size (1–32), Learning rate (1e-5 a 5e-4).
- Para LoRA: configura Rank (8–128), Alpha y Dropout.
- Activa QLoRA para optimizar el uso de memoria con modelos grandes.
Seleccionar Dataset
- Sube un archivo nuevo directamente desde tu equipo.
- Selecciona un dataset existente en tu cuenta.
- Importa desde HuggingFace usando el nombre del repositorio.
- Previsualiza el dataset y revisa las validaciones antes de confirmar.
Elegir Proveedor y Lanzar
- Selecciona el proveedor de cómputo (Together AI, RunPod, VastAI o Modal).
- Configura los ajustes específicos del proveedor (GPU, región, etc.).
- Revisa el resumen completo de la configuración.
- Lanza el entrenamiento con un clic.
Consejo: Completa el wizard de principio a fin sin cerrar la ventana. Si necesitas salir, el borrador no se guarda automáticamente; tendrás que reiniciar el proceso.
Modelos Base Disponibles
| Modelo | Tamaños | Mejor Para | Plan Mínimo |
|---|---|---|---|
| Llama 3.1 | 8B, 70B | General purpose, muy versátil | Starter+ |
| Qwen 2.5 | 7B, 14B, 32B, 72B | Excelente en código y razonamiento | Starter+ (72B: Pro) |
| Mistral | 7B | Eficiente, buen rendimiento/costo | Starter+ |
| Phi-3 | 3.8B, 14B | Modelos pequeños muy capaces | Free+ |
Técnicas de Entrenamiento
LoRA (Low-Rank Adaptation)
Entrena solo una pequeña fracción de parámetros. Rápido y eficiente.
- Menor uso de memoria
- Entrenamiento rápido
- Fácil de combinar
Recomendado para la mayoría de casos
QLoRA
LoRA + cuantización de 4-bit. Permite entrenar modelos grandes con menos recursos.
- Modelos grandes en GPUs pequeñas
- Muy eficiente en memoria
Ideal para modelos >13B parámetros
Full Fine-tuning
Entrena todos los parámetros del modelo.
- Máximo potencial de adaptación
Solo si tienes muchos recursos y datos
Proveedores de Entrenamiento
AstrApp soporta cuatro proveedores de cómputo para lanzar tus trabajos de entrenamiento. Todos soportan polling en tiempo real para que veas el progreso sin recargar la página.
| Proveedor | Tipo | Mejor Para | Polling en Tiempo Real |
|---|---|---|---|
Together AI | Cloud API | Entrenamiento rápido con modelos pequeños y medianos. | Sí |
RunPod | GPU Cloud | Entrenamiento de rango medio con GPUs flexibles. | Sí |
VastAI | GPU Marketplace | Entrenamiento de bajo costo con hardware diverso. | Sí |
Modal | Serverless | Entrenamiento serverless sin gestión de infraestructura. | Sí |
Together AI
Cloud API- GPUs
- A10G, A100 (según disponibilidad en la plataforma)
- Precios
- Por tiempo de GPU consumido.
- Úsalo cuando
- Cuando quieres comenzar rápido sin gestionar infraestructura.
RunPod
GPU Cloud- GPUs
- RTX 3090/4090, A100, H100 (on-demand y spot)
- Precios
- Por segundo de GPU; precios spot muy competitivos.
- Úsalo cuando
- Cuando necesitas flexibilidad de GPU y control de costos.
VastAI
GPU Marketplace- GPUs
- Amplia variedad: RTX 3080 a H100, según proveedores del marketplace
- Precios
- Subasta de precios; generalmente el más económico.
- Úsalo cuando
- Cuando el costo es la prioridad principal y puedes aceptar hardware variable.
Modal
Serverless- GPUs
- A10G, A100, H100 (aprovisionamiento automático)
- Precios
- Solo pagas por el tiempo de cómputo real, sin reservas.
- Úsalo cuando
- Cuando quieres escalar automáticamente y no gestionar pods.
Configurar API Keys de Proveedores
Para usar cualquier proveedor necesitas agregar su API key en AstrApp:
- 1Ve a Configuración → Integraciones → Proveedores LLM.
- 2Selecciona el proveedor que quieres configurar.
- 3Pega tu API key y guarda.
- 4Verifica que aparezca el indicador verde de "Conectado".
Infraestructura y Costos
Incluido en tu suscripción: El costo de GPU está incluido en tu plan mensual. No hay cargos adicionales por hora dentro de los límites de tu plan.
| GPU | Costo/Hora | Modelos Soportados | Disponible En |
|---|---|---|---|
| T4 (16GB) | $0.50 | ≤7B QLoRA | Free |
| A10G (24GB) | $1.00 | 7B-13B | Starter |
| A100 40GB | $2.00 | 13B-34B | Professional |
| A100 80GB | $3.50 | 34B-72B | Professional |
| H100 (80GB) | $5.00 | Todos + Multi-GPU | Enterprise |
Plan Free
- • 3 entrenamientos/mes
- • Máximo 1 hora por entreno
- • Solo GPU T4
- • Modelos ≤7B con QLoRA
Plan Starter
- • 20 entrenamientos/mes
- • Máximo 4 horas por entreno
- • GPU T4 y A10G
- • Todos los modelos del marketplace
Plan Professional
- • Entrenamientos ilimitados
- • Máximo 12 horas por entreno
- • Todas las GPUs hasta A100 80GB
- • Modelos hasta 72B
Tiempos estimados: Entrenar Llama 8B con 1000 ejemplos ≈ 30-45 min en A10G. Qwen 72B con 5000 ejemplos ≈ 2-3 horas en A100 80GB.
Parámetros Clave
| Parámetro | Rango / Default | Descripción |
|---|---|---|
| Learning Rate | 1e-5 – 5e-4 (default 2e-4) | Qué tan rápido aprende el modelo |
| Epochs | 1 – 10 (default 3) | Cuántas veces ve el dataset completo |
| Batch Size | 1 – 32 (default 2) | Ejemplos procesados por paso |
| LoRA Rank (r) | 8 – 128 | Dimensión de adaptación LoRA; valores más altos = más capacidad |
| LoRA Alpha | 16 – 128 | Factor de escala LoRA; generalmente 2× el rank |
| LoRA Dropout | 0.0 – 0.1 | Regularización para prevenir overfitting en LoRA |
Monitoreo en Tiempo Real
La sección Entrenamiento → Dashboard centraliza todos tus trabajos activos y pasados con actualización automática.
Total de Trabajos
Todos los entrenamientos iniciados en tu cuenta
En Ejecución
Trabajos activos en este momento
Completados
Entrenamientos finalizados con éxito
Fallidos
Trabajos que terminaron con error
Métricas Mostradas Durante el Entrenamiento
Tiempo Transcurrido
Duración actual del entrenamiento
Época Actual
Progreso a través del dataset
Loss
Métrica de error (debe bajar con el tiempo)
Learning Rate
Tasa de aprendizaje en el paso actual
Barra de Progreso en Tiempo Real
Cada trabajo activo muestra una barra de progreso que se actualiza automáticamente. Together AI y RunPod envían actualizaciones frecuentes; VastAI y Modal también soportan polling con intervalos similares.
Hoja de Detalles del Trabajo
Haz clic en cualquier trabajo para abrir una hoja lateral con los hyperparámetros completos, la configuración del proveedor y el historial de métricas del entrenamiento.
Consejo: Si el loss deja de bajar o aumenta después de las primeras épocas, es señal de overfitting. Considera reducir el número de epochs o aumentar el dropout.
Generador de Scripts
¿Prefieres entrenar en tu propia infraestructura o en un servidor personalizado? El Generador de Scripts (disponible en Entrenamiento → Generador de Scripts) produce scripts listos para ejecutar basados en Axolotl.
Script de Entrenamiento
Genera un script Python completo para fine-tuning con Axolotl. Incluye toda la configuración de LoRA, QLoRA o Full Fine-tuning que hayas definido en el wizard.
Script de Curación de Datos
Genera un script para limpiar, formatear y validar tu dataset antes del entrenamiento. Útil para preprocesar datos desde fuentes externas.
Criterios de Evaluación
Configura métricas y criterios de evaluación específicos para tu caso de uso. El script generado los integra en el ciclo de entrenamiento.
Personalidad del Evaluador
Define la personalidad y el rol del evaluador automático que juzgará las respuestas del modelo durante y después del entrenamiento.
Descargar y Usar los Scripts
- 1Configura los parámetros en el generador (modelo, método, hyperparámetros, dataset).
- 2Previsualiza el script generado en el editor integrado.
- 3Descarga el archivo .py listo para ejecutar.
- 4En tu servidor: pip install axolotl y ejecuta el script.
Después del Entrenamiento
Cuando un trabajo completa con éxito, tienes varias opciones disponibles directamente desde la lista de trabajos o la hoja de detalles.
Evaluación Rápida
Desde el panel de trabajos completados, inicia una evaluación con un clic para medir la calidad del modelo.
Guía de evaluacionesProbar en Playground
Usa el playground para probar tu modelo con diferentes prompts y ver cómo responde antes de desplegarlo.
Exportar a HuggingFace
Publica tu modelo en un repositorio de HuggingFace directamente desde AstrApp.
Descargar Localmente
Descarga los pesos del modelo para usarlos con vLLM, llama.cpp o tu infraestructura propia.
Desplegar vía API
Activa el endpoint de tu modelo y empieza a recibir solicitudes desde tus aplicaciones.
Ver Logs y Métricas
Revisa el historial de pérdida, learning rate y otros datos del proceso de entrenamiento.
Tips para un Mejor Entrenamiento
- Más datos = mejor modelo. Apunta a 500+ ejemplos de alta calidad.
- Empieza pequeño. Entrena primero con un modelo 7B para validar tu dataset antes de escalar.
- Valida tu dataset. AstrApp valida automáticamente, pero revisa algunos ejemplos de forma manual.
- Usa QLoRA para modelos grandes. Si trabajas con 13B o más, activa QLoRA para reducir el uso de VRAM.
- Itera. El fine-tuning es un proceso iterativo: entrena, evalúa, mejora los datos y repite.