AstrApp
Docs
Volver a Documentación
Guía de Uso

Entrenamiento de Modelos

Aprende a entrenar (fine-tune) tu propio modelo de IA usando tus datos. AstrApp se encarga de la infraestructura, tú solo defines qué quieres entrenar.

¿Qué es Fine-tuning?

Fine-tuning es el proceso de adaptar un modelo pre-entrenado (como Llama o Qwen) a tu caso de uso específico usando tus propios datos. En lugar de entrenar un modelo desde cero, aprovechas el conocimiento existente y lo especializas.

Modelo Base
+ Tus Datos
= Modelo Especializado

Asistente de Entrenamiento

AstrApp incluye un asistente de 4 pasos (wizard) que te guía desde la selección del modelo hasta el lanzamiento del trabajo de entrenamiento. Accede desde Entrenamiento → Nuevo Entrenamiento.

1

Seleccionar Modelo

  • Explora el registro de LLMs de código abierto.
  • Filtra por arquitectura: Llama, Qwen, Mistral, Phi y más.
  • Consulta los detalles de cada modelo: número de parámetros, VRAM requerida y fortalezas.
  • Elige el tamaño que mejor se adapta a tu caso: 7B, 13B, 70B, etc.
2

Configurar Entrenamiento

  • Elige el método: LoRA o Full Fine-tuning.
  • Ajusta los hyperparámetros: Epochs (1–10), Batch size (1–32), Learning rate (1e-5 a 5e-4).
  • Para LoRA: configura Rank (8–128), Alpha y Dropout.
  • Activa QLoRA para optimizar el uso de memoria con modelos grandes.
3

Seleccionar Dataset

  • Sube un archivo nuevo directamente desde tu equipo.
  • Selecciona un dataset existente en tu cuenta.
  • Importa desde HuggingFace usando el nombre del repositorio.
  • Previsualiza el dataset y revisa las validaciones antes de confirmar.
4

Elegir Proveedor y Lanzar

  • Selecciona el proveedor de cómputo (Together AI, RunPod, VastAI o Modal).
  • Configura los ajustes específicos del proveedor (GPU, región, etc.).
  • Revisa el resumen completo de la configuración.
  • Lanza el entrenamiento con un clic.

Consejo: Completa el wizard de principio a fin sin cerrar la ventana. Si necesitas salir, el borrador no se guarda automáticamente; tendrás que reiniciar el proceso.


Modelos Base Disponibles

ModeloTamañosMejor ParaPlan Mínimo
Llama 3.18B, 70BGeneral purpose, muy versátilStarter+
Qwen 2.57B, 14B, 32B, 72BExcelente en código y razonamientoStarter+ (72B: Pro)
Mistral7BEficiente, buen rendimiento/costoStarter+
Phi-33.8B, 14BModelos pequeños muy capacesFree+
Ver guía completa de selección de modelo

Técnicas de Entrenamiento

LoRA (Low-Rank Adaptation)

Entrena solo una pequeña fracción de parámetros. Rápido y eficiente.

  • Menor uso de memoria
  • Entrenamiento rápido
  • Fácil de combinar

Recomendado para la mayoría de casos

QLoRA

LoRA + cuantización de 4-bit. Permite entrenar modelos grandes con menos recursos.

  • Modelos grandes en GPUs pequeñas
  • Muy eficiente en memoria

Ideal para modelos >13B parámetros

Full Fine-tuning

Entrena todos los parámetros del modelo.

  • Máximo potencial de adaptación

Solo si tienes muchos recursos y datos


Proveedores de Entrenamiento

AstrApp soporta cuatro proveedores de cómputo para lanzar tus trabajos de entrenamiento. Todos soportan polling en tiempo real para que veas el progreso sin recargar la página.

ProveedorTipoMejor ParaPolling en Tiempo Real
Together AI
Cloud APIEntrenamiento rápido con modelos pequeños y medianos.
RunPod
GPU CloudEntrenamiento de rango medio con GPUs flexibles.
VastAI
GPU MarketplaceEntrenamiento de bajo costo con hardware diverso.
Modal
ServerlessEntrenamiento serverless sin gestión de infraestructura.

Together AI

Cloud API
GPUs
A10G, A100 (según disponibilidad en la plataforma)
Precios
Por tiempo de GPU consumido.
Úsalo cuando
Cuando quieres comenzar rápido sin gestionar infraestructura.

RunPod

GPU Cloud
GPUs
RTX 3090/4090, A100, H100 (on-demand y spot)
Precios
Por segundo de GPU; precios spot muy competitivos.
Úsalo cuando
Cuando necesitas flexibilidad de GPU y control de costos.

VastAI

GPU Marketplace
GPUs
Amplia variedad: RTX 3080 a H100, según proveedores del marketplace
Precios
Subasta de precios; generalmente el más económico.
Úsalo cuando
Cuando el costo es la prioridad principal y puedes aceptar hardware variable.

Modal

Serverless
GPUs
A10G, A100, H100 (aprovisionamiento automático)
Precios
Solo pagas por el tiempo de cómputo real, sin reservas.
Úsalo cuando
Cuando quieres escalar automáticamente y no gestionar pods.

Configurar API Keys de Proveedores

Para usar cualquier proveedor necesitas agregar su API key en AstrApp:

  1. 1Ve a Configuración → Integraciones → Proveedores LLM.
  2. 2Selecciona el proveedor que quieres configurar.
  3. 3Pega tu API key y guarda.
  4. 4Verifica que aparezca el indicador verde de "Conectado".
Ver guía de integraciones

Infraestructura y Costos

Incluido en tu suscripción: El costo de GPU está incluido en tu plan mensual. No hay cargos adicionales por hora dentro de los límites de tu plan.

GPUCosto/HoraModelos SoportadosDisponible En
T4 (16GB)$0.50≤7B QLoRAFree
A10G (24GB)$1.007B-13BStarter
A100 40GB$2.0013B-34BProfessional
A100 80GB$3.5034B-72BProfessional
H100 (80GB)$5.00Todos + Multi-GPUEnterprise

Plan Free

  • • 3 entrenamientos/mes
  • • Máximo 1 hora por entreno
  • • Solo GPU T4
  • • Modelos ≤7B con QLoRA

Plan Starter

  • • 20 entrenamientos/mes
  • • Máximo 4 horas por entreno
  • • GPU T4 y A10G
  • • Todos los modelos del marketplace

Plan Professional

  • • Entrenamientos ilimitados
  • • Máximo 12 horas por entreno
  • • Todas las GPUs hasta A100 80GB
  • • Modelos hasta 72B

Tiempos estimados: Entrenar Llama 8B con 1000 ejemplos ≈ 30-45 min en A10G. Qwen 72B con 5000 ejemplos ≈ 2-3 horas en A100 80GB.


Parámetros Clave

ParámetroRango / DefaultDescripción
Learning Rate1e-5 – 5e-4 (default 2e-4)Qué tan rápido aprende el modelo
Epochs1 – 10 (default 3)Cuántas veces ve el dataset completo
Batch Size1 – 32 (default 2)Ejemplos procesados por paso
LoRA Rank (r)8 – 128Dimensión de adaptación LoRA; valores más altos = más capacidad
LoRA Alpha16 – 128Factor de escala LoRA; generalmente 2× el rank
LoRA Dropout0.0 – 0.1Regularización para prevenir overfitting en LoRA
Ver guía completa de hyperparameters

Monitoreo en Tiempo Real

La sección Entrenamiento → Dashboard centraliza todos tus trabajos activos y pasados con actualización automática.

Total de Trabajos

Todos los entrenamientos iniciados en tu cuenta

En Ejecución

Trabajos activos en este momento

Completados

Entrenamientos finalizados con éxito

Fallidos

Trabajos que terminaron con error

Métricas Mostradas Durante el Entrenamiento

Tiempo Transcurrido

Duración actual del entrenamiento

Época Actual

Progreso a través del dataset

Loss

Métrica de error (debe bajar con el tiempo)

Learning Rate

Tasa de aprendizaje en el paso actual

Barra de Progreso en Tiempo Real

Cada trabajo activo muestra una barra de progreso que se actualiza automáticamente. Together AI y RunPod envían actualizaciones frecuentes; VastAI y Modal también soportan polling con intervalos similares.

Hoja de Detalles del Trabajo

Haz clic en cualquier trabajo para abrir una hoja lateral con los hyperparámetros completos, la configuración del proveedor y el historial de métricas del entrenamiento.

Consejo: Si el loss deja de bajar o aumenta después de las primeras épocas, es señal de overfitting. Considera reducir el número de epochs o aumentar el dropout.


Generador de Scripts

¿Prefieres entrenar en tu propia infraestructura o en un servidor personalizado? El Generador de Scripts (disponible en Entrenamiento → Generador de Scripts) produce scripts listos para ejecutar basados en Axolotl.

Script de Entrenamiento

Genera un script Python completo para fine-tuning con Axolotl. Incluye toda la configuración de LoRA, QLoRA o Full Fine-tuning que hayas definido en el wizard.

Script de Curación de Datos

Genera un script para limpiar, formatear y validar tu dataset antes del entrenamiento. Útil para preprocesar datos desde fuentes externas.

Criterios de Evaluación

Configura métricas y criterios de evaluación específicos para tu caso de uso. El script generado los integra en el ciclo de entrenamiento.

Personalidad del Evaluador

Define la personalidad y el rol del evaluador automático que juzgará las respuestas del modelo durante y después del entrenamiento.

Descargar y Usar los Scripts

  1. 1Configura los parámetros en el generador (modelo, método, hyperparámetros, dataset).
  2. 2Previsualiza el script generado en el editor integrado.
  3. 3Descarga el archivo .py listo para ejecutar.
  4. 4En tu servidor: pip install axolotl y ejecuta el script.

Después del Entrenamiento

Cuando un trabajo completa con éxito, tienes varias opciones disponibles directamente desde la lista de trabajos o la hoja de detalles.

Evaluación Rápida

Desde el panel de trabajos completados, inicia una evaluación con un clic para medir la calidad del modelo.

Guía de evaluaciones

Probar en Playground

Usa el playground para probar tu modelo con diferentes prompts y ver cómo responde antes de desplegarlo.

Exportar a HuggingFace

Publica tu modelo en un repositorio de HuggingFace directamente desde AstrApp.

Descargar Localmente

Descarga los pesos del modelo para usarlos con vLLM, llama.cpp o tu infraestructura propia.

Desplegar vía API

Activa el endpoint de tu modelo y empieza a recibir solicitudes desde tus aplicaciones.

Ver Logs y Métricas

Revisa el historial de pérdida, learning rate y otros datos del proceso de entrenamiento.

Tips para un Mejor Entrenamiento

  • Más datos = mejor modelo. Apunta a 500+ ejemplos de alta calidad.
  • Empieza pequeño. Entrena primero con un modelo 7B para validar tu dataset antes de escalar.
  • Valida tu dataset. AstrApp valida automáticamente, pero revisa algunos ejemplos de forma manual.
  • Usa QLoRA para modelos grandes. Si trabajas con 13B o más, activa QLoRA para reducir el uso de VRAM.
  • Itera. El fine-tuning es un proceso iterativo: entrena, evalúa, mejora los datos y repite.