Playground
Prueba modelos de lenguaje en tiempo real, ajusta parámetros y valida tus modelos fine-tuneados antes de llevarlos a producción.
¿Qué es el Playground?
El Playground es una interfaz de chat interactiva que te permite conversar con cualquier modelo disponible en AstrApp, incluyendo tus propios modelos fine-tuneados. Es el lugar ideal para explorar el comportamiento del modelo, ajustar parámetros y validar respuestas antes de integrarlo en tu aplicación.
Cómo Usar el Playground
Accede al Playground
Ve a "/playground" desde el menú lateral de la plataforma.
Selecciona un modelo
En el panel de configuración, elige entre los modelos de Together AI disponibles o uno de tus modelos fine-tuneados.
Configura el System Prompt (opcional)
Define las instrucciones de sistema que darán contexto y comportamiento al modelo durante la sesión.
Ajusta los parámetros
Modifica temperatura, max tokens y top-p según el tipo de respuesta que necesitas.
Inicia la conversación
Escribe tu mensaje en el campo de chat y presiona Enter o el botón de enviar. La respuesta llega en tiempo real.
Revisa y copia
Usa el botón de copiado en cada respuesta para llevar el texto a donde lo necesites.
Selección de Modelo
Puedes elegir entre dos tipos de modelos en el Playground:
BModelos Base de Together AI
Acceso a los modelos fundacionales disponibles en la plataforma: Llama, Qwen, Mistral, Phi y otros modelos open-source de alta performance.
meta-llama/Llama-3.1-8B-Instruct
Qwen/Qwen2.5-7B-Instruct
mistralai/Mistral-7B-Instruct-v0.3
TTus Modelos Fine-tuneados
Una vez que completes un entrenamiento exitoso, tu modelo aparece en el selector. Puedes probarlo de inmediato sin pasos adicionales.
Disponible automáticamente después de cada entrenamiento exitoso.
Parámetros de Configuración
Cada parámetro afecta directamente el comportamiento y las respuestas del modelo:
Controla la aleatoriedad de las respuestas. Valores bajos producen salidas más deterministas; valores altos, más creativas.
Rango: 0.0 – 2.0
Número máximo de tokens que puede generar el modelo en una sola respuesta.
Rango: 1 – 4096
Muestreo por núcleo. Limita la selección de tokens al subconjunto acumulado con probabilidad p.
Rango: 0.0 – 1.0
| Parámetro | Rango | Default | Descripción |
|---|---|---|---|
| Temperature | 0.0 – 2.0 | 0.7 | Controla la aleatoriedad de las respuestas. Valores bajos producen salidas más deterministas; valores altos, más creativas. |
| Max Tokens | 1 – 4096 | 512 | Número máximo de tokens que puede generar el modelo en una sola respuesta. |
| Top-p | 0.0 – 1.0 | 1.0 | Muestreo por núcleo. Limita la selección de tokens al subconjunto acumulado con probabilidad p. |
Guía de Temperature
La temperatura es el parámetro que más impacta el estilo de las respuestas. Elige el rango según tu caso de uso:
Extracción de datos, clasificación, código
Respuestas de soporte, resúmenes, QA
Redacción, brainstorming, storytelling
Exploración experimental (no recomendado en producción)
| Rango | Comportamiento | Ideal Para |
|---|---|---|
| 0.0 – 0.3 | Muy determinista | Extracción de datos, clasificación, código |
| 0.4 – 0.7 | Equilibrado | Respuestas de soporte, resúmenes, QA |
| 0.8 – 1.2 | Creativo | Redacción, brainstorming, storytelling |
| 1.3 – 2.0 | Muy aleatorio | Exploración experimental (no recomendado en producción) |
Funciones del Chat
Historial de Sesión
El historial de conversación se mantiene durante toda la sesión, permitiéndote continuar desde donde dejaste. Al recargar la página, el historial se reinicia.
Copiar Respuestas
Cada respuesta del modelo incluye un botón de copiado para que puedas llevar el texto directamente a tu editor, dataset o aplicación.
System Prompt
Configura el system prompt de la sesión para darle contexto, rol y restricciones al modelo. Puedes cambiarlos entre mensajes para comparar comportamientos.
Respuestas en Tiempo Real
Las respuestas se muestran en streaming, token por token, para que veas el resultado a medida que el modelo lo genera.
Casos de Uso Principales
Validar tu Modelo Fine-tuneado
Después de un entrenamiento, selecciona tu modelo personalizado y pruébalo con distintos prompts antes de integrarlo a producción.
Comparar Base vs Fine-tuned
Abre dos sesiones en paralelo: una con el modelo base y otra con tu versión entrenada. Compara respuestas ante los mismos inputs.
Experimentar con System Prompts
Prueba diferentes instrucciones de sistema y observa cómo cambia el comportamiento del modelo sin necesidad de re-entrenar.
Tips para Mejores Resultados
- Empieza con temperatura baja. Usa 0.3–0.5 para validar respuestas factuales y sube gradualmente si necesitas más creatividad.
- Prueba con los mismos prompts del dataset. Usar exactamente los inputs de tu dataset de entrenamiento te da la mejor señal de calidad del modelo.
- Guarda los system prompts. Si encuentras una configuración que funciona bien, guárdala en la Biblioteca de Prompts para reutilizarla.
- Compara modelos antes de producción. Prueba el modelo base y tu versión fine-tuneada con los mismos inputs para confirmar la mejora.
- Ajusta max tokens según el caso. Para clasificación usa 10–50 tokens; para respuestas largas, 512–2048.