AstrApp
Docs
Volver a Documentación
Guía de Uso

Playground

Prueba modelos de lenguaje en tiempo real, ajusta parámetros y valida tus modelos fine-tuneados antes de llevarlos a producción.

¿Qué es el Playground?

El Playground es una interfaz de chat interactiva que te permite conversar con cualquier modelo disponible en AstrApp, incluyendo tus propios modelos fine-tuneados. Es el lugar ideal para explorar el comportamiento del modelo, ajustar parámetros y validar respuestas antes de integrarlo en tu aplicación.

Selecciona un modeloConfigura parámetrosEscribe un mensajeRespuesta en tiempo real

Cómo Usar el Playground

1

Accede al Playground

Ve a "/playground" desde el menú lateral de la plataforma.

2

Selecciona un modelo

En el panel de configuración, elige entre los modelos de Together AI disponibles o uno de tus modelos fine-tuneados.

3

Configura el System Prompt (opcional)

Define las instrucciones de sistema que darán contexto y comportamiento al modelo durante la sesión.

4

Ajusta los parámetros

Modifica temperatura, max tokens y top-p según el tipo de respuesta que necesitas.

5

Inicia la conversación

Escribe tu mensaje en el campo de chat y presiona Enter o el botón de enviar. La respuesta llega en tiempo real.

6

Revisa y copia

Usa el botón de copiado en cada respuesta para llevar el texto a donde lo necesites.


Selección de Modelo

Puedes elegir entre dos tipos de modelos en el Playground:

BModelos Base de Together AI

Acceso a los modelos fundacionales disponibles en la plataforma: Llama, Qwen, Mistral, Phi y otros modelos open-source de alta performance.

meta-llama/Llama-3.1-8B-Instruct

Qwen/Qwen2.5-7B-Instruct

mistralai/Mistral-7B-Instruct-v0.3

TTus Modelos Fine-tuneados

Una vez que completes un entrenamiento exitoso, tu modelo aparece en el selector. Puedes probarlo de inmediato sin pasos adicionales.

Disponible automáticamente después de cada entrenamiento exitoso.

Ver guía de selección de modelo

Parámetros de Configuración

Cada parámetro afecta directamente el comportamiento y las respuestas del modelo:

Temperaturedefault: 0.7

Controla la aleatoriedad de las respuestas. Valores bajos producen salidas más deterministas; valores altos, más creativas.

Rango: 0.0 – 2.0

Max Tokensdefault: 512

Número máximo de tokens que puede generar el modelo en una sola respuesta.

Rango: 1 – 4096

Top-pdefault: 1.0

Muestreo por núcleo. Limita la selección de tokens al subconjunto acumulado con probabilidad p.

Rango: 0.0 – 1.0

Guía de Temperature

La temperatura es el parámetro que más impacta el estilo de las respuestas. Elige el rango según tu caso de uso:

0.0 – 0.3Muy determinista

Extracción de datos, clasificación, código

0.4 – 0.7Equilibrado

Respuestas de soporte, resúmenes, QA

0.8 – 1.2Creativo

Redacción, brainstorming, storytelling

1.3 – 2.0Muy aleatorio

Exploración experimental (no recomendado en producción)


Funciones del Chat

Historial de Sesión

El historial de conversación se mantiene durante toda la sesión, permitiéndote continuar desde donde dejaste. Al recargar la página, el historial se reinicia.

Copiar Respuestas

Cada respuesta del modelo incluye un botón de copiado para que puedas llevar el texto directamente a tu editor, dataset o aplicación.

System Prompt

Configura el system prompt de la sesión para darle contexto, rol y restricciones al modelo. Puedes cambiarlos entre mensajes para comparar comportamientos.

Respuestas en Tiempo Real

Las respuestas se muestran en streaming, token por token, para que veas el resultado a medida que el modelo lo genera.


Casos de Uso Principales

Validar tu Modelo Fine-tuneado

Después de un entrenamiento, selecciona tu modelo personalizado y pruébalo con distintos prompts antes de integrarlo a producción.

Comparar Base vs Fine-tuned

Abre dos sesiones en paralelo: una con el modelo base y otra con tu versión entrenada. Compara respuestas ante los mismos inputs.

Experimentar con System Prompts

Prueba diferentes instrucciones de sistema y observa cómo cambia el comportamiento del modelo sin necesidad de re-entrenar.


Tips para Mejores Resultados

  • Empieza con temperatura baja. Usa 0.3–0.5 para validar respuestas factuales y sube gradualmente si necesitas más creatividad.
  • Prueba con los mismos prompts del dataset. Usar exactamente los inputs de tu dataset de entrenamiento te da la mejor señal de calidad del modelo.
  • Guarda los system prompts. Si encuentras una configuración que funciona bien, guárdala en la Biblioteca de Prompts para reutilizarla.
  • Compara modelos antes de producción. Prueba el modelo base y tu versión fine-tuneada con los mismos inputs para confirmar la mejora.
  • Ajusta max tokens según el caso. Para clasificación usa 10–50 tokens; para respuestas largas, 512–2048.