Microagentes
Procesa tus conversaciones en batch usando agentes LLM especializados. Cada microagente tiene un propósito concreto y un prompt optimizado para transformar, evaluar o generar conversaciones a escala.
¿Qué son los Microagentes?
Los microagentes son agentes LLM especializados que procesan conversaciones en batch. Cada agente tiene un propósito específico y usa un prompt optimizado para ejecutar una tarea concreta sobre tus conversaciones.
Importante: Los microagentes trabajan sobre las conversaciones de tu proyecto. Accede desde la sección Conversaciones → Microagentes.
Los 9 Microagentes
Cada microagente está diseñado para una tarea específica sobre tus conversaciones.
| Agente | Descripción | Modo |
|---|---|---|
Evaluador | Evalúa la calidad de respuestas del asistente en una escala del 1 al 5. | Procesar |
Etiquetador | Clasifica conversaciones por tema o intención para organizar tu dataset. | Procesar |
Regenerador | Regenera respuestas del asistente con mayor calidad y coherencia. | Procesar |
Personalizador | Adapta el tono y estilo de las respuestas al perfil de tu marca o caso de uso. | Procesar |
Buscador | Busca y extrae información relevante dentro del contexto de cada conversación. | Procesar |
Validador | Verifica la precisión factual de las respuestas del asistente. | Procesar |
Convertidor | Convierte el formato de las conversaciones entre ChatML, ShareGPT y otros. | Procesar |
Inspector | Detecta problemas de calidad en las conversaciones y sugiere correcciones. | Procesar |
Sintetizador | Genera nuevas conversaciones sintéticas basadas en el contexto de tu proyecto. | Generar |
Evaluador
ProcesarEvalúa la calidad de respuestas del asistente en una escala del 1 al 5.
Etiquetador
ProcesarClasifica conversaciones por tema o intención para organizar tu dataset.
Regenerador
ProcesarRegenera respuestas del asistente con mayor calidad y coherencia.
Personalizador
ProcesarAdapta el tono y estilo de las respuestas al perfil de tu marca o caso de uso.
Buscador
ProcesarBusca y extrae información relevante dentro del contexto de cada conversación.
Validador
ProcesarVerifica la precisión factual de las respuestas del asistente.
Convertidor
ProcesarConvierte el formato de las conversaciones entre ChatML, ShareGPT y otros.
Inspector
ProcesarDetecta problemas de calidad en las conversaciones y sugiere correcciones.
Sintetizador
GenerarGenera nuevas conversaciones sintéticas basadas en el contexto de tu proyecto.
Dos Modos de Operación
Según el agente seleccionado, podrás operar en modo Procesar o en modo Generar.
Procesar
Aplica el agente a conversaciones existentes en tu proyecto. El agente analiza y modifica las conversaciones in-place.
- Máximo 50 conversaciones por ejecución
- Disponible para 8 de los 9 agentes
- Los resultados se aplican directamente sobre las conversaciones
Generar
Crea nuevas conversaciones sintéticas a partir del contexto de tu proyecto. Solo disponible para el agente Sintetizador.
- Rango: 10 – 200 conversaciones por ejecución
- Exclusivo del agente Sintetizador
- Las conversaciones generadas se añaden a tu proyecto
Modelos Disponibles
Elige el modelo LLM que ejecutará el microagente. Cada opción ofrece un balance distinto entre velocidad, calidad y costo.
| Modelo | Proveedor | Velocidad | Calidad | Costo |
|---|---|---|---|---|
| Gemini 2.5 Flash | Muy rápido | Buena | Bajo | |
| Claude Haiku 4.5 | Anthropic | Rápido | Muy buena | Medio |
| ChatGPT-4o | OpenAI | Medio | Excelente | Alto |
Parámetros Configurables
Antes de ejecutar un microagente puedes ajustar su comportamiento mediante los siguientes parámetros.
| Parámetro | Rango / Opciones | Descripción |
|---|---|---|
| Temperatura | 0.0 – 1.0 | Controla la creatividad del agente. Valores bajos generan respuestas más deterministas. |
| Max tokens de salida | Depende del modelo | Límite de tokens que el agente puede generar por conversación. |
| Prompt personalizado | Texto libre | Edita el prompt base del agente para adaptarlo a tu caso de uso. |
| Preview del prompt | Vista previa | Muestra el prompt completo que se enviará al modelo antes de ejecutar. |
Consejo: Usa siempre la opción de Preview del prompt antes de ejecutar para verificar que el agente tiene el contexto correcto. Esto evita resultados inesperados y te ahorra créditos.
Métricas de Resultado
Al finalizar cada ejecución, AstrApp muestra un resumen detallado del resultado con las siguientes métricas.
Conversaciones procesadas
Número de conversaciones completadas sobre el total enviado.
Tiempo de ejecución
Duración total del proceso desde el inicio hasta el fin.
Costo estimado
Costo calculado en base a los tokens consumidos durante la ejecución.
Errores
Conversaciones que no pudieron procesarse, con el detalle del fallo.
Tips para Usar Microagentes
- Empieza con lotes pequeños. Procesa entre 10 y 20 conversaciones primero para validar que los resultados son los esperados antes de escalar.
- Revisa las primeras conversaciones. Antes de procesar el lote completo, revisa manualmente las primeras 5 conversaciones procesadas para confirmar la calidad del output.
- Empieza con el Evaluador. Es el agente ideal como primer paso para identificar conversaciones de baja calidad en tu dataset.
- Combina agentes. Usa el flujo Evaluador → Regenerador para mejorar la calidad de tus conversaciones de forma automática y sistemática.