Indicaciones de razonamiento
Este flujo genera una respuesta final con justificación. Para esto, primero crea una justificación lógica y luego la integra a la respuesta antes de enviarla.
graph TD
%%{init: {'theme': 'mc','layout': 'elk'}}%%
Prompt-vq8my[<div><img src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt para generar justificación]
style Prompt-vq8my stroke:#a170ff
OpenAIModel-d3dpa[<div><img src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Justificación]
style OpenAIModel-d3dpa stroke:#a170ff
Prompt-tma9i[<div><img src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt]
style Prompt-tma9i stroke:#a170ff
OpenAIModel-1tbks[<div><img src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Respuesta]
style OpenAIModel-1tbks stroke:#a170ff
ChatInput-6u0w8[<div><img src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Input]
style ChatInput-6u0w8 stroke:#a170ff
CombineText-hw2cy[Combina la justificacion con la respuesta]
style CombineText-hw2cy stroke:#a170ff
ChatOutput-k57y4[<div><img src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Output]
style ChatOutput-k57y4 stroke:#a170ff
Prompt-vq8my -.- OpenAIModel-d3dpa
linkStyle 0 stroke:#a170ff
OpenAIModel-d3dpa -.- Prompt-tma9i
linkStyle 1 stroke:#a170ff
Prompt-tma9i -.- OpenAIModel-1tbks
linkStyle 2 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-vq8my
linkStyle 3 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-tma9i
linkStyle 4 stroke:#a170ff
OpenAIModel-1tbks -.- CombineText-hw2cy
linkStyle 5 stroke:#a170ff
CombineText-hw2cy -.- ChatOutput-k57y4
linkStyle 6 stroke:#a170ff
OpenAIModel-d3dpa -.- CombineText-hw2cy
linkStyle 7 stroke:#a170ff
🧩 Descripción general
El flujo automatiza la generación de una respuesta final a una pregunta de usuario, incorporando una justificación lógica antes de entregarla. Primero crea la justificación mediante un modelo LLM, luego combina esta justificación con la respuesta generada y la envía de vuelta al chat.
⚙️ Funcionalidades principales
- Recibe la pregunta del usuario a través de una entrada de chat.
- Genera una justificación lógica con un modelo de OpenAI.
- Construye un prompt que incluye la pregunta y la justificación.
- Produce la respuesta final con otro modelo de OpenAI.
- Concatena la justificación y la respuesta en un único texto.
- Envía el texto combinado como mensaje de salida al chat.
🔄 Pasos del flujo de trabajo
| Nombre del componente | Rol en el flujo | Entradas clave | Salidas clave |
|---|---|---|---|
| Entrada de chat | Recibe la interacción inicial del usuario. | Pregunta del usuario, ID de conversación, ID de sesión. | Mensaje de chat (texto y metadatos). |
| Prompt para generar justificación | Prepara el texto que instruye al modelo para producir una justificación. | Pregunta del usuario. | Prompt de pregunta. |
| Modelo de OpenAI (Generación de justificación) | Produce la justificación lógica basada en el prompt. | Prompt de pregunta. | Texto generado (justificación). |
| Prompt para generar respuesta final | Construye un nuevo prompt que incorpora la pregunta y la justificación. | Pregunta del usuario, justificación. | Prompt con pregunta y justificación. |
| Modelo de OpenAI (Generación de respuesta) | Genera la respuesta final a partir del prompt combinado. | Prompt con pregunta y justificación. | Texto generado (respuesta). |
| Combina la justificación con la respuesta | Une los textos de justificación y respuesta en un solo bloque. | Justificación, respuesta. | Texto combinado (justificación + respuesta). |
| Salida de chat | Entrega el texto combinado al usuario como mensaje de chat. | Texto combinado. | Mensaje de chat con la respuesta final. |
🧠 Notas
- El flujo utiliza el modelo gpt‑4o‑mini de OpenAI para ambas etapas de generación, lo que garantiza respuestas coherentes y de bajo coste de tokens.
- Los prompts están diseñados con placeholders dinámicos (
{question},{rationale}) que se rellenan en tiempo de ejecución. - La combinación de textos emplea un delimitador
\n\npara mantener la legibilidad de la respuesta final. - Se evita incluir código fuente o parámetros internos; la documentación se centra en la lógica funcional y los flujos de datos.
- El flujo está preparado para integrarse con entornos de playground, gestionando la identificación de sesiones y conversaciones automáticamente.