Indicaciones de razonamiento
Este flujo genera una respuesta final con justificación. Para esto, primero crea una justificación lógica y luego la integra a la respuesta antes de enviarla.
graph TD
%%{init: {'theme': 'mc','layout': 'elk'}}%%
Prompt-vq8my[<div><img alt="logo" src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt para generar justificación]
style Prompt-vq8my stroke:#a170ff
OpenAIModel-d3dpa[<div><img alt="logo" src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Justificación]
style OpenAIModel-d3dpa stroke:#a170ff
Prompt-tma9i[<div><img alt="logo" src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt]
style Prompt-tma9i stroke:#a170ff
OpenAIModel-1tbks[<div><img alt="logo" src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Respuesta]
style OpenAIModel-1tbks stroke:#a170ff
ChatInput-6u0w8[<div><img alt="logo" src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Input]
style ChatInput-6u0w8 stroke:#a170ff
CombineText-hw2cy[Combina la justificacion con la respuesta]
style CombineText-hw2cy stroke:#a170ff
ChatOutput-k57y4[<div><img alt="logo" src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Output]
style ChatOutput-k57y4 stroke:#a170ff
Prompt-vq8my -.- OpenAIModel-d3dpa
linkStyle 0 stroke:#a170ff
OpenAIModel-d3dpa -.- Prompt-tma9i
linkStyle 1 stroke:#a170ff
Prompt-tma9i -.- OpenAIModel-1tbks
linkStyle 2 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-vq8my
linkStyle 3 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-tma9i
linkStyle 4 stroke:#a170ff
OpenAIModel-1tbks -.- CombineText-hw2cy
linkStyle 5 stroke:#a170ff
CombineText-hw2cy -.- ChatOutput-k57y4
linkStyle 6 stroke:#a170ff
OpenAIModel-d3dpa -.- CombineText-hw2cy
linkStyle 7 stroke:#a170ff
🧩 Descripción general
El flujo “Indicaciones de razonamiento” transforma una pregunta de un usuario en una respuesta final acompañada de una justificación lógica. Primero genera una explicación del razonamiento, luego produce la respuesta definitiva basándose en esa justificación y finalmente combina ambos textos antes de enviarlos al usuario.
⚙️ Funcionalidades principales
- Genera una justificación lógica a partir de la pregunta del usuario mediante un modelo de OpenAI.
- Produce la respuesta final utilizando la justificación previamente elaborada.
- Concatena la justificación y la respuesta en un solo bloque de texto.
- Muestra el resultado final en la interfaz de chat como respuesta automática.
🔄 Pasos del flujo de trabajo
| Nombre del componente | Rol en el flujo | Entradas clave | Salidas clave |
|---|---|---|---|
| Entrada de chat | Recibe la pregunta del usuario y la convierte en un mensaje de texto. | Mensaje de usuario (pregunta) | Mensaje de chat (texto) |
| Prompt (justificación) | Construye el prompt para solicitar la justificación al modelo. | Pregunta del usuario | Prompt de texto |
| Modelo de OpenAI (justificación) | Genera la justificación lógica a partir del prompt. | Prompt de texto | Texto de justificación |
| Prompt (respuesta final) | Construye el prompt para la respuesta final incorporando la pregunta y la justificación. | Pregunta, justificación | Prompt de texto |
| Modelo de OpenAI (respuesta final) | Produce la respuesta definitiva basada en el prompt. | Prompt de texto | Texto de respuesta |
| Combina la justificación con la respuesta | Concatena la justificación y la respuesta usando un delimitador. | Texto de justificación, texto de respuesta | Texto combinado |
| Salida de chat | Envía el texto combinado al usuario como mensaje de respuesta. | Texto combinado | Mensaje de chat (respuesta) |
🧠 Notas
- Credenciales de OpenAI: El flujo depende de un ID de credencial válido para acceder a los modelos.
- Límites de tokens: Cada modelo tiene un máximo de tokens; ajustarse al parámetro
max_tokensevita truncamientos. - JSON Mode: No se activa en este flujo; el modelo devuelve texto plano.
- Modelo utilizado: Se emplea el modelo
gpt-4o-minipor su equilibrio entre coste y desempeño. - Persistencia de conversación: El flujo guarda cada mensaje en el historial gracias a los identificadores de conversación y sesión.
- Extensibilidad: Se pueden intercambiar los modelos o los prompts sin modificar la lógica del flujo.