Indicações de raciocínio
Este fluxo gera uma resposta final com justificativa. Para isso, primeiro cria uma justificativa lógica e depois a integra à resposta antes de enviá-la.
graph TD
%%{init: {'theme': 'mc','layout': 'elk'}}%%
Prompt-vq8my[<div><img alt="logo" src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt para generar justificación]
style Prompt-vq8my stroke:#a170ff
OpenAIModel-d3dpa[<div><img alt="logo" src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Justificación]
style OpenAIModel-d3dpa stroke:#a170ff
Prompt-tma9i[<div><img alt="logo" src="/_astro/square-terminal.BMOXc-nZ.svg" style="height: 20px !important;width: 20px !important"/></div>Prompt]
style Prompt-tma9i stroke:#a170ff
OpenAIModel-1tbks[<div><img alt="logo" src="/_astro/openAI.BhmuxEs3.svg" style="height: 20px !important;width: 20px !important"/></div>Genera Respuesta]
style OpenAIModel-1tbks stroke:#a170ff
ChatInput-6u0w8[<div><img alt="logo" src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Input]
style ChatInput-6u0w8 stroke:#a170ff
CombineText-hw2cy[Combina la justificacion con la respuesta]
style CombineText-hw2cy stroke:#a170ff
ChatOutput-k57y4[<div><img alt="logo" src="/_astro/messages-square.BaSDmT6g.svg" style="height: 20px !important;width: 20px !important"/></div>Chat Output]
style ChatOutput-k57y4 stroke:#a170ff
Prompt-vq8my -.- OpenAIModel-d3dpa
linkStyle 0 stroke:#a170ff
OpenAIModel-d3dpa -.- Prompt-tma9i
linkStyle 1 stroke:#a170ff
Prompt-tma9i -.- OpenAIModel-1tbks
linkStyle 2 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-vq8my
linkStyle 3 stroke:#a170ff
ChatInput-6u0w8 -.- Prompt-tma9i
linkStyle 4 stroke:#a170ff
OpenAIModel-1tbks -.- CombineText-hw2cy
linkStyle 5 stroke:#a170ff
CombineText-hw2cy -.- ChatOutput-k57y4
linkStyle 6 stroke:#a170ff
OpenAIModel-d3dpa -.- CombineText-hw2cy
linkStyle 7 stroke:#a170ff
Fluxo de Resposta com Justificação
🧩 Descrição Geral
O fluxo automatiza a produção de uma resposta ao usuário, combinando uma justificativa lógica com a resposta final. A partir da pergunta recebida, gera‑se primeiro a justificativa, em seguida a resposta baseada nela, e finalmente as duas são unidas em uma única mensagem que é exibida no chat.
⚙️ Funcionalidades Principais
- Captura a pergunta do usuário e a disponibiliza para os modelos.
- Gera uma justificativa lógica a partir da pergunta.
- Gera a resposta final com base na justificativa.
- Combina justificativa e resposta final em uma única mensagem.
- Exibe a mensagem combinada no chat.
🔄 Passos do Fluxo de Trabalho
| Nome do Componente | Papel no Fluxo | Entradas Principais | Saídas Principais |
|---|---|---|---|
| Chat Input | Recebe a pergunta do usuário. | Pergunta em texto. | Mensagem contendo a pergunta. |
| Prompt para gerar justificativa | Constrói o prompt para solicitar a justificativa. | Pergunta. | Prompt formatado para o modelo. |
| Modelo OpenAI para gerar justificativa | Produz a justificativa. | Prompt. | Texto de justificativa. |
| Prompt para gerar resposta final | Constrói o prompt para a resposta final, usando a justificativa. | Pergunta, Justificativa. | Prompt formatado para o modelo. |
| Modelo OpenAI para gerar resposta final | Produz a resposta final. | Prompt. | Texto da resposta final. |
| Combina justificação com resposta | Junta justificativa e resposta final em um único texto. | Justificativa, Resposta final. | Texto combinado (justificativa + resposta). |
| Saída de Chat | Exibe a mensagem combinada no chat. | Texto combinado. | Mensagem exibida no chat. |
🧠 Notas
- O fluxo utiliza dois modelos OpenAI distintos, ambos configurados com o modelo gpt‑4o‑mini; garantir credenciais válidas é essencial.
- O prompt de justificativa solicita ao modelo um raciocínio lógico antes da resposta, enquanto o segundo prompt incorpora essa justificativa na construção da resposta final.
- O componente Combina justificação com resposta emprega um delimitador padrão (
\n\n) para separar visualmente a justificativa da resposta no texto final. - Os LabelComponent presentes no diagrama são usados apenas para fins de exibição no editor; não fazem parte do fluxo funcional.
- O fluxo assume que a entrada de chat pode conter texto, arquivos ou multimídia, mas apenas o texto é utilizado nos prompts.
- Caso a geração de texto exceda o limite de tokens configurado, o modelo retornará a parte solicitada, respeitando o parâmetro
max_tokens.