Encadenamiento de Prompts
Utiliza una técnica de "encadenamiento de prompts". Primero, una IA genera un resumen conciso del texto original. Luego, utilizando ese resumen, una segunda IA crea un conjunto de preguntas de opción múltiple.
Flujo de Trabajo: Encadenamiento de Prompts
El flujo automatiza la generación de un resumen conciso de un texto y la creación de un conjunto de preguntas de opción múltiple basadas en ese resumen, empleando modelos de lenguaje de OpenAI. El proceso se ejecuta en una secuencia de pasos interconectados que reciben y transforman la información de entrada hasta producir respuestas visuales en formato de chat y texto.
🔧 Funcionalidades principales
- Entrada de usuario: Captura el mensaje de texto en un entorno de chat.
- Generación de prompt: Construye dinámicamente prompts de resumen y de preguntas a partir del contenido del usuario.
- Modelado de lenguaje: Ejecuta modelos de OpenAI (gpt‑4o‑mini) para generar resúmenes y preguntas.
- Salida visual: Muestra el resumen y las preguntas como mensajes de chat y como textos independientes.
- Encadenamiento de pasos: Utiliza la salida de un modelo como entrada de la siguiente etapa, garantizando coherencia y contexto en la generación.
🔄 Pasos del flujo de trabajo
| Nombre del componente | Rol en el flujo | Entradas clave | Salidas clave |
|---|---|---|---|
| Chat Input | Captura el texto del usuario. | Mensaje de usuario | Mensaje con texto del usuario |
| Prompt (Generar Resumen) | Construlle el prompt para resumir el texto. | Texto del usuario | Prompt de resumen |
| OpenAI Model (Generar Resumen) | Ejecuta la LLM para generar el resumen. | Prompt de resumen | Texto del resumen |
| Text Output (Resumen) | Muestra el resumen como salida de texto. | Texto del resumen | Resumen visible al usuario |
| Chat Output (Resumen) | Presenta el resumen como mensaje de chat. | Texto del resumen | Mensaje de chat con el resumen |
| Prompt (Creador de Preguntas) | Genera el prompt para crear preguntas a partir del resumen. | Resumen del texto | Prompt de generación de preguntas |
| OpenAI Model (Generar Preguntas) | Ejecuta la LLM para crear preguntas de opción múltiple. | Prompt de generación de preguntas | Texto con preguntas |
| Text Output (Preguntas) | Muestra las preguntas como salida de texto. | Texto de preguntas | Preguntas visibles al usuario |
| Chat Output (Preguntas) | Presenta las preguntas como mensaje de chat. | Texto de preguntas | Mensaje de chat con las preguntas |
Nota: Los componentes Text Output (Resumen) y Chat Output (Resumen) reciben la misma información (el resumen) en paralelo; lo mismo ocurre con las preguntas, que se muestran tanto en texto como en chat.
🧠 Notas
- Modelos utilizados: Ambos pasos de generación de texto emplean el modelo gpt‑4o‑mini de OpenAI, configurado con un temperature de 0.1 y sin streaming.
- Credenciales: El flujo requiere credenciales de OpenAI (API Key) para autenticar las llamadas a la API.
- Tamaño del contexto: Se permite un número máximo de tokens configurable; por defecto, se utiliza un límite amplio para asegurar que el resumen y las preguntas cubran todo el contenido.
- Plantillas de prompt:
- El prompt de resumen incluye una instrucción clara para generar un resumen conciso y estructurado.
- El prompt de preguntas solicita la creación de dos preguntas de opción múltiple con tres opciones cada una.
- Dependencias: Se requiere conexión a la API de OpenAI; sin ella, el flujo no podrá generar textos.
- Limitaciones: Los modelos generan respuestas basadas en el contexto disponible; textos muy extensos pueden requerir ajuste de
max_tokens. Además, la generación de preguntas depende de la calidad del resumen previo.