Encadenamiento de prompts
Utiliza una técnica de "encadenamiento de prompts". Primero, una IA genera un resumen conciso del texto original. Luego, utilizando ese resumen, una segunda IA crea un conjunto de preguntas de opción múltiple.
🧩 Descripción general
El flujo de Encadenamiento de prompts automatiza la creación de preguntas de opción múltiple a partir de textos extensos. Un primer modelo de IA resume el documento proporcionado por el usuario y, a continuación, un segundo modelo genera un conjunto de preguntas basadas en ese resumen. La conversación se visualiza en la interfaz de chat, facilitando la interacción y la generación de contenidos de forma rápida y coherente.
⚙️ Funcionalidades principales
- Captura y almacena la entrada del usuario en un chat interactivo.
- Genera un resumen conciso del texto utilizando un modelo de lenguaje.
- Construye dinámicamente un prompt para la generación de preguntas.
- Produce un conjunto de preguntas de opción múltiple con opciones (A, B, C) y una respuesta correcta.
- Muestra los resultados directamente en la ventana de chat para su revisión inmediata.
🔄 Pasos del flujo de trabajo
| Nombre del componente | Rol en el flujo | Entradas clave | Salidas clave |
|---|---|---|---|
| Entrada de chat | Captura el texto inicial del usuario y crea la conversación. | Texto del usuario, identificación de la conversación. | Mensaje de chat con el texto del usuario. |
| Prompt de Resumen | Construye el prompt que solicita al modelo un resumen. | Mensaje de chat con el texto. | Prompt formateado con el texto introducido. |
| Generador de Resumen | Ejecuta el modelo de lenguaje para crear el resumen. | Prompt de resumen. | Resumen del texto original (mensaje). |
| Prompt de Preguntas | Construye el prompt que solicita preguntas basadas en el resumen. | Resumen generado. | Prompt formateado con el resumen. |
| Generador de Preguntas | Ejecuta el modelo de lenguaje para crear preguntas de opción múltiple. | Prompt de preguntas. | Conjunto de preguntas con opciones y respuesta correcta (mensaje). |
| Salida de chat | Muestra el resultado final al usuario en la interfaz de chat. | Mensaje con preguntas. | Mensaje visible en el chat como respuesta del sistema. |
Nota: Los dos componentes de “Label” presentes en el diagrama son meramente informativos y no intervienen en la lógica de generación.
🧠 Notas
- El flujo utiliza el modelo gpt‑4o‑mini de OpenAI, lo que permite obtener respuestas de alta calidad con un coste reducido.
- Se requiere una clave válida de OpenAI configurada en el entorno para que los modelos funcionen.
- El primer modelo genera un resumen que debe cumplir con el formato indicado; si el texto no es un documento válido, el segundo modelo devolverá un mensaje indicando la necesidad de un documento.
- Los límites de tokens del modelo pueden restringir la longitud del resumen y de las preguntas; ajustar la opción Max Tokens si se trabaja con textos muy extensos.
- La secuencia de prompts se basa en “encadenamiento”, donde la salida de un modelo alimenta la entrada del siguiente, garantizando coherencia y relevancia entre resumen y preguntas.
- El flujo almacena automáticamente cada mensaje en el historial de conversación, permitiendo revisiones posteriores.