Prompt Engineering Parte 3

[mr_rating_result]

Estrategias para controlar el formato de salida

 

1. Instrucción directa

“Responde en formato JSON con los campos: pregunta, opciones, respuesta_correcta.”

2. Plantilla explícita “Sigue este formato:

 

Pregunta:

Opciones: A)… B)… C)… D)…

Respuesta correcta:”

 

3. Uso de delimitadores “Escribe la salida entre etiquetas <respuesta> y </respuesta>.”

4. Restricciones claras “No incluyas explicaciones. Usa solo código válido en JavaScript.”

Ejemplos por modelo Deepseek-LLM

Prompt:

“Resume el siguiente texto en una tabla Markdown con las columnas: Tema | Idea principal | Aplicación”

Aplicaciones prácticas

Educación: generación de tests en formatos estructurados (GIFT, CSV, JSON).

Desarrollo de software: respuesta en código limpio y funcional.

Automatización de tareas: salida lista para integrarse en APIs o dashboards.

Documentación: producción de informes en Markdown, LaTeX o HTML.

 

4. Técnicas para mejorar precisión

Aunque los modelos Deepseek son altamente competentes, la precisión de sus respuestas depende en gran medida de cómo se redacta el prompt. Aplicando ciertas técnicas, se puede obtener información más fiable, coherente y útil, especialmente en tareas complejas o críticas.

¿Qué entendemos por “precisión”?

Correctitud factual: que la información sea verdadera y exacta.

Pertinencia contextual: que la respuesta se ajuste a lo pedido.

Coherencia estructural: que tenga lógica interna, claridad y formato correcto.

 

Principales técnicas para mejorar la precisión

1. Especificidad extrema

Cuanto más concreta y detallada es la instrucción, menor es la ambigüedad.

Ejemplo:

“Haz un resumen.”

“Resume en 4 frases los puntos clave del artículo, usando lenguaje formal y evitando opiniones. ”

2. Definir un rol o función clara

Indicar al modelo qué “tipo de experto” debe ser mejora la orientación de la respuesta.

Ejemplo:

“Actúa como ingeniero industrial con experiencia en ergonomía. Evalúa el siguiente diseño.”

3. Establecer el formato de salida esperado

Evita que el modelo improvise o mezcle estilos si le das un formato fijo.

Ejemplo:

“Devuelve los resultados en una tabla Markdown con columnas: Requisito | Cumple | Observación.”

4. Incluir ejemplos (few-shot prompting)

Cuando das uno o dos ejemplos, el modelo imita el patrón y reduce errores.

Ejemplo:

“Ejemplo: Entrada: ‘¿Qué es IA?’ → Salida: ‘La inteligencia artificial es…’

Ahora responde: Entrada: ‘¿Qué es Deepseek?’ →”

5. Aplicar restricciones

Indicar lo que no debe hacer el modelo mejora el foco.

Ejemplo:“Responde en 100 palabras como máximo, sin mencionar autores ni fuentes externas.”

6. Solicitar verificación o autocorrección

Pedir una segunda pasada permite al modelo revisar su propia salida.

Ejemplo:

“¿Detectas alguna contradicción o error en tu respuesta anterior? Si es así, corrígelo.”

7. Separar tareas complejas (chaining)

Divide procesos grandes en pasos pequeños y controlables (ver módulo de chaining).

 

Ejemplo:

1. “Extrae los datos clave.”

2. “Resume en lenguaje técnico.”

3. “Convierte en informe formal en Markdown.”

 

8. Usar delimitadores o etiquetas

Delimitar el contenido evita que se mezcle con explicaciones innecesarias.

Ejemplo:

“Escribe la respuesta final entre etiquetas <respuesta> … </respuesta>” Técnica ¿Cuándo usarla?

Especificidad extrema Tareas técnicas o evaluativas

Rol definido Análisis legal, técnico, médico, educativo

Ejemplos Clasificación, generación de patrones

Restricciones Para limitar longitud, tono, o estilo

Compártelo en tus redes

[mr_rating_form]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumimos que estás de acuerdo. VER