Ingeniería de Prompts
Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.
La ingeniería de prompts es el proceso de diseñar instrucciones que guían a un modelo de lenguaje para generar respuestas que cumplan con requisitos específicos de formato, tono, precisión y contenido. No es simplemente «hacer preguntas a una IA» — es una disciplina que combina claridad comunicativa, pensamiento estructurado y experimentación iterativa.
¿Qué es?
Un prompt es la entrada de texto que recibe un modelo de lenguaje. La ingeniería de prompts consiste en optimizar esa entrada para maximizar la calidad de la salida. Dado que los modelos son no determinísticos, obtener resultados consistentes requiere técnicas específicas que van más allá de la intuición.
Cada proveedor de modelos publica guías oficiales con recomendaciones adaptadas a las fortalezas de sus modelos. Aunque las técnicas fundamentales son universales, los detalles de implementación varían.
Principios universales
Estas técnicas funcionan con cualquier modelo de lenguaje moderno:
Ser claro y directo
Instrucciones específicas producen mejores resultados que instrucciones vagas. En lugar de «escribe algo sobre X», especificar formato, longitud, tono y audiencia.
Proporcionar contexto
Incluir la información relevante que el modelo necesita para resolver el problema. No asumir que el modelo tiene todo el contexto necesario — tratarlo como un colaborador brillante pero nuevo que no conoce los detalles de tu proyecto.
Usar ejemplos (few-shot prompting)
Mostrar al modelo qué aspecto tiene una respuesta correcta. Entre 3 y 5 ejemplos diversos suelen ser suficientes para establecer el patrón deseado. Los ejemplos son una de las formas más confiables de controlar formato, tono y estructura.
Estructurar el prompt
Separar instrucciones, contexto, ejemplos y datos de entrada usando delimitadores claros — ya sea con etiquetas XML, encabezados Markdown o separadores de texto. Esto reduce la ambigüedad y mejora la interpretación.
Asignar un rol
Definir quién es el modelo en el prompt del sistema enfoca su comportamiento y tono. Incluso una sola oración marca diferencia.
Descomponer tareas complejas
En lugar de un prompt monolítico, dividir en pasos secuenciales (encadenamiento de prompts) o en subtareas paralelas que se agregan al final.
Iterar
El diseño de prompts es iterativo. Reformular, cambiar el orden del contenido, probar con diferentes niveles de detalle y medir resultados.
Guía por proveedor
Anthropic (Claude)
Anthropic enfatiza la estructura y la claridad como pilares fundamentales. Sus recomendaciones clave:
- Etiquetas XML: Claude responde especialmente bien a prompts estructurados con etiquetas como
<instructions>,<context>,<examples>. Usar nombres descriptivos y consistentes. - Pensamiento extendido: para tareas complejas, habilitar el modo de pensamiento adaptativo permite que Claude calibre su razonamiento según la complejidad de cada consulta.
- Contexto largo: colocar documentos extensos al inicio del prompt y las instrucciones al final — esto puede mejorar la calidad hasta un 30%.
- Anclar en citas: para tareas con documentos largos, pedir que cite las partes relevantes antes de responder.
- Sistemas agénticos: para tareas autónomas de larga duración, incluir instrucciones explícitas sobre persistencia, verificación de progreso y gestión de estado. Usar git para rastrear estado entre sesiones.
- Evitar sobre-ingeniería: los modelos Claude 4.x siguen instrucciones con alta fidelidad — prompts más simples y directos suelen funcionar mejor que prompts excesivamente elaborados.
OpenAI (GPT)
OpenAI distingue entre modelos GPT y modelos de razonamiento, cada uno con estrategias diferentes:
- Roles de mensaje: usar el parámetro
instructionso roles de mensaje (developer,user) para establecer jerarquía de autoridad en las instrucciones. - Markdown y XML: combinar encabezados Markdown para secciones y etiquetas XML para delimitar datos de contexto. Estructura recomendada: identidad, instrucciones, ejemplos, contexto.
- Modelos GPT vs razonamiento: los modelos GPT se benefician de instrucciones precisas y explícitas (como un colaborador junior). Los modelos de razonamiento funcionan mejor con objetivos de alto nivel (como un colaborador senior).
- Prompts reutilizables: OpenAI ofrece plantillas de prompts almacenadas que aceptan variables, útiles para estandarizar prompts en producción.
- Evaluaciones: construir evals que midan el comportamiento de los prompts para monitorear rendimiento al iterar o cambiar versiones de modelo.
Google (Gemini)
Google promueve el framework PTCF (Persona, Task, Context, Format) y enfatiza los ejemplos:
- Framework PTCF: estructurar cada prompt con persona (quién es el modelo), tarea (qué debe hacer), contexto (información relevante) y formato (cómo debe responder).
- Completado parcial: proporcionar el inicio de la respuesta deseada para guiar al modelo en la dirección correcta — especialmente útil para controlar formato de salida.
- Parámetros del modelo: experimentar con temperatura, topK y topP. Para Gemini 3, se recomienda mantener la temperatura en su valor predeterminado de 1.0.
- Instrucciones del sistema: colocar restricciones de comportamiento críticas y definiciones de rol en las instrucciones del sistema, no en el prompt del usuario.
- Contexto largo: para grandes volúmenes de datos, colocar todo el contexto primero y las instrucciones al final. Usar una frase de transición como «basándote en la información anterior» para anclar la consulta.
- Razonamiento explícito: para tareas complejas, pedir al modelo que planifique en sub-tareas y se auto-critique antes de dar la respuesta final.
Meta (Llama)
Los modelos Llama son open-source y requieren atención especial al formato de tokens:
- Tokens especiales: Llama usa tokens de control como
<|begin_of_text|>,<|start_header_id|>y<|eot_id|>para delimitar roles y turnos de conversación. - Instrucciones positivas: formular lo que el modelo debe hacer, no lo que debe evitar. Las instrucciones positivas producen mejores resultados.
- Inicio de respuesta: comenzar el prompt con la primera palabra o frase de la respuesta deseada para guiar la dirección del modelo.
- Iteración simple: comenzar con un prompt simple y conciso, luego refinar. Colocar instrucciones al inicio o al final del prompt donde el modelo presta más atención.
Amazon Bedrock
Bedrock es una plataforma que ofrece acceso a múltiples modelos, con herramientas adicionales de gestión:
- Gestión de prompts: Bedrock Prompt Management permite versionar, optimizar y colaborar en prompts dentro de un flujo estructurado.
- RAG para reducir alucinaciones: combinar prompts con Retrieval Augmented Generation para proporcionar al modelo acceso a datos relevantes y actualizados.
- Caché de prompts: para prefijos de prompt repetidos, el caché reduce latencia y costos al reutilizar el procesamiento previo.
- Guardrails: capa determinística de seguridad que complementa las técnicas probabilísticas de prompt engineering con filtrado de contenido y verificación automatizada.
Técnicas avanzadas
Chain-of-Thought (CoT)
Pedir al modelo que «piense paso a paso» antes de responder. Mejora significativamente el rendimiento en tareas de razonamiento, matemáticas y lógica.
Prompt chaining
Encadenar múltiples prompts donde la salida de uno alimenta la entrada del siguiente. Útil para tareas complejas que requieren pasos secuenciales.
Self-consistency
Generar múltiples respuestas al mismo prompt y seleccionar la más frecuente o consistente. Reduce errores en tareas de razonamiento.
Retrieval-Augmented Generation (RAG)
Combinar el prompt con información recuperada de una base de datos o documentos externos. Reduce alucinaciones y mantiene las respuestas actualizadas.
¿Por qué importa?
La calidad de la entrada determina la calidad de la salida. A medida que los modelos de lenguaje se integran en más herramientas y flujos de trabajo — desde asistentes de código hasta agentes autónomos — la capacidad de comunicarse efectivamente con ellos se convierte en una habilidad fundamental.
No se trata de memorizar trucos, sino de desarrollar un modelo mental de cómo procesan información estos sistemas y usar ese entendimiento para obtener resultados predecibles y de alta calidad.
Referencias
- Prompting best practices — Anthropic. Guía oficial de mejores prácticas para Claude.
- Prompt engineering overview — Anthropic. Introducción al prompt engineering con Claude.
- Prompt engineering guide — OpenAI. Guía oficial para modelos GPT y de razonamiento.
- Best practices for prompt engineering — OpenAI. Referencia rápida de mejores prácticas.
- Prompt design strategies — Google. Estrategias oficiales para modelos Gemini.
- Prompt engineering whitepaper — Google, 2025. Playbook de 68 páginas sobre prompt engineering.
- Prompt engineering concepts — AWS. Guía oficial de Amazon Bedrock.
- Best prompting practices for Meta Llama 3 — AWS, 2024. Mejores prácticas para modelos Llama en SageMaker.