Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.
La ingeniería de prompts es el proceso de diseñar instrucciones que guían a un modelo de lenguaje para generar respuestas que cumplan con requisitos específicos de formato, tono, precisión y contenido. No es simplemente «hacer preguntas a una IA» — es una disciplina que combina claridad comunicativa, pensamiento estructurado y experimentación iterativa.
Un prompt es la entrada de texto que recibe un modelo de lenguaje. La ingeniería de prompts consiste en optimizar esa entrada para maximizar la calidad de la salida. Dado que los modelos son no determinísticos, obtener resultados consistentes requiere técnicas específicas que van más allá de la intuición.
Cada proveedor de modelos publica guías oficiales con recomendaciones adaptadas a las fortalezas de sus modelos. Aunque las técnicas fundamentales son universales, los detalles de implementación varían.
Estas técnicas funcionan con cualquier modelo de lenguaje moderno:
Instrucciones específicas producen mejores resultados que instrucciones vagas. En lugar de «escribe algo sobre X», especificar formato, longitud, tono y audiencia.
Incluir la información relevante que el modelo necesita para resolver el problema. No asumir que el modelo tiene todo el contexto necesario — tratarlo como un colaborador brillante pero nuevo que no conoce los detalles de tu proyecto.
Mostrar al modelo qué aspecto tiene una respuesta correcta. Entre 3 y 5 ejemplos diversos suelen ser suficientes para establecer el patrón deseado. Los ejemplos son una de las formas más confiables de controlar formato, tono y estructura.
Separar instrucciones, contexto, ejemplos y datos de entrada usando delimitadores claros — ya sea con etiquetas XML, encabezados Markdown o separadores de texto. Esto reduce la ambigüedad y mejora la interpretación.
Definir quién es el modelo en el prompt del sistema enfoca su comportamiento y tono. Incluso una sola oración marca diferencia.
En lugar de un prompt monolítico, dividir en pasos secuenciales (encadenamiento de prompts) o en subtareas paralelas que se agregan al final.
El diseño de prompts es iterativo. Reformular, cambiar el orden del contenido, probar con diferentes niveles de detalle y medir resultados.
Anthropic enfatiza la estructura y la claridad como pilares fundamentales. Sus recomendaciones clave:
<instructions>, <context>, <examples>. Usar nombres descriptivos y consistentes.OpenAI distingue entre modelos GPT y modelos de razonamiento, cada uno con estrategias diferentes:
instructions o roles de mensaje (developer, user) para establecer jerarquía de autoridad en las instrucciones.Google promueve el framework PTCF (Persona, Task, Context, Format) y enfatiza los ejemplos:
Los modelos Llama son open-source y requieren atención especial al formato de tokens:
<|begin_of_text|>, <|start_header_id|> y <|eot_id|> para delimitar roles y turnos de conversación.Bedrock es una plataforma que ofrece acceso a múltiples modelos, con herramientas adicionales de gestión:
| Técnica | Mecanismo | Cuándo usar |
|---|---|---|
| Chain-of-Thought | Pedir «piensa paso a paso» antes de responder | Razonamiento, matemáticas, lógica |
| Prompt chaining | Salida de un prompt alimenta el siguiente | Tareas complejas con pasos secuenciales |
| Self-consistency | Generar múltiples respuestas y seleccionar la más frecuente | Reducir errores en razonamiento |
| RAG | Combinar prompt con información de fuentes externas | Reducir alucinaciones, mantener respuestas actualizadas |
| Few-shot | Incluir ejemplos de entrada/salida en el prompt | Controlar formato y estilo de respuesta |
La calidad de la entrada determina la calidad de la salida. A medida que los modelos de lenguaje se integran en más herramientas y flujos de trabajo — desde asistentes de código hasta agentes autónomos — la capacidad de comunicarse efectivamente con ellos se convierte en una habilidad fundamental.
No se trata de memorizar trucos, sino de desarrollar un modelo mental de cómo procesan información estos sistemas y usar ese entendimiento para obtener resultados predecibles y de alta calidad.
Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.
Sistemas autónomos que combinan modelos de lenguaje con razonamiento, memoria y uso de herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana.
Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.
Estrategias y patrones de diseño para que los agentes de IA seleccionen, invoquen y combinen herramientas externas de forma efectiva para completar tareas complejas.
La cantidad máxima de tokens que un LLM puede procesar en una sola interacción, determinando cuánta información puede considerar simultáneamente para generar respuestas.
Apuntes clave de la serie de Nate B Jones sobre segundo cerebro con IA — desde los 8 bloques de construcción originales hasta Open Brain (Postgres + MCP), el principio de las dos puertas, y la brecha de implementación.
Redes neuronales masivas basadas en la arquitectura Transformer, entrenadas con enormes corpus de texto para comprender y generar lenguaje natural con capacidades emergentes como razonamiento, traducción y generación de código.
Técnica de prompting que mejora el razonamiento de los LLMs al pedirles que descompongan problemas complejos en pasos intermedios explícitos antes de llegar a una conclusión.
Herramientas que usan LLMs para ayudar a desarrolladores a escribir, entender, depurar y refactorizar código, desde autocompletado hasta agentes que implementan features completas.