Jonatan Matajonmatum.com
conceptosnotasexperimentosensayos
© 2026 Jonatan Mata. All rights reserved.v2.1.1
Conceptos

Ingeniería de Prompts

Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.

growing#prompt-engineering#llm#anthropic#openai#google#meta#best-practices#ai-tools

La ingeniería de prompts es el proceso de diseñar instrucciones que guían a un modelo de lenguaje para generar respuestas que cumplan con requisitos específicos de formato, tono, precisión y contenido. No es simplemente «hacer preguntas a una IA» — es una disciplina que combina claridad comunicativa, pensamiento estructurado y experimentación iterativa.

¿Qué es?

Un prompt es la entrada de texto que recibe un modelo de lenguaje. La ingeniería de prompts consiste en optimizar esa entrada para maximizar la calidad de la salida. Dado que los modelos son no determinísticos, obtener resultados consistentes requiere técnicas específicas que van más allá de la intuición.

Cada proveedor de modelos publica guías oficiales con recomendaciones adaptadas a las fortalezas de sus modelos. Aunque las técnicas fundamentales son universales, los detalles de implementación varían.

Principios universales

Estas técnicas funcionan con cualquier modelo de lenguaje moderno:

Ser claro y directo

Instrucciones específicas producen mejores resultados que instrucciones vagas. En lugar de «escribe algo sobre X», especificar formato, longitud, tono y audiencia.

Proporcionar contexto

Incluir la información relevante que el modelo necesita para resolver el problema. No asumir que el modelo tiene todo el contexto necesario — tratarlo como un colaborador brillante pero nuevo que no conoce los detalles de tu proyecto.

Usar ejemplos (few-shot prompting)

Mostrar al modelo qué aspecto tiene una respuesta correcta. Entre 3 y 5 ejemplos diversos suelen ser suficientes para establecer el patrón deseado. Los ejemplos son una de las formas más confiables de controlar formato, tono y estructura.

Estructurar el prompt

Separar instrucciones, contexto, ejemplos y datos de entrada usando delimitadores claros — ya sea con etiquetas XML, encabezados Markdown o separadores de texto. Esto reduce la ambigüedad y mejora la interpretación.

Asignar un rol

Definir quién es el modelo en el prompt del sistema enfoca su comportamiento y tono. Incluso una sola oración marca diferencia.

Descomponer tareas complejas

En lugar de un prompt monolítico, dividir en pasos secuenciales (encadenamiento de prompts) o en subtareas paralelas que se agregan al final.

Iterar

El diseño de prompts es iterativo. Reformular, cambiar el orden del contenido, probar con diferentes niveles de detalle y medir resultados.

Guía por proveedor

Anthropic (Claude)

Anthropic enfatiza la estructura y la claridad como pilares fundamentales. Sus recomendaciones clave:

  • Etiquetas XML: Claude responde especialmente bien a prompts estructurados con etiquetas como <instructions>, <context>, <examples>. Usar nombres descriptivos y consistentes.
  • Pensamiento extendido: para tareas complejas, habilitar el modo de pensamiento adaptativo permite que Claude calibre su razonamiento según la complejidad de cada consulta.
  • Contexto largo: colocar documentos extensos al inicio del prompt y las instrucciones al final — esto puede mejorar la calidad hasta un 30%.
  • Anclar en citas: para tareas con documentos largos, pedir que cite las partes relevantes antes de responder.
  • Sistemas agénticos: para tareas autónomas de larga duración, incluir instrucciones explícitas sobre persistencia, verificación de progreso y gestión de estado. Usar git para rastrear estado entre sesiones.
  • Evitar sobre-ingeniería: los modelos Claude 4.x siguen instrucciones con alta fidelidad — prompts más simples y directos suelen funcionar mejor que prompts excesivamente elaborados.

OpenAI (GPT)

OpenAI distingue entre modelos GPT y modelos de razonamiento, cada uno con estrategias diferentes:

  • Roles de mensaje: usar el parámetro instructions o roles de mensaje (developer, user) para establecer jerarquía de autoridad en las instrucciones.
  • Markdown y XML: combinar encabezados Markdown para secciones y etiquetas XML para delimitar datos de contexto. Estructura recomendada: identidad, instrucciones, ejemplos, contexto.
  • Modelos GPT vs razonamiento: los modelos GPT se benefician de instrucciones precisas y explícitas (como un colaborador junior). Los modelos de razonamiento funcionan mejor con objetivos de alto nivel (como un colaborador senior).
  • Prompts reutilizables: OpenAI ofrece plantillas de prompts almacenadas que aceptan variables, útiles para estandarizar prompts en producción.
  • Evaluaciones: construir evals que midan el comportamiento de los prompts para monitorear rendimiento al iterar o cambiar versiones de modelo.

Google (Gemini)

Google promueve el framework PTCF (Persona, Task, Context, Format) y enfatiza los ejemplos:

  • Framework PTCF: estructurar cada prompt con persona (quién es el modelo), tarea (qué debe hacer), contexto (información relevante) y formato (cómo debe responder).
  • Completado parcial: proporcionar el inicio de la respuesta deseada para guiar al modelo en la dirección correcta — especialmente útil para controlar formato de salida.
  • Parámetros del modelo: experimentar con temperatura, topK y topP. Para Gemini 3, se recomienda mantener la temperatura en su valor predeterminado de 1.0.
  • Instrucciones del sistema: colocar restricciones de comportamiento críticas y definiciones de rol en las instrucciones del sistema, no en el prompt del usuario.
  • Contexto largo: para grandes volúmenes de datos, colocar todo el contexto primero y las instrucciones al final. Usar una frase de transición como «basándote en la información anterior» para anclar la consulta.
  • Razonamiento explícito: para tareas complejas, pedir al modelo que planifique en sub-tareas y se auto-critique antes de dar la respuesta final.

Meta (Llama)

Los modelos Llama son open-source y requieren atención especial al formato de tokens:

  • Tokens especiales: Llama usa tokens de control como <|begin_of_text|>, <|start_header_id|> y <|eot_id|> para delimitar roles y turnos de conversación.
  • Instrucciones positivas: formular lo que el modelo debe hacer, no lo que debe evitar. Las instrucciones positivas producen mejores resultados.
  • Inicio de respuesta: comenzar el prompt con la primera palabra o frase de la respuesta deseada para guiar la dirección del modelo.
  • Iteración simple: comenzar con un prompt simple y conciso, luego refinar. Colocar instrucciones al inicio o al final del prompt donde el modelo presta más atención.

Amazon Bedrock

Bedrock es una plataforma que ofrece acceso a múltiples modelos, con herramientas adicionales de gestión:

  • Gestión de prompts: Bedrock Prompt Management permite versionar, optimizar y colaborar en prompts dentro de un flujo estructurado.
  • RAG para reducir alucinaciones: combinar prompts con Retrieval Augmented Generation para proporcionar al modelo acceso a datos relevantes y actualizados.
  • Caché de prompts: para prefijos de prompt repetidos, el caché reduce latencia y costos al reutilizar el procesamiento previo.
  • Guardrails: capa determinística de seguridad que complementa las técnicas probabilísticas de prompt engineering con filtrado de contenido y verificación automatizada.

Técnicas avanzadas

TécnicaMecanismoCuándo usar
Chain-of-ThoughtPedir «piensa paso a paso» antes de responderRazonamiento, matemáticas, lógica
Prompt chainingSalida de un prompt alimenta el siguienteTareas complejas con pasos secuenciales
Self-consistencyGenerar múltiples respuestas y seleccionar la más frecuenteReducir errores en razonamiento
RAGCombinar prompt con información de fuentes externasReducir alucinaciones, mantener respuestas actualizadas
Few-shotIncluir ejemplos de entrada/salida en el promptControlar formato y estilo de respuesta

¿Por qué importa?

La calidad de la entrada determina la calidad de la salida. A medida que los modelos de lenguaje se integran en más herramientas y flujos de trabajo — desde asistentes de código hasta agentes autónomos — la capacidad de comunicarse efectivamente con ellos se convierte en una habilidad fundamental.

No se trata de memorizar trucos, sino de desarrollar un modelo mental de cómo procesan información estos sistemas y usar ese entendimiento para obtener resultados predecibles y de alta calidad.

Referencias

  • Prompting best practices — Anthropic. Guía oficial de mejores prácticas para Claude.
  • Prompt engineering overview — Anthropic. Introducción al prompt engineering con Claude.
  • Prompt engineering guide — OpenAI. Guía oficial para modelos GPT y de razonamiento.
  • Best practices for prompt engineering — OpenAI. Referencia rápida de mejores prácticas.
  • Prompt design strategies — Google. Estrategias oficiales para modelos Gemini.
  • Prompt engineering whitepaper — Google, 2025. Playbook de 68 páginas sobre prompt engineering.
  • Prompt engineering concepts — AWS. Guía oficial de Amazon Bedrock.
  • Best prompting practices for Meta Llama 3 — AWS, 2024. Mejores prácticas para modelos Llama en SageMaker.

Contenido relacionado

  • Inteligencia Artificial

    Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.

  • Agentes de IA

    Sistemas autónomos que combinan modelos de lenguaje con razonamiento, memoria y uso de herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana.

  • Protocolo de Contexto de Modelo (MCP)

    Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.

  • Patrones de Uso de Herramientas

    Estrategias y patrones de diseño para que los agentes de IA seleccionen, invoquen y combinen herramientas externas de forma efectiva para completar tareas complejas.

  • Ventanas de Contexto

    La cantidad máxima de tokens que un LLM puede procesar en una sola interacción, determinando cuánta información puede considerar simultáneamente para generar respuestas.

  • Takeaways: Por qué 2026 es el año para construir un segundo cerebro

    Apuntes clave de la serie de Nate B Jones sobre segundo cerebro con IA — desde los 8 bloques de construcción originales hasta Open Brain (Postgres + MCP), el principio de las dos puertas, y la brecha de implementación.

  • Modelos de Lenguaje de Gran Escala

    Redes neuronales masivas basadas en la arquitectura Transformer, entrenadas con enormes corpus de texto para comprender y generar lenguaje natural con capacidades emergentes como razonamiento, traducción y generación de código.

  • Razonamiento en Cadena

    Técnica de prompting que mejora el razonamiento de los LLMs al pedirles que descompongan problemas complejos en pasos intermedios explícitos antes de llegar a una conclusión.

  • Asistentes de Código con IA

    Herramientas que usan LLMs para ayudar a desarrolladores a escribir, entender, depurar y refactorizar código, desde autocompletado hasta agentes que implementan features completas.

Conceptos