Conceptos

Razonamiento en Cadena

Técnica de prompting que mejora el razonamiento de los LLMs al pedirles que descompongan problemas complejos en pasos intermedios explícitos antes de llegar a una conclusión.

seed#chain-of-thought#cot#reasoning#prompting#llm#problem-solving

¿Qué es?

Chain-of-Thought (CoT) es una técnica de prompt engineering que mejora dramáticamente la capacidad de razonamiento de los LLMs al pedirles que «piensen paso a paso». En lugar de saltar directamente a la respuesta, el modelo genera pasos intermedios de razonamiento que lo guían hacia conclusiones más precisas.

Introducido por Wei et al. en 2022, CoT demostró que los modelos grandes pueden resolver problemas de matemáticas, lógica y sentido común que antes fallaban consistentemente.

¿Por qué funciona?

Los LLMs predicen tokens secuencialmente. Cuando generan pasos intermedios:

  • Cada paso proporciona contexto para el siguiente
  • Los errores se hacen visibles y corregibles
  • El modelo «trabaja» el problema en lugar de adivinar
  • Se activan capacidades de razonamiento latentes en el modelo

Variantes

Zero-shot CoT

Simplemente agregar «Pensemos paso a paso» al prompt:

¿Cuántas manzanas quedan si tengo 15 y regalo 7?
Pensemos paso a paso.

Few-shot CoT

Proporcionar ejemplos con razonamiento explícito:

Ejemplo: Si tengo 10 naranjas y como 3, quedan 10-3=7 naranjas.

Pregunta: Si tengo 15 manzanas y regalo 7, ¿cuántas quedan?

Self-Consistency

Generar múltiples cadenas de razonamiento y elegir la respuesta más frecuente. Mejora la precisión a costa de más tokens.

Tree of Thoughts

Explorar múltiples ramas de razonamiento en paralelo, evaluando y podando caminos menos prometedores.

Aplicaciones

  • Matemáticas: problemas de aritmética, álgebra, word problems
  • Lógica: puzzles, deducciones, análisis de argumentos
  • Código: debugging, diseño de algoritmos
  • Planificación: descomponer tareas complejas en pasos ejecutables
  • Agentes: los agentes de IA usan CoT internamente para decidir acciones

Limitaciones

  • Costo: más tokens = más latencia y costo
  • No infalible: el razonamiento puede ser plausible pero incorrecto
  • Modelos pequeños: CoT funciona mejor en modelos grandes (>10B parámetros)

¿Por qué importa?

Chain-of-thought es la técnica de prompting que más consistentemente mejora el rendimiento de los LLMs en tareas de razonamiento. Entender cuándo y cómo aplicarla — y sus limitaciones — es una habilidad fundamental para cualquier ingeniero que construya aplicaciones con modelos de lenguaje.

Referencias

Conceptos