jonmatumalpha
conceptosnotasexperimentosensayos

© 2026 Jonatan Mata · alpha · v0.1.0

#openai

2 artículos con la etiqueta #openai.

  • Caché de Prompts

    Técnica que almacena el cómputo interno de prefijos de prompt reutilizados entre llamadas a LLMs, reduciendo costos hasta un 90% y latencia hasta un 85% en aplicaciones con contexto repetitivo.

    evergreen#prompt-caching#llm#cost-reduction#latency#anthropic#openai#optimization
  • Ingeniería de Prompts

    Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.

    growing#prompt-engineering#llm#anthropic#openai#google#meta#best-practices#ai-tools
Todas las etiquetas