Jonatan Matajonmatum.com
conceptosnotasexperimentosensayos
© 2026 Jonatan Mata. All rights reserved.v2.1.1

#openai

2 artículos con la etiqueta #openai.

  • Caché de Prompts

    Técnica que almacena el cómputo interno de prefijos de prompt reutilizados entre llamadas a LLMs, reduciendo costos hasta un 90% y latencia hasta un 85% en aplicaciones con contexto repetitivo.

    evergreen#prompt-caching#llm#cost-reduction#latency#anthropic#openai#optimization
  • Ingeniería de Prompts

    Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.

    growing#prompt-engineering#llm#anthropic#openai#google#meta#best-practices#ai-tools
Todas las etiquetas