Estándar propuesto para publicar un archivo Markdown en la raíz de un sitio web que permite a los modelos de lenguaje entender y utilizar el contenido del sitio de forma eficiente durante la inferencia.
llms.txt es un estándar propuesto por Jeremy Howard (fast.ai) en septiembre de 2024 para colocar un archivo Markdown en la ruta /llms.txt de un sitio web. Su propósito es ofrecer a los modelos de lenguaje una versión concisa, estructurada y legible del contenido más importante del sitio — sin el ruido del HTML, la navegación, los anuncios ni el JavaScript.
Es análogo a robots.txt y sitemap.xml, pero con un objetivo diferente:
robots.txt indica a los rastreadores qué acceso es aceptablesitemap.xml lista todas las páginas indexables para motores de búsquedallms.txt ofrece un resumen curado y enlaces a contenido detallado para modelos de lenguajeLos modelos de lenguaje enfrentan una limitación fundamental al interactuar con sitios web: las ventanas de contexto son demasiado pequeñas para procesar un sitio completo, y convertir HTML complejo a texto plano es impreciso y ruidoso.
llms.txt resuelve esto proporcionando:
El caso de uso principal es durante la inferencia — cuando un usuario pide información a un modelo de lenguaje. Por ejemplo:
El archivo sigue una estructura específica en Markdown:
# Nombre del proyecto
> Descripción breve con información clave
Detalles adicionales sobre el proyecto.
## Sección
- [Título del enlace](https://url): Notas opcionales sobre el archivo
## Optional
- [Título del enlace](https://url): Contenido secundario que puede omitirseLa sección «Optional» tiene un significado especial: los enlaces allí pueden omitirse si se necesita un contexto más corto.
Muchos sitios publican variantes expandidas:
/llms.txt — el archivo base con resumen y enlaces/llms-full.txt — versión expandida con el contenido completo de cada enlace incrustadoEste sitio publica dos archivos generados automáticamente en el pipeline de conocimiento:
/llms.txt — índice con título, tipo y resumen en inglés de cada nodo de conocimiento/llms-full.txt — contenido completo de cada artículo en formato planoAmbos se regeneran con cada ejecución de pnpm generate y se sirven como archivos estáticos desde public/.
| Estándar | Audiencia | Propósito |
|---|---|---|
robots.txt | Rastreadores | Control de acceso |
sitemap.xml | Motores de búsqueda | Índice de páginas |
llms.txt | Modelos de lenguaje | Resumen curado del sitio |
| MCP | Agentes de IA | Protocolo de herramientas y contexto |
llms.txt y MCP son complementarios: llms.txt proporciona contenido estático legible, mientras que MCP habilita interacciones dinámicas con herramientas y servicios.
Desde su propuesta en 2024, llms.txt ha sido adoptado por proyectos de documentación técnica, sitios de comercio electrónico, instituciones educativas y sitios personales. La especificación es deliberadamente simple — un archivo Markdown con convenciones mínimas — lo que facilita su adopción sin herramientas especializadas.
Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.
Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.
Crónica de construir un segundo cerebro con grafo de conocimiento, pipeline bilingüe y endpoints para agentes — en días, no semanas, y lo que eso enseña sobre la brecha entre teoría y sistemas que funcionan.
Patrón arquitectónico que combina la recuperación de información de fuentes externas con la generación de texto por LLMs, reduciendo alucinaciones y manteniendo el conocimiento actualizado sin reentrenar el modelo.
Práctica de tratar la documentación con las mismas herramientas y procesos que el código: versionada en Git, revisada en PRs, y generada automáticamente cuando es posible.