Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.
El Model Context Protocol (MCP) es un estándar abierto lanzado por Anthropic en noviembre de 2024 que define cómo las aplicaciones de IA se conectan con herramientas y fuentes de datos externas. Es al ecosistema de IA lo que el Language Server Protocol (LSP) fue para los editores de código: una interfaz universal que elimina la necesidad de integraciones punto a punto.
Antes de MCP, cada herramienta de IA necesitaba su propia integración personalizada con cada servicio externo. Si tenías 10 herramientas de IA y 10 servicios, necesitabas 100 integraciones. Con MCP, cada servicio implementa un servidor MCP una vez, y cualquier cliente MCP puede conectarse a él.
MCP utiliza mensajes JSON-RPC 2.0 y define tres roles:
Funciones que el modelo puede invocar. Cada herramienta tiene un nombre, descripción y esquema de entrada tipado. El modelo decide cuándo y cómo usarlas.
{
"name": "create_todo",
"description": "Create a new todo item",
"inputSchema": {
"type": "object",
"properties": {
"title": { "type": "string" }
},
"required": ["title"]
}
}Datos que el servidor expone al modelo: archivos, registros de base de datos, documentación. A diferencia de las herramientas, los recursos son datos que el modelo lee pero no modifica.
Plantillas de instrucciones que el servidor puede ofrecer al host para guiar la interacción del usuario con el modelo.
MCP soporta dos mecanismos de transporte:
| Transporte | Uso | Limitación |
|---|---|---|
| stdio | Desarrollo local. El host ejecuta el servidor como proceso hijo. | Un solo cliente por servidor. |
| HTTP + SSE | Producción. Conexión remota con Server-Sent Events para streaming. | Requiere autenticación (OAuth 2.1 desde la spec de 2025). |
Un servidor MCP registra sus herramientas al iniciar la conexión. El host descubre las capacidades disponibles mediante tools/list y presenta las herramientas al modelo como funciones invocables:
server.tool("search_docs", {
description: "Search documentation by query",
inputSchema: {
type: "object",
properties: {
query: { type: "string", description: "Search query" }
},
required: ["query"]
}
}, async ({ query }) => {
const results = await searchIndex(query);
return { content: [{ type: "text", text: JSON.stringify(results) }] };
});Las herramientas pueden actualizarse en tiempo de ejecución — el servidor notifica al cliente mediante notifications/tools/list_changed cuando cambian las herramientas disponibles.
Desde la especificación de 2025, los servidores remotos requieren OAuth 2.1 con PKCE. El flujo de autorización sigue el estándar:
/.well-known/oauth-authorization-server)MCP resuelve un problema fundamental: la fragmentación de integraciones en el ecosistema de IA. Sin un estándar, cada combinación de herramienta de IA + servicio externo requiere código personalizado. Con MCP:
Esto es especialmente relevante para agentes de IA que necesitan acceder a múltiples herramientas de forma dinámica.
Sistemas autónomos que combinan modelos de lenguaje con razonamiento, memoria y uso de herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana.
Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.
Metodología de desarrollo donde la especificación se escribe antes del código, sirviendo como contrato entre equipos y como fuente de verdad para la implementación.
Patrones y frameworks para coordinar múltiples modelos de IA, herramientas y fuentes de datos en pipelines de producción, gestionando el flujo entre componentes, la memoria y la recuperación de errores.
SDK open source de AWS para construir agentes de IA con un enfoque model-driven. Agentes funcionales en pocas líneas de código, con soporte multi-modelo, herramientas personalizadas, MCP, multi-agente y observabilidad integrada.
Diseño de arquitectura para escalar un segundo cerebro personal a un sistema de producción con AWS serverless — desde el prototipo actual hasta casos de uso especializados en legal, investigación y comunidad.
Crónica de construir un segundo cerebro con grafo de conocimiento, pipeline bilingüe y endpoints para agentes — en días, no semanas, y lo que eso enseña sobre la brecha entre teoría y sistemas que funcionan.
Backend serverless de producción para un grafo de conocimiento personal — DynamoDB, Lambda, Bedrock, MCP, Step Functions. La implementación de la arquitectura descrita en el ensayo «Del prototipo a producción».
Demostración de arquitectura de interfaz dual donde la misma lógica de negocio sirve tanto a una aplicación web tradicional como a un servidor MCP para herramientas de IA.
Servidor MCP para analizar métricas de repositorios Git y comprender la salud del equipo. Publicado en npm como @jonmatum/git-metrics-mcp-server.
Estrategias y patrones de diseño para que los agentes de IA seleccionen, invoquen y combinen herramientas externas de forma efectiva para completar tareas complejas.
Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.
Estándar propuesto para publicar un archivo Markdown en la raíz de un sitio web que permite a los modelos de lenguaje entender y utilizar el contenido del sitio de forma eficiente durante la inferencia.
Capacidad de los LLMs para generar llamadas estructuradas a funciones externas basándose en lenguaje natural, habilitando la integración con APIs, bases de datos y herramientas del mundo real.
Patrones de diseño donde agentes de IA ejecutan tareas complejas de múltiples pasos de forma autónoma, combinando razonamiento, uso de herramientas y toma de decisiones iterativa.