Jonatan Matajonmatum.com
conceptosnotasexperimentosensayos
© 2026 Jonatan Mata. All rights reserved.v2.1.1
Conceptos

Protocolo de Contexto de Modelo (MCP)

Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.

growing#mcp#protocol#ai-tools#anthropic#json-rpc#open-standard#interoperability

¿Qué es?

El Model Context Protocol (MCP) es un estándar abierto lanzado por Anthropic en noviembre de 2024 que define cómo las aplicaciones de IA se conectan con herramientas y fuentes de datos externas. Es al ecosistema de IA lo que el Language Server Protocol (LSP) fue para los editores de código: una interfaz universal que elimina la necesidad de integraciones punto a punto.

Antes de MCP, cada herramienta de IA necesitaba su propia integración personalizada con cada servicio externo. Si tenías 10 herramientas de IA y 10 servicios, necesitabas 100 integraciones. Con MCP, cada servicio implementa un servidor MCP una vez, y cualquier cliente MCP puede conectarse a él.

Arquitectura

MCP utiliza mensajes JSON-RPC 2.0 y define tres roles:

  • Host: la aplicación de IA que inicia la conexión (ej: Claude Desktop, Kiro CLI, un IDE)
  • Client: el conector dentro del host que gestiona la comunicación con un servidor específico
  • Server: el servicio que expone herramientas, recursos y contexto al modelo
Loading diagram...

Capacidades principales

Herramientas (Tools)

Funciones que el modelo puede invocar. Cada herramienta tiene un nombre, descripción y esquema de entrada tipado. El modelo decide cuándo y cómo usarlas.

{
  "name": "create_todo",
  "description": "Create a new todo item",
  "inputSchema": {
    "type": "object",
    "properties": {
      "title": { "type": "string" }
    },
    "required": ["title"]
  }
}

Recursos (Resources)

Datos que el servidor expone al modelo: archivos, registros de base de datos, documentación. A diferencia de las herramientas, los recursos son datos que el modelo lee pero no modifica.

Prompts

Plantillas de instrucciones que el servidor puede ofrecer al host para guiar la interacción del usuario con el modelo.

Transportes

MCP soporta dos mecanismos de transporte:

TransporteUsoLimitación
stdioDesarrollo local. El host ejecuta el servidor como proceso hijo.Un solo cliente por servidor.
HTTP + SSEProducción. Conexión remota con Server-Sent Events para streaming.Requiere autenticación (OAuth 2.1 desde la spec de 2025).

Evolución de la especificación

  • 2024-11: lanzamiento inicial. Herramientas, recursos, prompts, transporte stdio.
  • 2025-03: conexiones remotas con SSE, mejoras en descubrimiento de herramientas.
  • 2025-06: OAuth 2.0, indicadores de recursos, mejoras de seguridad.
  • 2025-11: OAuth 2.1 obligatorio con PKCE, ejecución asíncrona, metadatos de cliente, preparación empresarial.

Patrones de implementación de servidores

Registro dinámico de herramientas

Un servidor MCP registra sus herramientas al iniciar la conexión. El host descubre las capacidades disponibles mediante tools/list y presenta las herramientas al modelo como funciones invocables:

server.tool("search_docs", {
  description: "Search documentation by query",
  inputSchema: {
    type: "object",
    properties: {
      query: { type: "string", description: "Search query" }
    },
    required: ["query"]
  }
}, async ({ query }) => {
  const results = await searchIndex(query);
  return { content: [{ type: "text", text: JSON.stringify(results) }] };
});

Las herramientas pueden actualizarse en tiempo de ejecución — el servidor notifica al cliente mediante notifications/tools/list_changed cuando cambian las herramientas disponibles.

Patrones comunes de servidor

  • Wrapper de API: expone una API REST existente como herramientas MCP con esquemas tipados
  • Base de datos: ofrece consultas y operaciones CRUD como herramientas, con recursos para esquemas y datos
  • Sistema de archivos: acceso controlado a archivos locales con permisos granulares
  • Pipeline de datos: combina herramientas de transformación con recursos que exponen datasets

Seguridad

Desde la especificación de 2025, los servidores remotos requieren OAuth 2.1 con PKCE. El flujo de autorización sigue el estándar:

  1. El cliente descubre los metadatos del servidor (/.well-known/oauth-authorization-server)
  2. Inicia el flujo de autorización con PKCE
  3. Obtiene un token de acceso
  4. Incluye el token en cada request al servidor

¿Por qué importa?

MCP resuelve un problema fundamental: la fragmentación de integraciones en el ecosistema de IA. Sin un estándar, cada combinación de herramienta de IA + servicio externo requiere código personalizado. Con MCP:

  • Los desarrolladores de herramientas implementan un servidor una vez
  • Los desarrolladores de aplicaciones de IA implementan un cliente una vez
  • Cualquier cliente puede conectarse a cualquier servidor
  • Las herramientas son descubribles y auto-documentadas

Esto es especialmente relevante para agentes de IA que necesitan acceder a múltiples herramientas de forma dinámica.

Referencias

  • Model Context Protocol — Especificación — Especificación oficial y autoritativa del protocolo.
  • Introducing the Model Context Protocol — Anuncio original de Anthropic, noviembre 2024.
  • MCP GitHub Organization — SDKs oficiales para TypeScript y Python.
  • Python MCP SDK — Implementación de referencia en Python.
  • TypeScript MCP SDK — Implementación de referencia en TypeScript.

Contenido relacionado

  • Agentes de IA

    Sistemas autónomos que combinan modelos de lenguaje con razonamiento, memoria y uso de herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana.

  • Inteligencia Artificial

    Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.

  • Desarrollo Dirigido por Especificación

    Metodología de desarrollo donde la especificación se escribe antes del código, sirviendo como contrato entre equipos y como fuente de verdad para la implementación.

  • Orquestación de IA

    Patrones y frameworks para coordinar múltiples modelos de IA, herramientas y fuentes de datos en pipelines de producción, gestionando el flujo entre componentes, la memoria y la recuperación de errores.

  • Strands Agents

    SDK open source de AWS para construir agentes de IA con un enfoque model-driven. Agentes funcionales en pocas líneas de código, con soporte multi-modelo, herramientas personalizadas, MCP, multi-agente y observabilidad integrada.

  • De prototipo a producción: un segundo cerebro serverless en AWS

    Diseño de arquitectura para escalar un segundo cerebro personal a un sistema de producción con AWS serverless — desde el prototipo actual hasta casos de uso especializados en legal, investigación y comunidad.

  • Construyendo un segundo cerebro en público

    Crónica de construir un segundo cerebro con grafo de conocimiento, pipeline bilingüe y endpoints para agentes — en días, no semanas, y lo que eso enseña sobre la brecha entre teoría y sistemas que funcionan.

  • Segundo Cerebro Serverless

    Backend serverless de producción para un grafo de conocimiento personal — DynamoDB, Lambda, Bedrock, MCP, Step Functions. La implementación de la arquitectura descrita en el ensayo «Del prototipo a producción».

  • Demo de Interfaz Dual con MCP

    Demostración de arquitectura de interfaz dual donde la misma lógica de negocio sirve tanto a una aplicación web tradicional como a un servidor MCP para herramientas de IA.

  • Servidor MCP de métricas Git

    Servidor MCP para analizar métricas de repositorios Git y comprender la salud del equipo. Publicado en npm como @jonmatum/git-metrics-mcp-server.

  • Patrones de Uso de Herramientas

    Estrategias y patrones de diseño para que los agentes de IA seleccionen, invoquen y combinen herramientas externas de forma efectiva para completar tareas complejas.

  • Ingeniería de Prompts

    Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.

  • llms.txt

    Estándar propuesto para publicar un archivo Markdown en la raíz de un sitio web que permite a los modelos de lenguaje entender y utilizar el contenido del sitio de forma eficiente durante la inferencia.

  • Llamada a Funciones

    Capacidad de los LLMs para generar llamadas estructuradas a funciones externas basándose en lenguaje natural, habilitando la integración con APIs, bases de datos y herramientas del mundo real.

  • Flujos de Trabajo Agénticos

    Patrones de diseño donde agentes de IA ejecutan tareas complejas de múltiples pasos de forma autónoma, combinando razonamiento, uso de herramientas y toma de decisiones iterativa.

Conceptos