Qué es MCP y por qué tu SaaS necesita un servidor MCP en 2026
MCP es el protocolo abierto que los agentes de IA usan para invocar tu SaaS. Qué es, cómo funciona y cuándo tu producto debe lanzar un servidor.
Un servidor Model Context Protocol (MCP) es un endpoint estandarizado que expone las herramientas, datos y acciones de tu SaaS a los agentes de IA a través de un único protocolo basado en JSON-RPC 2.0. Es el puente que permite a Claude, ChatGPT, Cursor, VS Code, Copilot Studio y a cualquier otro cliente compatible invocar tu producto sin una integración a medida por cada cliente.
En 2026 MCP ya no es una curiosidad de investigación. Anthropic presentó el protocolo en noviembre de 2024, alcanzó 97 millones de descargas mensuales del SDK en diciembre de 2025, y ese mismo mes cedió la gobernanza a la Agentic AI Foundation bajo la Linux Foundation, cofundada con Block y OpenAI. Si tu SaaS tiene endpoints que valen la pena llamar desde un agente de IA, la pregunta en 2026 no es si necesitas un servidor MCP, sino en cuánto tiempo puedes lanzar uno que resista tráfico real.
La versión de treinta segundos
Las APIs REST se diseñaron para llamantes deterministas: apps, scripts, partners. Los agentes no son llamantes deterministas. Descubren capacidades en tiempo de ejecución, eligen herramientas por intención en lenguaje natural y componen llamadas entre servicios. MCP les da un protocolo para hacerlo sin un wrapper a medida por producto. Escribes un servidor MCP. Cualquier cliente compatible puede usarlo.
De dónde viene MCP y por qué se propagó
Anthropic presentó MCP a finales de noviembre de 2024 para resolver el impuesto de integración que cada producto de IA estaba pagando: M clientes por N herramientas igual a M por N adaptadores a medida. El protocolo convierte esa cuenta en M más N. OpenAI lo adoptó en abril de 2025. Microsoft lo integró en Copilot Studio en julio de 2025. A comienzos de 2026 un tracker del sector reportó que el 28% de las empresas Fortune 500 había desplegado servidores MCP para flujos de IA en producción, y Forrester proyectó que el 30% de los vendors de aplicaciones enterprise lanzaría su propio servidor MCP durante 2026.
La especificación vive en modelcontextprotocol.io. La revisión más reciente al momento de escribir es 2025-11-25.
Cómo funciona realmente un servidor MCP
Un servidor MCP es un proceso que habla JSON-RPC 2.0 sobre uno de dos transportes:
- STDIO para servidores locales lanzados por el cliente (piensa en un binario en la máquina del usuario).
- Streamable HTTP para servidores remotos accesibles por red, hoy el transporte dominante para casos SaaS.
El servidor expone tres primitivas:
- Tools. Acciones invocables (crear factura, consultar pedidos, ejecutar SQL). El cliente las lista en tiempo de ejecución y las invoca en nombre del usuario.
- Resources. Datos legibles (un archivo, un registro, el resultado de una consulta). El cliente los recupera para poblar el contexto del modelo.
- Prompts. Plantillas de prompt propiedad del servidor que el cliente puede exponer al usuario como atajos.
Al conectarse, el cliente hace un handshake de capacidades: pregunta qué ofrece el servidor, recibe descripciones legibles por máquina y se las presenta al modelo. El modelo elige una herramienta por intención, el cliente la invoca, el servidor la ejecuta, el resultado vuelve a la conversación. Ningún endpoint hardcoded. Ninguna versión de SDK que fijar. Ningún glue code en el cliente.
Por qué REST por sí sola ya no alcanza
Una pregunta frecuente es "ya tenemos una API REST, ¿para qué lanzar un servidor MCP encima?". Tres razones.
Descubrimiento en runtime. Los agentes no leen especificaciones OpenAPI como lo hace un desarrollador. MCP está diseñado para que los agentes consulten capacidades al conectarse, elijan la herramienta correcta y se adapten al cambiar tu producto. ¿Una herramienta nueva en el servidor? La siguiente conexión la ve.
Economía de tokens. Llamar una API REST desde un LLM implica serializar argumentos, meter la respuesta en la ventana de contexto y pagar cada token en ambas direcciones. Los benchmarks sitúan a MCP en torno a un 15% a 25% más lento por llamada que una REST directa por el overhead de JSON-RPC, pero con un 50% a 80% menos de tokens consumidos por el modelo, que es la línea de coste que manda en la factura de inferencia.
Coste de integración del consumidor. Cada cliente que quiere llamar tu API REST escribe su propio wrapper, maneja su propio flujo de auth y mantiene sus propios reintentos. Con MCP el cliente escribe cero código de integración para tu producto. Apunta a la URL de tu servidor y funciona.
Esto no vuelve obsoleto a REST. El tráfico de alto throughput, determinista, de app a app sigue en REST o gRPC. MCP se sienta encima para la capa de agentes.
Seguridad: qué cambia cuando tu producto es agent-addressable
Los servidores MCP remotos usan OAuth 2.1 con PKCE SHA-256 obligatorio. La especificación prohíbe explícitamente el método PKCE plano y exige a los clientes probar que poseen el authorization code. La revisión 2025-11-25 añadió anotaciones de autorización basadas en roles, así los servidores pueden restringir herramientas individuales detrás de roles de usuario específicos.
La superficie de ataque es real. Durante 2025 los investigadores catalogaron más de mil servidores MCP expuestos públicamente con auth débil o ausente, más una familia de bugs en el manejo de credenciales en los SDK más populares. Una encuesta a más de mil líderes tecnológicos de empresa reportó que el 62% identificaba la seguridad como su mayor preocupación al desplegar agentes de IA.
Trata un servidor MCP como una API pública: hazle threat-modeling, acota el scope de los tokens, registra cada llamada a herramienta y rótalos. No dejes que la novedad del protocolo te convenza de saltar la higiene básica.
Cuándo tu SaaS necesita un servidor MCP
Lo necesitas cuando al menos una de estas cosas es cierta:
- Tus usuarios ya intentan usar tu producto desde Claude, ChatGPT, Cursor, Copilot o un agente a medida, y la experiencia es torpe.
- Vendes a desarrolladores o equipos de operaciones que viven dentro de Claude Code o VS Code.
- Tu producto guarda datos útiles para un agente en medio de una tarea (registros CRM, feature flags, dashboards, tickets, documentos).
- Un competidor en tu categoría ya lanzó uno. El comprador de 2026 lo espera.
Puedes posponer el lanzamiento cuando tu producto se consume casi solo desde tu propia UI, tu API no tiene operaciones read-write que valga la pena automatizar, o tus usuarios no son técnicos y no van a instalar tooling de agente.
Qué exponer (y qué esconder)
La tentación al envolver una API existente es exponerlo todo. Resiste. Una buena superficie MCP es un conjunto curado de verbos que el agente puede usar con seguridad:
- Operaciones de lectura que devuelven datos estructurados con formas estables.
- Operaciones de escritura de alta señal, idempotentes o protegidas por un paso de confirmación.
- Primitivas de búsqueda y consulta en lugar de la plomería de paginación cruda, que los agentes aún manejan con dificultad.
Deja fuera los endpoints administrativos destructivos, todo lo que requiera máquinas de estado complejas que el agente no puede razonar y todo lo que dependa de contexto de UI que el servidor no puede verificar. Si una herramienta puede borrar una tabla de producción, no debe vivir en un servidor MCP al que un ingeniero junior conectó un cliente de chat.
Alojado vs self-built
Existen dos caminos.
Self-built. Escribes un servidor MCP en TypeScript, Python o Go usando los SDK oficiales, lo despliegas junto a tu API y eres dueño del transporte, la auth y la observabilidad. Mejor cuando el producto tiene lógica de negocio no trivial, cuando quieres control profundo o cuando la compliance descarta que un tercero maneje los tokens de usuario.
Plataformas MCP alojadas. Los vendors exponen APIs SaaS existentes como servidores MCP y gestionan auth, curación de herramientas y rate limiting. Más rápido al mercado, control más estrecho y un tercero en la ruta del token. Está bien para una v1, más débil como posición a largo plazo cuando los agentes se vuelven una interfaz principal.
Un camino pragmático es self-built para las herramientas que definen tu producto, alojado para las integraciones que solamente lo soportan (por ejemplo, exponer un CRM de un partner que revendes).
Conceptos adyacentes que vale la pena conocer
- Tool calling (OpenAI function calling, Anthropic tools). El mecanismo por vendor que un cliente MCP usa por debajo para invocar las herramientas de tu servidor.
- A2A (Agent to Agent protocol). Complementario, no competidor. MCP conecta agentes con herramientas; A2A conecta agentes entre sí.
- llms.txt. Un manifiesto estático en la raíz de tu sitio que indica qué páginas canónicas los crawlers de IA deben indexar. Distinto de MCP pero suele desplegarse en la misma checklist de AI-readiness para 2026 (ver nuestro artículo sobre Generative Engine Optimization).
Preguntas frecuentes
- Do we need a separate MCP server per client (Claude, ChatGPT, Cursor)?
- No. A single MCP server works for every compliant client. That is the point of the standard. You ship one server, register it once, and Claude, ChatGPT, Cursor, VS Code, Copilot Studio and any future agent-capable client connect to the same URL. If you find yourself writing client-specific branches, you are doing something wrong or you are hitting a client-specific transport quirk worth filing upstream.
- Is MCP a replacement for OpenAPI?
- No. OpenAPI describes a REST surface to developers and code generators. MCP describes a tool surface to AI agents at runtime. They solve different problems and usually coexist: REST + OpenAPI for humans and traditional apps, MCP for agents on top of the same backend. Several teams auto-generate the MCP layer from the OpenAPI document, but the mapping is rarely one-to-one because what is useful to expose differs.
- What does it cost to run an MCP server in production?
- Baseline infrastructure is comparable to a small API service: a container, a database connection, TLS. The variable cost is traffic. Agent-driven traffic is lumpy and token-sensitive, so you pay more attention to response size and pagination than to request volume. Most teams we see absorb MCP hosting into their existing API budget; the real investment is in defining a safe tool surface and the auth layer around it, not the runtime.
Studio
Empieza un proyecto.
Un partner único para empresas, sector público, startups y SaaS. Producción más rápida, tecnología moderna, costes reducidos. Un equipo, una factura.