¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora el Protocolo de contexto del modelo (MCP) se ha convertido en uno de los desarrollos más comentados en la integración de IA desde su introducción por antrópico a fines de 2024. Si estás sintonizado en el espacio de IA, es probable que haya sido inundado con el desarrollador «Hot Toke» en el tema. Algunos piensan que es lo mejor de la historia; Otros se apresuran a señalar sus deficiencias. En realidad, hay algo de verdad en ambos. Un patrón que he notado con la adopción de MCP es que el escepticismo generalmente da paso al reconocimiento: este protocolo resuelve problemas arquitectónicos genuinos que otros enfoques no. He reunido una lista de preguntas a continuación que reflejan las conversaciones que he tenido con otros constructores que están considerando llevar a MCP a entornos de producción. 1. ¿Por qué debería usar MCP sobre otras alternativas? Por supuesto, la mayoría de los desarrolladores que consideran MCP ya están familiarizados con implementaciones como GPTS personalizados de OpenAI, llamadas a funciones de vainilla, API de respuestas con llamadas de funciones y conexiones codificadas a servicios como Google Drive. La pregunta no es realmente si MCP reemplaza completamente estos enfoques: bajo el capó, podría usar absolutamente la API de respuestas con la función de la función que todavía se conecta a MCP. Lo que importa aquí es la pila resultante. A pesar de toda la exageración sobre MCP, aquí está la verdad directa: no es un salto técnico masivo. MCP esencialmente «envuelve» las API existentes de una manera que es comprensible para los modelos de idiomas grandes (LLM). Claro, muchos servicios ya tienen una especificación de OpenAPI que los modelos pueden usar. Para proyectos pequeños o personales, la objeción de que MCP «no es tan grande» es bastante justa. La serie AI Impact regresa a San Francisco – 5 de agosto La próxima fase de IA está aquí – ¿Estás listo? Únase a los líderes de Block, GSK y SAP para una visión exclusiva de cómo los agentes autónomos están remodelando los flujos de trabajo empresariales, desde la toma de decisiones en tiempo real hasta la automatización de extremo a extremo. Asegure su lugar ahora: el espacio es limitado: https://bit.ly/3GUupLf El beneficio práctico se vuelve obvio cuando está creando algo como una herramienta de análisis que necesita conectarse a fuentes de datos en múltiples ecosistemas. Sin MCP, debe escribir integraciones personalizadas para cada fuente de datos y cada LLM que desea admitir. Con MCP, implementa las conexiones de fuente de datos una vez, y cualquier cliente de IA compatible puede usarlas. 2. Implementación de MCP local versus remoto: ¿Cuáles son las compensaciones reales en la producción? Aquí es donde realmente comienzas a ver la brecha entre los servidores de referencia y la realidad. La implementación local de MCP utilizando el lenguaje de programación STDIO es muy fácil de ejecutar: generar subprocesos para cada servidor MCP y dejar que hablen a través de Stdin/STDout. Ideal para una audiencia técnica, difícil para los usuarios cotidianos. La implementación remota obviamente aborda la escala, pero abre una lata de gusanos alrededor de la complejidad del transporte. El enfoque original de HTTP+SSE fue reemplazado por una actualización HTTP transmitible de marzo 2025, que trata de reducir la complejidad al poner todo a través de un punto final único /mensajes. Aun así, esto no es realmente necesario para la mayoría de las empresas que probablemente construyan servidores MCP. Pero aquí está la cosa: unos meses después, el apoyo es irregular en el mejor de los casos. Algunos clientes aún esperan la antigua configuración de HTTP+SSE, mientras que otros trabajan con el nuevo enfoque, por lo tanto, si se está implementando hoy, probablemente apoye a ambos. La detección de protocolo y el soporte de doble transporte son imprescindibles. La autorización es otra variable que deberá considerar con implementaciones remotas. La integración OAuth 2.1 requiere tokens de mapeo entre proveedores de identidad externos y sesiones de MCP. Si bien esto agrega complejidad, es manejable con la planificación adecuada. 3. ¿Cómo puedo estar seguro de que mi servidor MCP es seguro? Esta es probablemente la mayor brecha entre la exageración de MCP y lo que realmente necesita abordar para la producción. La mayoría de las exhibiciones o ejemplos que verá usan conexiones locales sin autenticación en absoluto, o se agitan la seguridad diciendo «usa OAuth». La especificación de autorización de MCP aprovecha OAuth 2.1, que es un estándar abierto probado. Pero siempre habrá cierta variabilidad en la implementación. Para las implementaciones de producción, concéntrese en los fundamentos: control de acceso basado en el alcance adecuado que coincide con los límites de la herramienta reales directamente los registros de auditoría de validación de token y el monitoreo para el uso de la herramienta Sin embargo, la mayor consideración de seguridad con MCP es la ejecución de la herramienta en sí misma. Muchas herramientas necesitan (o piensan que necesitan) los permisos amplios para ser útiles, lo que significa que es inevitable un diseño de alcance barrer (como una manta «leer» o «escribir»). Incluso sin un enfoque pesado, su servidor MCP puede acceder a datos confidenciales o realizar operaciones privilegiadas, por lo que, en caso de duda, se mantenga en las mejores prácticas recomendadas en la última especificación de borrador de Auth MCP. 4. ¿Vale la pena invertir recursos y tiempo MCP, y estará presente a largo plazo? Esto llega al corazón de cualquier decisión de adopción: ¿por qué debería molestarme con un protocolo de sabor del trimestre cuando todo AI se mueve tan rápido? ¿Qué garantía tiene que MCP será una opción sólida (o incluso alrededor) en un año, o incluso seis meses? Bueno, mire la adopción de MCP por los principales actores: Google lo admite con su protocolo Agent2Agent, Microsoft ha integrado a MCP con Copilot Studio e incluso está agregando funciones de MCP incorporadas para Windows 11, y CloudFlare está más que feliz de ayudarlo a aumentar su primer servidor MCP en su plataforma. Del mismo modo, el crecimiento del ecosistema es alentador, con cientos de servidores MCP construidos por la comunidad e integraciones oficiales de plataformas conocidas. En resumen, la curva de aprendizaje no es terrible, y la carga de implementación es manejable para la mayoría de los equipos o desarrolladores en solitario. Hace lo que dice en la lata. Entonces, ¿por qué sería cauteloso al comprar la exageración? MCP está diseñado fundamentalmente para los sistemas de IA de generación actual, lo que significa que supone que tiene una supervisión humana de una interacción de un solo agente. La tarea de múltiples agentes y autónomos son dos áreas que MCP realmente no aborda; Para ser justos, realmente no necesita hacerlo. Pero si está buscando un enfoque de hoja perenne pero aún así, de alguna manera, MCP no es así. Está estandarizando algo que necesita desesperadamente consistencia, no pionero en un territorio desconocido. 5. ¿Estamos a punto de presenciar las «Guerras de Protocolo de AI?» Los signos apuntan hacia cierta tensión en la línea para los protocolos de IA. Si bien MCP ha forjado una audiencia ordenada al llegar temprano, hay muchas pruebas de que no estará solo por mucho más tiempo. Tome el lanzamiento del protocolo Agent2Agent (A2A) de Google con más de 50 socios de la industria. Es complementario a MCP, pero el momento, solo semanas después de Operai adoptó públicamente a MCP, no se siente coincidencia. ¿Google estaba cocinando un competidor de MCP cuando vieron el nombre más grande en LLMS lo abrazó? Tal vez un pivote fue el movimiento correcto. Pero no es especulación pensar que, con características como el muestreo multi-LLM que pronto se lanzará para MCP, A2A y MCP pueden convertirse en competidores. Luego está el sentimiento de los escépticos de hoy sobre que MCP es un «envoltorio» en lugar de un salto genuino hacia adelante para la comunicación API a LLM. Esta es otra variable que solo se volverá más evidente a medida que las aplicaciones orientadas al consumidor se muevan de las interacciones de un solo agente/de un solo usuario y se encuentran en el ámbito de la tareas múltiples, múltiples usuarios y múltiples agentes. Lo que MCP y A2A no abordan se convertirán en un campo de batalla para otra raza de protocolo por completo. Para los equipos que traen proyectos con IA a la producción hoy, el juego inteligente probablemente sea protocolos de cobertura. Implemente lo que funciona ahora mientras diseña para su flexibilidad. Si AI da un salto generacional y deja atrás a MCP, su trabajo no sufrirá por ello. La inversión en la integración de herramientas estandarizadas valdrá la pena inmediatamente, pero mantenga su arquitectura adaptable para lo que venga a continuación. En última instancia, la comunidad de desarrollo decidirá si MCP se mantiene relevante. Son los proyectos de MCP en producción, no la elegancia de las especificaciones o el zumbido del mercado, que determinarán si MCP (o algo más) se mantiene en la cima para el próximo ciclo de bombo de IA. Y, francamente, así es probablemente como debería ser. Meir Wahnon es cofundador en Descope. Insights diarias sobre casos de uso de negocios con VB diariamente Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo. Lea nuestra Política de privacidad Gracias por suscribirse. Mira más boletines de VB aquí. Ocurrió un error.
Deja una respuesta