Ciudad de México. “Cualquier tecnología o vendor está implementando sus propios MCP servers porque están viendo que, o hacen esto o están fuera del juego”, expuso Roberto Carratalá, Principal AI Architect en la AI Business Unit de Red Hat, durante el AI Roadshow CDMX de la compañía proveedora de soluciones de código abierto.
El experto definió a MCP (Model Context Protocol o protocolo de contexto de modelo) como una puerta a las herramientas de la Inteligencia Artificial (IA), que es un estándar flexible, escalable y brinda acceso y elementos de seguridad, y citó como ejemplo los servidores MCP de Salesforce, Slack y Cisco.
Anatomía, ventajas y protocolo de los agentes
Carratalá explicó que un Agente está conformado por múltiples piezas, como un modelo de lenguaje grande (LLM), al que calificó como “tonto”, ya que dijo, los datos son los que dan el poder diferenciador; así como la capacidad de ir a herramientas externas, como APIs y data lakes, ya que sin ellas serían incapaces de responder con información actualizada.

El especialista detalló que los Agentes de Inteligencia Artificial (IA) han transitado por varias etapas: los primeros fueron los que realizaban tareas repetitivas, luego siguieron los Agentes de Recuperación de Information (IRA, por sus siglas en inglés) y los Agentes de Orquestación de Tareas que rigen actualmente para resolver tareas complejas, como la decisión de la tasa de interés y el análisis de riesgo de una hipoteca en un banco, hasta un estadio futuro con sistemas multi-agentes que interactúan entre ellos.
De acuerdo con el experto en Servicios en la Nube, sus principales ventajas son:
- Incrementar productividad y eficiencia.
- Flexibilidad y elección con un enfoque de código abierto.
- Escalabilidad y automatización de operaciones.
- Nueva generación de aplicaciones empresariales.
- Abstraer la complejidad.
El ingeniero en Telecomunicaciones, IA y ML expuso que el proceso funciona a partir del servidor Llama Stack de Meta, que funge como una suerte de API por encima de la plataforma de Red Hat OpenShift, y a la que pueden conectarse LLMs, como Granite, de su matriz IBM, y el propio Llama, el modelo open source de Meta, así como múltiples servidores MCP por debajo.
Esto, dijo, permite control y personalización completa, estandarización (con un API multiproveedor), seguridad de los datos y el despliegue tanto on-premise, como en cualquier Nube pública y en un entorno de multinube híbrida.
Carratalá detalló que, a través de sus tres plataformas, su servidor de inferencia de IA, Red Hat Enterprise Linux (RHEL) AI y OpenShift AI, las organizaciones pueden desplegar agentes específicos para diferentes casos de negocio, salvaguardando la privacidad y el compliance, lo cual resulta crucial para industrias como la financiera, ya que un banco está estrictamente regulado.
Hasta ahora, en los casos que ha desplegado, Red Hat ha notado que las escalaciones se reducen 90% y hay una generación de 83% nuevas aplicaciones empresariales.
No obstante, pese a todos estos beneficios y potencialidades, Carratalá advirtió que aún persisten desafíos en los Agentes de IA, como la orquestación de flujos complejos, asegurar la confianza y la fiabilidad y escalar eficientemente.