Die Zukunft von KI-Agenten: Cato Engineering stellt ein neues praktisches, sicheres und skalierbares MCP-Server-Framework vor

Inhaltsverzeichnis
Einige von Ihnen erinnern sich vielleicht an die frühen Tage der Sicherheit, als das Einrichten einer Firewall oder eines Antivirenprogramms ausreichend schien. Es war einfach und gab uns ein Gefühl der Kontrolle. Doch mit der Zeit haben wir gelernt, dass Sicherheit sich stets verändert. Was einst ausreichend schien, wurde schnell nur noch zum Ausgangspunkt.
In der heutigen Ära der KI-Agenten behandeln viele ihre Model Context Protocol (MCP)-Setups auf die gleiche Weise. Wenn es läuft und Ergebnisse liefert, fühlt es sich gut genug an. Aber die KI-Landschaft entwickelt sich schnell weiter. Sicherheit, Skalierbarkeit und Beobachtbarkeit sind jetzt unerlässlich, und viele MCP-Architekturen fehlen diese wesentlichen Eigenschaften.
Um diesen Anforderungen gerecht zu werden, haben wir eine MCP-Architektur entwickelt, die diese Probleme behebt – einen sicheren und skalierbaren MCP Server-as-a-Service (MCPSaaS). MCPSaaS ist ein Pionier eines Frameworks, der speziell für die nächste Generation autonomer Systeme entwickelt wurde. Dies ist kein Produkt, sondern ein Ansatz, den die Technik verfolgen kann, um erhebliche Sicherheits- und Skalierbarkeitsbeschränkungen bei der Kommunikation und dem Datenzugriff von KI-Agenten zu beheben.
Die Evolution der agentischen KI-Architektur
Im vergangenen Jahr hat sich die Integration von agentischen KI-Tools dramatisch beschleunigt. Wir sind von manuellen Funktionszuordnungen und fragilen Plugin-APIs zu standardisierten, protokollgesteuerten Schnittstellen übergegangen. MCP hat diese Evolution erleichtert, beginnend mit der lokalen Ausführung und sich erweiternd auf die Remote-Kommunikation über HTTP. Jetzt verändern streaming-fähige Kommunikation und frühe Muster mehrerer Benutzer die Art und Weise, wie Agenten mit ihrer Umgebung interagieren. Wir veranschaulichen diese Evolution in Abbildung 1 unten.
Abbildung 1. Verlauf der MCP-Evolution
Herausforderungen mit lokalen MCP-Setups
Obwohl lokale MCP-Setups aufgrund ihrer geringen Komplexität attraktiv erscheinen mögen, bringen sie im Laufe der Zeit oft erhebliche Herausforderungen mit sich:
- Sie erfordern eine manuelle Installation auf jeder Maschine.
- Tool-Updates oder Fehlerbehebungen müssen den Benutzern mitgeteilt werden und können eine Wiederherstellung erfordern.
- Ohne automatische Updates wird das Patchen von Sicherheitslücken zu einem großen Anliegen für CISOs.
- Grundlegende Authentifizierungsmechanismen sind für moderne Sicherheitsstandards unzureichend.
- Anmeldeinformationen können im Klartext oder in unverschlüsselten Formaten gespeichert werden.
- Die Überwachung und Kontrolle der MCP-Nutzung ist schwierig, da die Kommunikation über Inter-Process-Kanäle erfolgt.
- Veraltete MCP-Serverprozesse verbrauchen unnötige Systemressourcen.
Branchenakteure haben begonnen, diese Lücken zu schließen.
- Die Desktop-Erweiterungen von Anthropic verbessern die Interaktion zwischen lokalen Agenten und Tools auf Desktops.
- Das MCP-Gateway von Docker führt eine sichere, Container-native Transportebene für die Agentenkommunikation ein.
- Die GenAI-Toolbox von Google bietet ein Framework für sicheren, effizienten Zugriff auf Datenbanken und externe Tools.
Diese Innovationen sind Schritte in die richtige Richtung, doch um die betrieblichen Herausforderungen von MCP vollständig zu lösen, ist eine skalierbare Architektur erforderlich, die von Grund auf auf Sicherheit, Verwaltbarkeit und Zukunftssicherheit ausgelegt ist.
Einführung des sicheren und skalierbaren MCPSaaS-Frameworks
Unser neues Framework ist darauf ausgelegt, diese Bedürfnisse zu erfüllen und die Anforderungen von KI-Agenten in realen Produktionsumgebungen zu unterstützen. Dieses skalierbare und sichere MCPSaaS-Framework der nächsten Generation wurde von Grund auf neu entwickelt, um Sicherheit auf Unternehmensniveau, nahtlose Skalierbarkeit und ein deutlich verbessertes Benutzererlebnis zu bieten.
Dieses neue Framework umfasst:
- Streaming-fähiger HTTP-Transport, der das veraltete SSE-Protokoll für flexiblere, moderne Kommunikation ersetzt.
- Skalierbare containerisierte Laufzeit, die sich an die Systemlast anpasst und hohe Verfügbarkeit unterstützt.
- OAuth 2.1-basierte Autorisierung, ausgerichtet an MCP-Standards für sichere Identitätskontrolle.
- Hochleistungs-Session-Caching, um die Latenz zu reduzieren und die Reaktionsfähigkeit zu erhöhen.
- Verschlüsselte, im Speicher gespeicherte Benutzertoken, die nur zur Laufzeit aus einem sicheren verschlüsselten Tresor abgerufen werden.
- Isolierte MCP-Client-Token, die nur Zugriff auf die MCP-Schicht gewähren, niemals auf die zugrunde liegenden Ressourcen.
- Hohe Ausfallsicherheit mit sicherer stateful Sitzungsspeicherung
Jeder Container läuft im stateful Modus und speichert Sitzungs- und Token-Daten in einem verschlüsselten Speicher im Arbeitsspeicher (z. B. Redis mit In-VM-Verschlüsselung). Im Falle eines Failovers replizieren Peer-Container den Zustand, um eine nahtlose Sitzungswiederherstellung zu gewährleisten und die Datenkonsistenz aufrechtzuerhalten.
- Starke Benutzerisolierung durch Design – Redis-Schlüssel werden pro Benutzer eindeutig generiert, indem eine Kombination aus der MCP-Sitzungs-ID und einem Hash des internen MCP-Tokens verwendet wird. Diese Schlüssel werden als Teil des OAuth 2.1-Flusses erstellt, um sicherzustellen, dass Sitzungen sicher isoliert bleiben. Jeder Benutzer erhält ein internes Träger-Token, das nur auf seine Sitzung beschränkt ist, während das Träger-Token des Ressourcenservers sicher gespeichert bleibt.
Dieses Framework ist das Ergebnis tiefgehender architektonischer Planung, sicherer Designprinzipien und unseres Engagements für betriebliche Exzellenz. Es erforderte Fachwissen, Disziplin und eine klare Vision, wie KI sicher im Unternehmen skalieren sollte. Wir glauben, dass dies die Grundlage ist, die die nächste Welle sicherer, agentischer Automatisierung unterstützen wird. Wie in Abbildung 2 dargestellt, fördert dieses neue Rahmenwerk die nächste Generation intelligenter, sicherer Automatisierung.
Abbildung 1. Moderne Agenten-KI – Catos sicheres und skalierbares MCPSaaS-Framework
Sichere und skalierbare MCPSaaS intern aufbauen und nutzen
Bei Cato verlassen sich die Teams in Forschung und Entwicklung (R&D), Betrieb und Projektmanagementbüro (PMO) auf KI-Agenten, die sowohl von internen als auch von MCP-Servern von Drittanbietern betrieben werden. Diese Agenten verbinden sich über eine Reihe von Clients, einschließlich Desktop-Tools, KI-Coding-Assistenten und Frameworks wie LangChain, LangGraph, Microsoft AutoGen und Google ADK. Der Betrieb dieser Architektur ermöglicht es uns, die Nutzung effizient zu skalieren, die Versionskonsistenz aufrechtzuerhalten und die Probleme manueller Installationen zu vermeiden.
Um diese Bemühungen weiter zu unterstützen, haben wir ein gemeinsames Monorepo für die gesamte MCP-Serverentwicklung eingerichtet. Dieser zentralisierte Ansatz gewährleistet hohe Sicherheit, die Ausrichtung an sich entwickelnden MCP-Standards und eine hohe Entwicklungsgeschwindigkeit. Er führte auch zu einer internen Entwicklungsgilde, die weiterhin Innovationen vorantreibt, Integrationen optimiert und die Automatisierung in den Teams ausweitet.
Das Entwerfen und Annehmen dieses neuen Frameworks war der natürliche nächste Schritt. Als unser interner Einsatz von KI-Agenten wuchs, stießen wir auf die gleichen Herausforderungen, mit denen viele Organisationen konfrontiert sind, wie Skalierbarkeit, Versionskontrolle und sicheren Zugriff. Der Wechsel zu einem zentralisierten, mehrbenutzerfähigen Rahmen ermöglicht es uns, diese Probleme zu lösen und eine Infrastruktur aufzubauen, die die gleichen Standards widerspiegelt, die wir in der Cato SASE Cloud Platform liefern.
Ein Framework für die Zukunft der agentischen KI-Kommunikation
Wir erkennen an, dass viele Organisationen vor ähnlichen Herausforderungen stehen, wenn es darum geht, agentische KI sicher zu integrieren, mit voller Sichtbarkeit und einer reibungslosen Benutzererfahrung. Das neue Framework stellt einen bedeutenden Fortschritt dar. Es geht auf die Herausforderungen von heute ein und schafft gleichzeitig eine Grundlage, damit KI-Agenten effektiv, sicher und in großem Maßstab über Benutzer, Teams und Umgebungen hinweg arbeiten können, sodass Unternehmen die nächste Ära der KI sicher und mit Zuversicht annehmen können.