エージェント型AIの未来を描く:Catoエンジニアリングが提案する、実用的で安全・スケーラブルな新MCPサーバーフレームワーク
セキュリティの初期を覚えている方もいるでしょう。ファイアウォールやアンチウイルスを導入するだけで十分に感じられ、シンプルで、自分が守れているという実感がありました。しかし時間が経つにつれ、セキュリティは常に変化する標的であることを私たちは学びました。かつて十分と思えた対策も、すぐに単なる「出発点」に過ぎなくなっていったのです。
いまのエージェント型AI時代において、多くの人がModel Context Protocol(MCP)の構築を同じように捉えています。動いていて、結果が返ってくるなら「それで十分」と感じるのです。けれどもAIの世界は急速に進化しています。セキュリティ、スケーラビリティ、可観測性はいまや欠かせない要素ですが、多くのMCPアーキテクチャにはそれが欠けています。
この課題に応えるため、私たちは新たなMCPアーキテクチャを設計しました – 安全でスケーラブルな「MCP Server-as-a-Service(MCPSaaS)」です。MCPSaaSは次世代の自律システムのために作られたフレームワーク。これは製品ではなく、エンジニアが指針として活用できるアプローチです。AIエージェントがデータにアクセスし、やり取りする仕組みに潜む深刻なセキュリティとスケーラビリティの課題を克服するためのものです。
エージェント型AIアーキテクチャの進化
この1年で、エージェント型AIツールの導入は一気に加速しました。これまでのように関数を手作業でつないだり、不安定なプラグインAPIに依存したりするのではなく、標準化されたプロトコルベースのインターフェースが当たり前になりつつあります。MCPはその進化を後押しし、ローカルでの実行からスタートし、やがてHTTP経由でのリモート通信へと拡張されました。現在ではストリーミング通信やマルチユーザー対応の初期モデルが登場し、エージェントと環境とのやり取りの形を大きく変えています。図1に、この進化の流れをまとめてみました。
図1:MCP進化のタイムライン
ローカルMCP環境の落とし穴
ローカル環境でのMCPセットアップは、導入の手軽さから魅力的に見えるかもしれません。ですが、実際に運用を続けると次のような問題が積み重なっていきます。
- 各マシンごとに手動でインストールが必要
- アップデートや不具合修正をユーザーに配布し直し、再構築が必要になる場合がある
- 自動更新がないため、CISOにとってセキュリティパッチ適用が大きな負担になる
- シンプルな認証機構では現代のセキュリティ要件を満たせない
- 資格情報が平文や未暗号化のまま保存されるリスク
- プロセス間通信でやり取りされるため、利用状況の監視・制御が難しい
- 停止忘れのMCPサーバープロセスがシステムリソースを無駄に消費
こうしたギャップに対し、業界も動き始めています。
- Anthropic:Desktop Extensionsでデスクトップ上のエージェントとツールの連携を改善
- Docker:MCP Gatewayにより、コンテナネイティブで安全な通信レイヤーを導入
- Google:GenAI Toolboxで、外部ツールやデータベースへの効率的かつ安全なアクセスを提供
どれも有望な取り組みですが、MCPの運用課題を根本から解決するには、最初から セキュリティ・管理性・将来性 を組み込んだスケーラブルなアーキテクチャが欠かせません。
安全で拡張性の高いMCPSaaSフレームワークの発表
私たちの新しいフレームワークは、エージェント型AIが実際の運用環境で求められる要件に応えるために設計されました。次世代のMCPSaaSフレームワークは、エンタープライズレベルのセキュリティ、シームレスな拡張性、そして大幅に向上したユーザー体験を提供することを目指し、ゼロから構築されています。
本フレームワークの主な特長
- 従来のSSEプロトコルを置き換え、より柔軟でモダンな通信を実現する、ストリーミング対応HTTPトランスポート。
- 拡張性の高いコンテナランタイム:システム負荷に柔軟に対応し、高可用性を備える。
- OAuth 2.1ベースの認可:MCP標準に準拠した安全なアイデンティティ管理を実現。
- 高性能なセッションキャッシュ:レイテンシを抑え、応答速度を大幅に改善。
- ユーザートークンの暗号化されたインメモリストレージ:暗号化ボールトから実行時にのみアクセス可能。
- 分離されたMCPクライアントトークン:MCPレイヤーに限定したアクセス権を付与し、基盤リソースには一切アクセスできない設計。
- 堅牢なセッション管理:
各コンテナはステートフルに稼働し、セッションやトークンを暗号化されたインメモリストア(例:VM内暗号化を備えたRedis)に保存。フェイルオーバー時には他コンテナが状態を複製し、セッションの継続性とデータの一貫性を保証。
- ユーザーごとの強固な分離:RedisキーはMCPセッションIDと内部トークンのハッシュを組み合わせて生成。OAuth 2.1フロー内で作成されるため、セッションは厳格に分離。各ユーザーにはセッション専用の内部ベアラートークンが発行され、リソースサーバー用トークンは安全に保護される。
このフレームワークは、徹底したアーキテクチャ設計、セキュアデザインの原則、そして運用上の卓越性への強いこだわりのもとに生まれました。実現には高い専門性と規律、そして「AIをどう安全にエンタープライズへ拡張させるか」という明確なビジョンが必要でした。私たちは、この基盤こそが次世代の安全なエージェント型オートメーションを支える土台になると確信しています。図2が示すように、この新しいフレームワークは、インテリジェントでセキュアな自動化の次のステージを支えます。
図2:モダンなエージェント型AI ― Catoの安全で拡張性の高いMCPSaaSフレームワーク
安全で拡張性の高いMCPSaaSの社内構築と活用
Catoでは、研究開発(R&D)、運用、プロジェクト管理(PMO)などの各チームが、社内外のMCPサーバーを活用したAIエージェントを日常的に使っています。これらのエージェントは、デスクトップツールやAIコーディングアシスタントのほか、LangChain、LangGraph、Microsoft AutoGen、Google ADKといったフレームワークを通じて動作。この仕組みによって、利用を効率的に拡大しながら、バージョンの統一性を保ち、わずらわしい手動インストールから解放されています。
さらに私たちは、MCPサーバー開発を一元管理するモノレポジトリを導入しました。これにより、強固なセキュリティや最新MCP標準との整合性を確保しつつ、開発スピードも大幅に向上。あわせて社内に「開発ギルド」が立ち上がり、統合の効率化や自動化の拡大、さらには新しいアイデアの創出をリードしています。
この新しいフレームワークを設計し、取り入れることは、ごく自然な次の一歩でした。社内でAIエージェントの利用が拡大するにつれ、私たちも多くの企業と同じように、スケーラビリティ、バージョン管理、安全なアクセスといった課題に直面しました。中央集約型かつマルチユーザー対応のフレームワークへ移行することで、これらの課題を解決し、CatoのSASEクラウドプラットフォームと同じ水準の基準を備えたインフラを構築することができたのです。
エージェント型AIコミュニケーションの未来を切り拓くフレームワーク
私たちは、多くの組織がエージェント型AIを導入する際に、セキュリティの確保、可視性の担保、そしてスムーズなユーザー体験といった共通の課題に直面していることを理解しています。今回の新しいフレームワークは、そうした課題に対する大きな前進です。現在の問題を解決すると同時に、AIエージェントがユーザーやチーム、環境をまたいで安全かつ大規模に、そして効率的に機能できる基盤を築きます。これにより企業は、次世代のAIを安心して取り入れ、自信を持って新しい時代のAI活用へと踏み出すことができるのです。