「ChatGPTやClaudeに自社のデータを読ませて、もっと実務に踏み込んだ作業をさせたい」——そう考えてAPI連携を試したものの、毎回プロンプトに情報を詰め込んだり、ツールごとにラッパーを書き直したりする運用に限界を感じていませんか。
2024年末にAnthropicが発表したMCP(Model Context Protocol)は、まさにこの「AIと外部システムをつなぐ配線がぐちゃぐちゃ問題」を解決するために生まれた標準プロトコルです。CursorやClaude Desktopをはじめ主要なAI開発ツールが続々と対応し、2026年現在ではAIエージェント実装の事実上のデファクトになりつつあります。
本記事では、MCPサーバーとは何かという定義から、仕組み、代表的な活用例、自作の手順、そして中小企業が現実的にどう取り入れるかまでを一気通貫で解説します。読み終わる頃には「自社で内製すべきか、外注すべきか」の判断軸が手に入るはずです。
MCP(Model Context Protocol)とは|AI×外部システムの標準規格
1分でわかる定義
MCP(Model Context Protocol)は、AIアシスタント(LLM)と外部システム(ファイル、DB、SaaS、社内システム等)を標準化された方法で接続するためのオープンプロトコルです。USB-Cが端子の形を統一して機器同士の接続を簡単にしたように、MCPはAIと各種データソース・ツールを「同じ口」でつなげるようにします。
つまり、MCPに対応したホスト(Claude Desktop、Cursor等)であれば、MCPサーバーを差し込むだけでAIが新しい能力を獲得できる——というのが本質です。
なぜMCPが生まれたのか(M×Nの統合問題)
従来、AIアプリケーションを開発する際は「M個のAIモデル × N個のツール = M×N通り」の連携コードを書く必要がありました。新しいツールを追加するたびに、すべてのモデル向けに実装を書き直す。新しいモデルに乗り換えるたびに、すべてのツール連携を作り直す。これがM×N問題です。
MCPはこの問題を「M+N」に変換します。AIモデル側はMCPクライアントを1度実装すれば良く、ツール側もMCPサーバーを1度作れば、対応するすべてのAIから利用可能になります。組み合わせ爆発から解放されることが、MCPがエンジニアに歓迎されている最大の理由です。
Anthropicが2024年末に提唱・OSS化した経緯
MCPは2024年11月にAnthropicが発表し、即座にオープンソースとして公開されました。仕様・SDK・リファレンス実装すべてが公開されており、Anthropic以外のベンダー(OpenAI、Google等)や個人開発者も自由に実装できます。
2025年に入ってからはCursor、Continue、Zed、Codeium、Windsurfなど主要なAI開発環境が次々に対応。OpenAIも2025年に公式SDKでMCPサポートを発表したことで、業界横断の標準として一気に普及しました。
MCPの仕組み|3つのコンポーネント
MCPのアーキテクチャは、シンプルに以下の3つの登場人物で構成されます。
ホスト(Claude Desktop / Cursor等)
ホストは、ユーザーが直接操作するAIアプリケーション本体です。Claude Desktop、Cursor、Continue、Zedといったツールがこれに該当します。ホストはユーザーからの入力を受け取り、LLMとMCPクライアントを内部で動かして、適切なMCPサーバーに処理を依頼します。
クライアント(ホスト内で動く接続管理)
クライアントは、ホスト内部に存在する「サーバーとの1対1の通信を管理する役割」です。1つのMCPサーバーに対して1つのクライアントが対応し、リクエスト送信・レスポンス受信・状態管理を担います。ユーザーが意識することはほぼありませんが、複数のサーバーを束ねて管理する司令塔として動いています。
サーバー(外部システムへの橋渡し役)
MCPサーバーが、本記事の主役です。GitHub、Slack、Postgres、ファイルシステムといった「外部世界」と接続し、AIが使えるツール(tool)やリソース(resource)を提供します。サーバーは独立したプロセスとして動作し、ホストから呼び出されたときだけ仕事をします。
処理の流れを箇条書きで整理すると次のようになります。
- ユーザーがホスト(例:Cursor)に「このリポジトリのIssueを確認して」と指示
- ホスト内のLLMが「GitHub MCPサーバーのlist_issuesツールを呼ぶ必要がある」と判断
- クライアントが対応するMCPサーバーにリクエストを送信
- MCPサーバーがGitHub APIを叩いて結果を取得・整形して返却
- LLMが結果を読み取り、自然言語でユーザーに回答
通信プロトコルはJSON-RPC 2.0がベースで、ローカルでは標準入出力(stdio)、リモートではHTTP+SSE(Server-Sent Events)が使われます。
MCPサーバーで何ができるのか|代表的な活用例
ファイルシステム・GitHub・Slack連携
最も基本的かつ強力なのが、開発者の日常ツールへの接続です。Filesystem MCPサーバーを使えばAIにローカルファイルの読み書きをさせられ、GitHub MCPでIssueの起票・PRレビュー・コミット履歴の確認が自然言語で完結します。SlackチャンネルへのメッセージもMCP経由でAIに任せられます。
社内DB・社内Wikiへのアクセス
Postgres MCPやSQLite MCPを導入すれば、AIに自社DBへのSQLクエリ実行を許可できます。「先月の売上TOP10商品を教えて」と聞くだけで、AIが裏でSQLを組み立てて実行・集計してくれる世界です。NotionやConfluenceなどのWiki系もMCPサーバーが揃っており、社内ナレッジを横断検索させる用途で活躍します。
業務アプリ(CRM・SFA)操作
SalesforceやHubSpotといったCRM、Jira・Linearなどのプロジェクト管理ツールもMCP化が進んでいます。「商談ステータスがClosed-Wonに変わった案件を一覧化して、Slackの営業チャンネルに投稿」といった複数システムをまたいだ業務オペレーションを、AIエージェントに丸ごと任せられるようになります。
自社業務の自律化(営業・経理・カスタマーサポート)
MCPの真価は、複数サーバーを組み合わせた業務自律化にあります。たとえば「メール受信→内容解析→Notion議事録作成→該当案件のCRM更新→次回MTGをカレンダー登録」という一連のフローを、それぞれのMCPサーバーを束ねたAIエージェントが自律的に処理する——これが2026年時点で実用可能な姿です。
既存のMCPサーバー|知っておくべき公式・人気サーバー
自作の前に、まずは公式・コミュニティが提供する既製サーバーを把握しておきましょう。多くのケースで「既製で足りる」が結論になります。
| サーバー名 | 提供元 | 用途 | こんな時に |
|---|---|---|---|
| Filesystem | 公式(Anthropic) | ローカルファイルの読み書き | ローカルディレクトリ操作の自動化 |
| GitHub | 公式 | GitHubリポジトリ操作 | Issue・PR・コミット履歴の確認 |
| Postgres | 公式 | PostgreSQLへの読み取りアクセス | DBスキーマの理解と分析クエリ |
| SQLite | 公式 | SQLite DB操作 | 軽量なローカルDB分析 |
| Slack | 公式 | Slackメッセージ送受信・検索 | チャンネル監視・自動投稿 |
| Brave Search | 公式 | Web検索 | 最新情報のリアルタイム取得 |
| Puppeteer | 公式 | ブラウザ自動操作 | スクレイピング・E2Eテスト |
| Google Drive | 公式 | Google Drive上のファイル操作 | ドキュメント検索・共有 |
このほかにもコミュニティ製のサーバーがgithub.com/modelcontextprotocol/serversに集約されており、Notion、Linear、Stripe、Sentryなど主要SaaSはほぼカバーされています。「既製で足りるか」を最初に検討するのが鉄則です。
MCPサーバーを自作する5ステップ
既製サーバーで足りない場合、自作に進みます。意外とシンプルなので、ハードルは想像より低いはずです。
1. 言語・SDKを選ぶ(TypeScript / Python等)
公式SDKはTypeScript・Python・Java・Kotlin・C#・Swiftが提供されています。Web系エンジニアならTypeScript、データ系・スクリプト処理が多いならPythonが扱いやすいでしょう。社内の既存資産(既存のNode.jsライブラリやPython処理)と同じ言語を選ぶのがおすすめです。
2. ツール(tool)を定義する
ツールはAIが呼び出す関数です。名前・説明・入力スキーマ(JSON Schema)・実行内容を定義します。Pythonでの最小例は次のとおりです。
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("my-server")
@mcp.tool()
def get_sales(month: str) -> str:
"""指定月の売上合計を返す"""
# 実際のDBアクセスやAPIコール
return f"{month}の売上は1,234,567円です"
if __name__ == "__main__":
mcp.run()
ポイントは関数のdocstring(説明文)を丁寧に書くこと。AIはこの説明を読んで「いつこのツールを呼ぶべきか」を判断するため、UIラベルを書く感覚で記述します。
3. リソース(resource)の公開
ツールが「動詞」だとすれば、リソースは「名詞」——AIに参照させたいデータです。ファイル、ドキュメント、DBレコードなどをURI形式で公開し、AIが必要に応じて読み取ります。設定ファイルや業務マニュアルをリソースとして提供すると、AIの回答精度が一段階上がります。
4. ホストへの接続設定
作成したサーバーをホスト(Claude Desktop / Cursor等)に登録します。Claude Desktopならclaude_desktop_config.json、Cursorなら設定パネルかプロジェクト設定ファイルにサーバーの起動コマンドを記述するだけです。
{
"mcpServers": {
"my-server": {
"command": "python",
"args": ["/path/to/my_server.py"]
}
}
}
5. テストと配布
公式提供のMCP Inspectorを使うと、ホストを起動せずにサーバーをデバッグできます。社内配布する場合はDockerイメージ化、社外公開するならnpmやPyPIへ公開するのが一般的です。
MCPサーバー導入時の3つの落とし穴
セキュリティ(権限スコープの設計)
MCPサーバーはAIに「実行権限」を渡す仕組みです。read系とwrite系を明確に分離し、最小権限の原則で設計しないと、AIが意図しない操作をしてしまうリスクがあります。特に本番DBへのwrite権限や、決済系APIの実行権限は慎重に。最初は読み取り専用から始めるのが鉄則です。
認証情報の取り扱い
APIキーやDB接続情報をMCPサーバーの設定ファイルに直書きするのは厳禁です。環境変数・シークレットマネージャ(AWS Secrets Manager、1Password CLI等)経由で読み込み、Gitにコミットしない仕組みを最初から入れてください。チームで配布する場合は、メンバーごとに個別のクレデンシャルを発行する設計が安全です。
バージョン互換性
MCPプロトコル自体がまだ進化途上で、仕様改訂が時々あります。SDKもメジャーアップデートで破壊的変更が入ることがあるため、SDKのバージョンを固定し、CIでホスト側との互換性を確認する運用を組んでおくと安心です。社内利用なら問題は小さいですが、社外配布するサーバーは特に注意が必要です。
中小企業の現実解|MCPは内製か外注か
すべてを自作する必要はありません。判断軸を整理します。
既製サーバーで足りるケース
- GitHub・Slack・Notion・Google Driveなど主要SaaSの操作が中心
- ローカルファイル操作とWeb検索の組み合わせで業務が回る
- 「まず触ってみて効果を測りたい」フェーズ
自作が必要なケース
- 社内独自システム(基幹DB、独自ERP、自社開発のCRM等)への接続が必要
- 業務固有のロジック(与信判定、見積生成、専門計算等)をツール化したい
- 複数システムを束ねた独自ワークフローを1つのMCPサーバーとして抽象化したい
外注の判断基準
- 社内にAI/MCPに精通したエンジニアがいない、または手が空かない
- セキュリティ・認証設計を含めて本番運用品質まで持っていく必要がある
- 1〜2か月でPoCから本番投入まで一気に進めたい
「とりあえず既製サーバーで小さく試す→効果が出たら独自MCPサーバーで本格投入」という二段構えが、コストと成功確率のバランスが最も良いパターンです。
関連記事
- MCPサーバー連携でCursorを3倍活かす実務Tips — 本記事のプロトコル解説に対し、Cursor上での具体的な使いこなしを解説
- .cursorrulesの書き方ガイド — MCPと組み合わせるとAIの精度がさらに上がる
- AI駆動開発のメリット・デメリット — MCPを含むAI開発の全体像
- Claude Codeとは?使い方・料金 — Claude系ツールでのMCP活用
- バイブコーディング完全入門 — AIに任せる開発スタイルの基礎
よくある質問(FAQ)
Q1. MCPサーバーは普通のAPIサーバーと何が違うのですか?
A. 普通のREST APIは「人間(または特定の連携プログラム)が叩く想定」で設計されますが、MCPサーバーは「LLMが理解して呼び出す想定」で設計されます。具体的にはツールの説明文(docstring)やスキーマがLLM向けに整えられており、対応するすべてのMCPホストから即座に利用可能です。既存のREST APIをMCPサーバーでラップして提供する、というパターンも一般的です。
Q2. MCPはAnthropic専用の規格ですか?OpenAIやGeminiでも使えますか?
A. オープンプロトコルなので、特定ベンダーに縛られません。OpenAIは2025年に公式SDKでサポートを表明し、Cursor・Continue・Windsurfなど主要なAI開発ツールはモデルを問わずMCPに対応しています。ベンダーロックインを避けたい中小企業には特に好都合な設計です。
Q3. 自作MCPサーバーの開発期間はどれくらいかかりますか?
A. 機能の複雑さによります。「社内DBから読み取り専用でデータを返す」程度なら半日〜1日、「複数SaaSを束ねた業務ワークフローを実装し、認証・権限・テストまで含める」なら2週間〜1か月が目安です。プロトタイプは数時間で動くため、まず作って試せるのがMCPの大きな利点です。
Q4. MCPサーバーは本番運用で安定していますか?
A. プロトコル仕様は2026年時点で十分実用レベルですが、本番運用ではログ・モニタリング・エラーハンドリング・タイムアウト設計を自前で組む必要があります。SDKのリファレンス実装をそのまま使うのではなく、社内のログ基盤や監視ツールに組み込む設計が必要です。
自社業務に最適なMCPサーバーをANTOIRが設計・実装します
「自社業務に合わせたMCPサーバーを作って、AIエージェントに本格的な業務を任せたい——でも実装リソースが足りない」「セキュリティや認証設計まで踏まえると、社内だけで進めるのは不安」という方へ。
ANTOIRはAI駆動開発の専門集団として、MCPサーバーの設計・実装からAIエージェントの運用設計、現場定着までを一気通貫で支援します。既製サーバーで足りるか自作が必要かの判断段階からご相談いただけます。