GPT Research MCP Server
OpenAI GPT-5.1 の Responses API と組み込み Web Search ツールを活用したリサーチ MCP サーバーです。
機能
research(query): GPT-5.1 の Web Search 機能を使用してクエリを調査し、引用情報付きの結果を返します
必要要件
- Python 3.12+
- uv パッケージマネージャー
- OpenAI API キー
セットアップ
1. リポジトリのクローン
git clone https://github.com/your-username/gpt-research-mcp.git
cd gpt-research-mcp
2. 依存関係のインストール
uv sync
3. 環境変数の設定
export OPENAI_API_KEY="sk-..."
カスタムエンドポイントの使用(オプション)
OpenAI 互換 API(Azure OpenAI、ローカル LLM など)を使用する場合は、OPENAI_BASE_URL を設定します:
export OPENAI_BASE_URL="https://your-custom-endpoint.com/v1"
設定しない場合は、デフォルトの https://api.openai.com/v1/ が使用されます。
4. LangFuse トレーシング(オプション)
LangFuse を使用して OpenAI API 呼び出しの可観測性を有効にできます。以下の環境変数をすべて設定すると自動的に有効化されます:
export LANGFUSE_SECRET_KEY="sk-lf-..."
export LANGFUSE_PUBLIC_KEY="pk-lf-..."
export LANGFUSE_BASE_URL="https://cloud.langfuse.com" # EU region
# export LANGFUSE_BASE_URL="https://us.cloud.langfuse.com" # US region
環境変数が設定されていない場合は、通常の OpenAI SDK が使用されます。
MCP サーバーとしてのインストール
Claude Code への登録
claude mcp add gpt-research -- uv run --directory /path/to/gpt-research-mcp main.py
または ~/.claude/settings.json に直接追加:
{
"mcpServers": {
"gpt-research": {
"command": "uv",
"args": ["run", "--directory", "/path/to/gpt-research-mcp", "main.py"],
"env": {
"OPENAI_API_KEY": "sk-...",
"OPENAI_BASE_URL": "https://api.openai.com/v1/"
}
}
}
}
OPENAI_BASE_URL はオプションです。カスタムエンドポイントを使用しない場合は省略可能です。
/path/to/gpt-research-mcp を実際のパスに置き換えてください。
使用方法
スタンドアロン実行
uv run python main.py
MCP ツールとして使用
MCP クライアント(Claude Desktop 等)から research ツールを呼び出します:
research("2024年の AI トレンドについて教えてください")
ツール仕様
research(query: str) -> str
| パラメータ | 型 | 説明 |
|---|---|---|
query | str | 調査したい質問やトピック |
戻り値: GPT-5.1 が生成したリサーチ結果(引用情報を含む)
技術スタック
| コンポーネント | 技術 |
|---|---|
| パッケージ管理 | uv |
| Python バージョン | 3.12 |
| MCP フレームワーク | FastMCP 2.0 |
| OpenAI クライアント | openai (公式ライブラリ) |
| モデル | gpt-5.1 |
| トレーシング(オプション) | LangFuse |
