GPT Researcherは、あらゆるタスクについてウェブおよびローカルでの調査を目的とした、最初のオープンディープリサーチエージェントです。
このエージェントは、引用を備えた詳細で事実的で偏りのないリサーチレポートを作成します。GPT Researcherは、カスタムメイドおよびドメイン固有のリサーチエージェントを作成するためのカスタマイズオプションの完全なスイートを提供します。最近のPlan-and-SolveおよびRAGペーパーから着想を得て、GPT Researcherは、安定したパフォーマンスと並列化されたエージェント作業による速度向上を提供することで、誤情報、速度、決定性、および信頼性に対処します。
私たちのミッションは、AIを通じて個人と組織に正確で偏りのない事実情報を提供することです。
- 手動でのリサーチによる客観的な結論は数週間かかり、膨大なリソースと時間が必要です。
- 古い情報で訓練されたLLMは幻覚を起こす可能性があり、現在のリサーチタスクに関連性がなくなります。
- 現在のLLMはトークン制限があり、長いリサーチレポートを生成するには不十分です。
- 既存サービスのウェブソースが限定されているため、誤情報と浅い結果につながります。
- 選別されたウェブソースはリサーチタスクにバイアスをもたらす可能性があります。
Claude の深い調査機能を拡張するため、GPT Researcher を Claude Skill としてインストールしてください:
npx skills add assafelovic/gpt-researcherインストール後、Claude はあなたの会話の中で直接 GPT Researcher の深い調査機能を活用できます。
基本的な考え方は「プランナー」エージェントと「実行」エージェントを活用することです。プランナーが調査質問を生成し、実行エージェントが関連情報を収集します。その後、パブリッシャーがすべての調査結果を包括的なレポートに集約します。
手順:
- 調査クエリに基づいてタスク固有のエージェントを作成します。
- タスクに関する客観的な意見を形成する質問を生成します。
- 各質問に対する情報を収集するためにクローラーエージェントを使用します。
- 各リソースの要約とソースを追跡します。
- 要約をフィルタリングして最終調査レポートに集約します。
- 📝 Web およびローカルドキュメントを使用した詳細な調査レポートの生成です。
- 🖼️ レポート用のスマートな画像スクレイピングとフィルタリング。
- 🍌 AI 生成のインラインイメージ を Google Gemini(Nano Banana)を使用した視覚的イラストレーション用に使用します。
- 📜 2,000 語を超える詳細なレポートの生成。
- 🌐 客観的な結論のために 20 以上のソースの集約。
- 🖥️ 軽量版(HTML/CSS/JS)および本番環境対応版(NextJS + Tailwind)で利用可能なフロントエンド。
- 🔍 JavaScript 対応 Web スクレイピング。
- 📂 調査全体をとおしてメモリとコンテキストを維持します。
- 📄 レポートを PDF、Word および他の形式にエクスポート。
ドキュメント で以下を確認してください:
- インストールおよびセットアップガイド
- 設定およびカスタマイズオプション
- ハウツー例
- 完全な API リファレンス
-
Python 3.11 以降をインストールしてください。ガイド。
-
プロジェクトをクローンしてディレクトリに移動してください:
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher -
API キーを環境変数としてエクスポートするか、
.envファイルに保存して設定してください。export OPENAI_API_KEY={Your OpenAI API Key here} export TAVILY_API_KEY={Your Tavily API Key here}
(オプション)トレーシングと監視可能性を向上させるため、以下も設定できます:
# export LANGCHAIN_TRACING_V2=true # export LANGCHAIN_API_KEY={Your LangChain API Key here}
カスタム OpenAI 互換 API(例:ローカル モデル、その他のプロバイダ)の場合、以下も設定できます:
export OPENAI_BASE_URL={Your custom API base URL here} -
依存関係をインストールしてサーバーを起動してください:
pip install -r requirements.txt python -m uvicorn main:app --reload
http://localhost:8000 にアクセスして開始してください。
その他のセットアップ(例:Poetry または仮想環境)については、はじめにページをご確認ください。
pip install gpt-researcher
...
from gpt_researcher import GPTResearcher
query = "why is Nvidia stock going up?"
researcher = GPTResearcher(query=query)
# Conduct research on the given query
research_result = await researcher.conduct_research()
# Write the report
report = await researcher.write_report()
...詳細な例と設定については、PIP ドキュメントページを参照してください。
GPT Researcher は MCP 統合に対応しており、GitHub リポジトリ、データベース、カスタム API などの専門的なデータソースと接続できます。これにより、Web 検索と並行してデータソースからリサーチを実施できます。
export RETRIEVER=tavily,mcp # Enable hybrid web + MCP researchfrom gpt_researcher import GPTResearcher
import asyncio
import os
async def mcp_research_example():
# Enable MCP with web search
os.environ["RETRIEVER"] = "tavily,mcp"
researcher = GPTResearcher(
query="What are the top open source web research agents?",
mcp_configs=[
{
"name": "github",
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {"GITHUB_TOKEN": os.getenv("GITHUB_TOKEN")}
}
]
)
research_result = await researcher.conduct_research()
report = await researcher.write_report()
return report包括的な MCP ドキュメントと高度な例については、MCP 統合ガイドをご覧ください。
GPT Researcher は Google の Gemini モデル(Nano Banana)を使用して、AI で生成したイラストをリサーチレポートに自動生成・埋め込むことができます。
# Enable in your .env file
IMAGE_GENERATION_ENABLED=true
GOOGLE_API_KEY=your_google_api_key
IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image有効にすると、システムは以下を実行します:
- リサーチコンテキストを分析して視覚化の機会を識別します
- リサーチフェーズ中に 2~3 個の関連画像を事前生成します
- レポート作成時にそれらをインラインで埋め込みます
画像は GPT Researcher UI に合わせたダークモードスタイルで生成され、ティール色のアクセントを備えたプロフェッショナルなインフォグラフィック美学を特徴としています。
イメージ生成について詳しく学ぶ(ドキュメント参照)。
GPT Researcher は Deep Research を含むようになりました。これは、トピックをエージェント的な深さと広さで探索する高度な再帰的リサーチワークフローです。この機能は、ツリー状の探索パターンを採用し、サブトピックをより深く掘り下げながら、リサーチ対象の包括的なビューを維持します。
- 🌳 設定可能な深さと広さでのツリー状探索
- ⚡️ より高速な結果のための並行処理
- 🤝 リサーチブランチ全体でのスマートなコンテキスト管理
- ⏱️ ディープリサーチあたり約 5 分がかかります
- 💰 リサーチあたり約 $0.4 の費用(
o3-miniを「高」推論効果で使用)
ドキュメントで Deep Research の詳細をご確認ください。
ステップ 1 - Docker をインストールする
ステップ 2 - '.env.example' ファイルをクローンし、クローンしたファイルに API キーを追加して、ファイルを '.env' として保存します
ステップ 3 - docker-compose ファイル内で、Docker で実行したくないサービスをコメントアウトします。

