OSS Agents JP
オープンソース AI エージェント 日本語ガイド
← 一覧へ
GPT Researcher
OTHER

GPT Researcher

GPT Researcher

複数のLLMプロバイダで、Webおよびローカルデータに対する自律的な深い研究を実施するエージェント。詳細でファクトベースの研究レポートを自動生成し、複雑なリサーチタスクに対応します。

原文: An autonomous agent that conducts deep research on any data using any LLM providers
#Agent#Research#Python#agent#ai#automation#deepresearch#llms#mcp#mcp-server#python#research
EDITOR'S TAKE

編集部メモ

Web とローカル両対応、引用付きリサーチレポート自動生成

複数の LLM を活用し、Web と組織内データを並列に調査して構造化レポートを生成するエージェント。既存の検索サービスと異なり、カスタマイズ性と透明性(ソース追跡)が強み。ただし Python 環境構築と API コスト負担が必要。適切に運用できれば、リサーチ業務の大幅な時間短縮が期待できます。

USE CASES

こんな場面で使う

  • 競合分析・市場トレンド調査を定期的に自動実行し、経営判断の基盤情報を迅速に生成する
  • 社内ナレッジベースと公開情報を同時に調査し、より正確で網羅的な業界レポートを作成する
  • 複雑な多段階リサーチ(調査→要約→集約)を自動化し、アナリスト / コンサルの創造的作業に時間を割く
DIFFERENTIATOR

類似ツールとの違い

Perplexity は Web 検索に特化した SaaS ですが、本ツールはローカルデータも対象にでき、独自カスタマイズも可能。従来型の RAG システムは遅いが、こちらは複数質問を並列実行するため高速。引用ベースの透明性を保ちながら、企業固有のドメイン知識を統合できるのが利点です。
CAVEAT

注意点・向かない用途

⚠️ Python 環境構築と複数 LLM API の同時呼び出しによるコスト増が課題。シンプルな Web 検索には過度。また LLM の幻覚リスク完全排除はできず、生成レポートの最終レビューは必須です。
BEST FOR

向いている読者

リサーチ業務を抱える企業・メディア編集部AI・データエンジニア営業・経営企画・マーケターの調査サポートOpen source で自律性を求めるスタートアップ

— OSS Agents JP 編集部による独自評価(GPT Researcher に関する観察)

REPO STATS

リポジトリ統計

⭐ Stars
27.1k
🍴 Forks
3.6k
⚠️ Open Issues
225
🌿 Language
Python
📄 License
Apache-2.0
🕒 最終更新
2026.04.17 (1か月前)
📅 公開日
2023.05.12
🌿 Branch
main
REFERENCE

公式ドキュメント(README)

本ハブの独自評価は上記「編集部メモ」が一次情報です。以下は GitHub README の参考転載(折りたたみ)。

📖 GitHub README の日本語訳を読む(AI 自動翻訳 / 参考情報)

— AI による自動翻訳 (2026.05.17 更新)。正確な情報は GitHub の原文 をご確認ください。

🔎 GPT Researcher

GPT Researcherは、あらゆるタスクについてウェブおよびローカルでの調査を目的とした、最初のオープンディープリサーチエージェントです。

このエージェントは、引用を備えた詳細で事実的で偏りのないリサーチレポートを作成します。GPT Researcherは、カスタムメイドおよびドメイン固有のリサーチエージェントを作成するためのカスタマイズオプションの完全なスイートを提供します。最近のPlan-and-SolveおよびRAGペーパーから着想を得て、GPT Researcherは、安定したパフォーマンスと並列化されたエージェント作業による速度向上を提供することで、誤情報、速度、決定性、および信頼性に対処します。

私たちのミッションは、AIを通じて個人と組織に正確で偏りのない事実情報を提供することです。

なぜGPT Researcherなのか?

  • 手動でのリサーチによる客観的な結論は数週間かかり、膨大なリソースと時間が必要です。
  • 古い情報で訓練されたLLMは幻覚を起こす可能性があり、現在のリサーチタスクに関連性がなくなります。
  • 現在のLLMはトークン制限があり、長いリサーチレポートを生成するには不十分です。
  • 既存サービスのウェブソースが限定されているため、誤情報と浅い結果につながります。
  • 選別されたウェブソースはリサーチタスクにバイアスをもたらす可能性があります。

デモ

デモ動画

Claude Skill としてインストール

Claude の深い調査機能を拡張するため、GPT Researcher を Claude Skill としてインストールしてください:

npx skills add assafelovic/gpt-researcher

インストール後、Claude はあなたの会話の中で直接 GPT Researcher の深い調査機能を活用できます。

アーキテクチャ

基本的な考え方は「プランナー」エージェントと「実行」エージェントを活用することです。プランナーが調査質問を生成し、実行エージェントが関連情報を収集します。その後、パブリッシャーがすべての調査結果を包括的なレポートに集約します。

手順:

  • 調査クエリに基づいてタスク固有のエージェントを作成します。
  • タスクに関する客観的な意見を形成する質問を生成します。
  • 各質問に対する情報を収集するためにクローラーエージェントを使用します。
  • 各リソースの要約とソースを追跡します。
  • 要約をフィルタリングして最終調査レポートに集約します。

チュートリアル

機能

  • 📝 Web およびローカルドキュメントを使用した詳細な調査レポートの生成です。
  • 🖼️ レポート用のスマートな画像スクレイピングとフィルタリング。
  • 🍌 AI 生成のインラインイメージ を Google Gemini(Nano Banana)を使用した視覚的イラストレーション用に使用します。
  • 📜 2,000 語を超える詳細なレポートの生成。
  • 🌐 客観的な結論のために 20 以上のソースの集約。
  • 🖥️ 軽量版(HTML/CSS/JS)および本番環境対応版(NextJS + Tailwind)で利用可能なフロントエンド。
  • 🔍 JavaScript 対応 Web スクレイピング。
  • 📂 調査全体をとおしてメモリとコンテキストを維持します。
  • 📄 レポートを PDF、Word および他の形式にエクスポート。

📖 ドキュメント

ドキュメント で以下を確認してください:

  • インストールおよびセットアップガイド
  • 設定およびカスタマイズオプション
  • ハウツー例
  • 完全な API リファレンス

⚙️ はじめに

インストール

  1. Python 3.11 以降をインストールしてください。ガイド

  2. プロジェクトをクローンしてディレクトリに移動してください:

    git clone https://github.com/assafelovic/gpt-researcher.git
    cd gpt-researcher
  3. API キーを環境変数としてエクスポートするか、.env ファイルに保存して設定してください。

    export OPENAI_API_KEY={Your OpenAI API Key here}
    export TAVILY_API_KEY={Your Tavily API Key here}

    (オプション)トレーシングと監視可能性を向上させるため、以下も設定できます:

    # export LANGCHAIN_TRACING_V2=true
    # export LANGCHAIN_API_KEY={Your LangChain API Key here}

    カスタム OpenAI 互換 API(例:ローカル モデル、その他のプロバイダ)の場合、以下も設定できます:

    export OPENAI_BASE_URL={Your custom API base URL here}
  4. 依存関係をインストールしてサーバーを起動してください:

    pip install -r requirements.txt
    python -m uvicorn main:app --reload

http://localhost:8000 にアクセスして開始してください。

その他のセットアップ(例:Poetry または仮想環境)については、はじめにページをご確認ください。

PIP パッケージとして実行する

pip install gpt-researcher

使用例:

...
from gpt_researcher import GPTResearcher

query = "why is Nvidia stock going up?"
researcher = GPTResearcher(query=query)
# Conduct research on the given query
research_result = await researcher.conduct_research()
# Write the report
report = await researcher.write_report()
...

詳細な例と設定については、PIP ドキュメントページを参照してください。

🔧 MCP クライアント

GPT Researcher は MCP 統合に対応しており、GitHub リポジトリ、データベース、カスタム API などの専門的なデータソースと接続できます。これにより、Web 検索と並行してデータソースからリサーチを実施できます。

export RETRIEVER=tavily,mcp  # Enable hybrid web + MCP research
from gpt_researcher import GPTResearcher
import asyncio
import os

async def mcp_research_example():
    # Enable MCP with web search
    os.environ["RETRIEVER"] = "tavily,mcp"
    
    researcher = GPTResearcher(
        query="What are the top open source web research agents?",
        mcp_configs=[
            {
                "name": "github",
                "command": "npx",
                "args": ["-y", "@modelcontextprotocol/server-github"],
                "env": {"GITHUB_TOKEN": os.getenv("GITHUB_TOKEN")}
            }
        ]
    )
    
    research_result = await researcher.conduct_research()
    report = await researcher.write_report()
    return report

包括的な MCP ドキュメントと高度な例については、MCP 統合ガイドをご覧ください。

🍌 インラインイメージ生成

GPT Researcher は Google の Gemini モデル(Nano Banana)を使用して、AI で生成したイラストをリサーチレポートに自動生成・埋め込むことができます。

# Enable in your .env file
IMAGE_GENERATION_ENABLED=true
GOOGLE_API_KEY=your_google_api_key
IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image

有効にすると、システムは以下を実行します:

  1. リサーチコンテキストを分析して視覚化の機会を識別します
  2. リサーチフェーズ中に 2~3 個の関連画像を事前生成します
  3. レポート作成時にそれらをインラインで埋め込みます

画像は GPT Researcher UI に合わせたダークモードスタイルで生成され、ティール色のアクセントを備えたプロフェッショナルなインフォグラフィック美学を特徴としています。

イメージ生成について詳しく学ぶ(ドキュメント参照)。

✨ Deep Research

GPT Researcher は Deep Research を含むようになりました。これは、トピックをエージェント的な深さと広さで探索する高度な再帰的リサーチワークフローです。この機能は、ツリー状の探索パターンを採用し、サブトピックをより深く掘り下げながら、リサーチ対象の包括的なビューを維持します。

  • 🌳 設定可能な深さと広さでのツリー状探索
  • ⚡️ より高速な結果のための並行処理
  • 🤝 リサーチブランチ全体でのスマートなコンテキスト管理
  • ⏱️ ディープリサーチあたり約 5 分がかかります
  • 💰 リサーチあたり約 $0.4 の費用(o3-mini を「高」推論効果で使用)

ドキュメントで Deep Research の詳細をご確認ください

Docker で実行する

ステップ 1 - Docker をインストールする

ステップ 2 - '.env.example' ファイルをクローンし、クローンしたファイルに API キーを追加して、ファイルを '.env' として保存します

ステップ 3 - docker-compose ファイル内で、Docker で実行したくないサービスをコメントアウトします。

📖 GitHub README の原文を読む(English / 参考情報)

— GitHub から取得した原文。完全版は GitHub へ。

🔎 GPT Researcher

GPT Researcher the first open deep research agent designed for both web and local research on any given task.

The agent produces detailed, factual, and unbiased research reports with citations. GPT Researcher provides a full suite of customization options to create tailor made and domain specific research agents. Inspired by the recent Plan-and-Solve and RAG papers, GPT Researcher addresses misinformation, speed, determinism, and reliability by offering stable performance and increased speed through parallelized agent work.

Our mission is to empower individuals and organizations with accurate, unbiased, and factual information through AI.

Why GPT Researcher?

  • Objective conclusions for manual research can take weeks, requiring vast resources and time.
  • LLMs trained on outdated information can hallucinate, becoming irrelevant for current research tasks.
  • Current LLMs have token limitations, insufficient for generating long research reports.
  • Limited web sources in existing services lead to misinformation and shallow results.
  • Selective web sources can introduce bias into research tasks.

Demo

Demo video

Install as Claude Skill

Extend Claude's deep research capabilities by installing GPT Researcher as a Claude Skill:

npx skills add assafelovic/gpt-researcher

Once installed, Claude can leverage GPT Researcher's deep research capabilities directly within your conversations.

Architecture

The core idea is to utilize 'planner' and 'execution' agents. The planner generates research questions, while the execution agents gather relevant information. The publisher then aggregates all findings into a comprehensive report.

Steps:

  • Create a task-specific agent based on a research query.
  • Generate questions that collectively form an objective opinion on the task.
  • Use a crawler agent for gathering information for each question.
  • Summarize and source-track each resource.
  • Filter and aggregate summaries into a final research report.

Tutorials

Features

  • 📝 Generate detailed research reports using web and local documents.
  • 🖼️ Smart image scraping and filtering for reports.
  • 🍌 AI-generated inline images using Google Gemini (Nano Banana) for visual illustrations.
  • 📜 Generate detailed reports exceeding 2,000 words.
  • 🌐 Aggregate over 20 sources for objective conclusions.
  • 🖥️ Frontend available in lightweight (HTML/CSS/JS) and production-ready (NextJS + Tailwind) versions.
  • 🔍 JavaScript-enabled web scraping.
  • 📂 Maintains memory and context throughout research.
  • 📄 Export reports to PDF, Word, and other formats.

📖 Documentation

See the Documentation for:

  • Installation and setup guides
  • Configuration and customization options
  • How-To examples
  • Full API references

⚙️ Getting Started

Installation

  1. Install Python 3.11 or later. Guide.

  2. Clone the project and navigate to the directory:

    git clone https://github.com/assafelovic/gpt-researcher.git
    cd gpt-researcher
  3. Set up API keys by exporting them or storing them in a .env file.

    export OPENAI_API_KEY={Your OpenAI API Key here}
    export TAVILY_API_KEY={Your Tavily API Key here}

    (Optional) For enhanced tracing and observability, you can also set:

    # export LANGCHAIN_TRACING_V2=true
    # export LANGCHAIN_API_KEY={Your LangChain API Key here}

    For custom OpenAI-compatible APIs (e.g., local models, other providers), you can also set:

    export OPENAI_BASE_URL={Your custom API base URL here}
  4. Install dependencies and start the server:

    pip install -r requirements.txt
    python -m uvicorn main:app --reload

Visit http://localhost:8000 to start.

For other setups (e.g., Poetry or virtual environments), check the Getting Started page.

Run as PIP package

pip install gpt-researcher

Example Usage:

...
from gpt_researcher import GPTResearcher

query = "why is Nvidia stock going up?"
researcher = GPTResearcher(query=query)
# Conduct research on the given query
research_result = await researcher.conduct_research()
# Write the report
report = await researcher.write_report()
...

For more examples and configurations, please refer to the PIP documentation page.

🔧 MCP Client

GPT Researcher supports MCP integration to connect with specialized data sources like GitHub repositories, databases, and custom APIs. This enables research from data sources alongside web search.

export RETRIEVER=tavily,mcp  # Enable hybrid web + MCP research
from gpt_researcher import GPTResearcher
import asyncio
import os

async def mcp_research_example():
    # Enable MCP with web search
    os.environ["RETRIEVER"] = "tavily,mcp"
    
    researcher = GPTResearcher(
        query="What are the top open source web research agents?",
        mcp_configs=[
            {
                "name": "github",
                "command": "npx",
                "args": ["-y", "@modelcontextprotocol/server-github"],
                "env": {"GITHUB_TOKEN": os.getenv("GITHUB_TOKEN")}
            }
        ]
    )
    
    research_result = await researcher.conduct_research()
    report = await researcher.write_report()
    return report

For comprehensive MCP documentation and advanced examples, visit the MCP Integration Guide.

🍌 Inline Image Generation

GPT Researcher can automatically generate and embed AI-created illustrations in your research reports using Google's Gemini models (Nano Banana).

# Enable in your .env file
IMAGE_GENERATION_ENABLED=true
GOOGLE_API_KEY=your_google_api_key
IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image

When enabled, the system will:

  1. Analyze your research context to identify visualization opportunities
  2. Pre-generate 2-3 relevant images during the research phase
  3. Embed them inline as the report is written

Images are generated with dark-mode styling that matches the GPT Researcher UI, featuring professional infographic aesthetics with teal accents.

Learn more about Image Generation in our documentation.

✨ Deep Research

GPT Researcher now includes Deep Research - an advanced recursive research workflow that explores topics with agentic depth and breadth. This feature employs a tree-like exploration pattern, diving deeper into subtopics while maintaining a comprehensive view of the research subject.

  • 🌳 Tree-like exploration with configurable depth and breadth
  • ⚡️ Concurrent processing for faster results
  • 🤝 Smart context management across research branches
  • ⏱️ Takes ~5 minutes per deep research
  • 💰 Costs ~$0.4 per research (using o3-mini on "high" reasoning effort)

Learn more about Deep Research in our documentation.

Run with Docker

Step 1 - Install Docker

Step 2 - Clone the '.env.example' file, add your API Keys to the cloned file and save the file as '.env'

Step 3 - Within the docker-compose file comment out services that you don't want to run with Docker.

RELATED

同じカテゴリの他のツール