AI Agent Hub
AI エージェント / プラグイン情報メディア
← 一覧へ
PrivateGPT
OTHER

PrivateGPT

PrivateGPT

ドキュメントに対して LLM で質問・相互作用できるプロダクション対応フレームワーク。100% プライベート、データが外部に流出せず、インターネット接続なしでオンプレミス実行可能。金融・防衛・医療などの規制産業向けエンタープライズ AI プラットフォーム。

原文: Interact with your documents using the power of GPT, 100% privately, no data leaks
#RAG#プライベート#ドキュメント解析
REPO STATS

リポジトリ統計

⭐ Stars
57.2k
🍴 Forks
7.6k
⚠️ Open Issues
300
🌿 Language
Python
📄 License
Apache-2.0
🕒 最終更新
2026.02.26 (2か月前)
📅 公開日
2023.05.02
🌿 Branch
main
README

ドキュメント

— AI による自動翻訳 (2026.05.11 更新)

PrivateGPT

imartinez%2FprivateGPT | Trendshift

テスト ドキュメント Discord X (旧 Twitter) フォロー

Gradio UI

PrivateGPT(Zylon により開発)は、大規模言語モデル (LLM) の力を使用してドキュメントについての質問を可能にする本番環境対応の AI プロジェクトです。インターネット接続がない状況でも利用できます。100% プライベートであり、データは実行環境から一切外部に漏出することはありません。

ヒント

銀行、保険、投資などの金融サービス、防衛、重要インフラサービス、政府、ヘルスケアなどの規制対象産業向けのエンタープライズ対応で完全プライベート AI プラットフォームをお探しでしたら、Zylon のウェブサイトをご確認するか、デモをリクエストしてください。Zylon は、規制対象産業向けのプライベート生成 AI とオンプレミス AI ソフトウェアを提供するエンタープライズ AI プラットフォームです。外部クラウド依存関係なくエンタープライズインフラストラクチャ内への安全なデプロイメントが可能です。

このプロジェクトは、プライベートでコンテキスト対応の AI アプリケーションを構築するために必要なすべてのプリミティブを提供する API を備えています。OpenAI API 標準に従い、これを拡張しており、通常のレスポンスとストリーミングレスポンスの両方をサポートしています。

API は 2 つの論理的なブロックに分かれています:

高レベル APIは、RAG(検索増強生成)パイプライン実装のすべての複雑性を抽象化します:

  • ドキュメント取り込み: ドキュメント解析、分割、メタデータ抽出、埋め込み生成とストレージの内部管理。
  • 取り込まれたドキュメントのコンテキストを使用した Chat と Completions: コンテキスト検索、プロンプト エンジニアリング、応答生成の抽象化。

低レベル APIは、高度なユーザーが独自の複雑なパイプラインを実装することを可能にします:

  • 埋め込み生成: テキストの一部に基づいています。
  • コンテキスト チャンク検索: クエリが与えられると、取り込まれたドキュメントから最も関連性のあるテキストチャンクを返します。

これに加えて、API をテストするための機能する Gradio UI クライアントが提供され、一括モデルダウンロード スクリプト、取り込みスクリプト、ドキュメント フォルダー監視など、有用なツールのセットが含まれています。

🎞️ 概要

注意

このREADMEはドキュメントほど頻繁には更新されません。最新の更新については、そちらをご確認ください。

PrivateGPT の背景

生成AIは社会のゲームチェンジャーですが、あらゆる規模の企業やヘルスケア、法務などのデータ機密性の高い分野での導入は、明確な懸念事項である「プライバシー」によって制限されています。サードパーティのAIツールを使用する際、データが完全に自分の管理下にあることを保証できないことは、これらの業界が受け入れることができないリスクです。

初期バージョン

PrivateGPT の最初のバージョンは 2023年5月に、LLMを完全なオフラインで使用することでプライバシーの懸念に対処するための新しいアプローチとして発表されました。

そのバージョンは急速にプライバシー機密設定の標準的なプロジェクトとなり、数千のローカルフォーカスの生成AIプロジェクトの基盤として機能し、PrivateGPT が現在になろうとしているものの礎となりました。したがって、完全にローカルな(つまりプライベートな)ChatGPT のようなツールを構築するために必要な基本的な概念を理解するための、より単純でより教育的な実装になっています。

使い続けたい場合は、プロジェクトのprimordial ブランチに保存してあります。

以前のプリモーディアルバージョンからアップグレードする場合、PrivateGPT の新しいバージョンをクリーンクローンしてインストールすることを強く推奨します。

PrivateGPT の現在と将来

PrivateGPT は、補完、文書取込、RAG パイプライン、その他の低レベルのビルディングブロックを含む、生成AI モデルとプリミティブへのゲートウェイとなるべく進化しています。あらゆる開発者が AI アプリケーションとエクスペリエンスを構築しやすくすること、および、コミュニティが貢献を続けるのに適した広範なアーキテクチャを提供することを目指しています。

リリースをチェックして、含まれるすべての新機能と変更をご確認ください。

📄 ドキュメント

インストール、依存関係、設定、サーバーの実行、デプロイオプション、ローカルドキュメントの取込、API の詳細、UI 機能の完全なドキュメントはこちらで見つけることができます:https://docs.privategpt.dev/

🧩 アーキテクチャ

概念的には、PrivateGPT は RAG パイプラインをラップし、そのプリミティブを公開する API です。

PrivateGPT の設計により、API と RAG 実装の両方を簡単に拡張・適応できます。主要なアーキテクチャ上の決定は以下の通りです:

  • 依存性注入により、異なるコンポーネントとレイヤーを分離します。
  • LLMBaseEmbeddingVectorStore などの LlamaIndex の抽象化を使用することで、それらの抽象化の実装をすぐに変更できます。
  • シンプル性を備えて、できるだけ少ないレイヤーと新しい抽象化を追加します。
  • 使用可能な状態で、API と RAG パイプラインの完全な実装を提供します。

主なビルディングブロック:

  • API は private_gpt:server:<api> で定義されています。各パッケージには、<api>_router.py(FastAPI レイヤー)と <api>_service.py(サービス実装)が含まれています。各 Service は、特定の実装ではなく LlamaIndex のベースの抽象化を使用して、実装をその使用から分離します。
  • コンポーネントは private_gpt:components:<component> に配置されています。各 Component は、Service で使用されるベースの抽象化に実装を提供する責任があります。例えば、LLMComponent は LLM の実装を提供する責任があります(例えば、LlamaCPP または OpenAI)。

💡 貢献

貢献をお待ちしています。コード品質を保証するために、複数のフォーマットと型チェックを有効にしました。コミットする前に make check を実行して、コードが問題なく動作することを確認してください。コードをテストすることを忘れないでください。テストフォルダがあり、make test コマンドを使用してテストを実行できます。

何を貢献したらいいかわかりませんか?いくつかのアイデアを持つ公開プロジェクトボードがあります。

Discord の #contributors チャネルに移動して、その GitHub プロジェクトの書き込み権限を要求してください。

💬 コミュニティ

PrivateGPT に関する会話に参加するには、以下をご覧ください。

📖 引用

PrivateGPT を論文で使用する場合は、引用ファイルで正しい引用形式を確認してください。
このリポジトリの「Cite this repository」ボタンを使って、さまざまな形式の引用を取得することもできます。

以下は例です。

BibTeX

@software{Zylon_PrivateGPT_2023,
author = {Zylon by PrivateGPT},
license = {Apache-2.0},
month = may,
title = {{PrivateGPT}},
url = {https://github.com/zylon-ai/private-gpt},
year = {2023}
}

APA

Zylon by PrivateGPT (2023). PrivateGPT [Computer software]. https://github.com/zylon-ai/private-gpt

🤗 パートナーとサポーター

PrivateGPT は以下のチームによってアクティブにサポートされています。

  • Qdrant。デフォルトのベクトルデータベースを提供
  • Fern。ドキュメントと SDK を提供
  • LlamaIndex。基本的な RAG フレームワークと抽象化を提供

このプロジェクトは、 LangChainGPT4AllLlamaCppChromaSentenceTransformers など、他の多くの素晴らしいプロジェクトから大きな影響を受け、サポートされています。

— GitHub から取得した原文(一部省略の場合あり)

PrivateGPT

imartinez%2FprivateGPT | Trendshift

Tests Website Discord X (formerly Twitter) Follow

Gradio UI

PrivateGPT -built by Zylon- is a production-ready AI project that allows you to ask questions about your documents using the power of Large Language Models (LLMs), even in scenarios without an Internet connection. 100% private, no data leaves your execution environment at any point.

Tip

If you are looking for an enterprise-ready, fully private AI platform for regulated industries like financial services (banks, insurance, investment), defense, critical infrastructure services, government and healthcare, check out Zylon's website or request a demo. Zylon is an enterprise AI platform delivering private generative AI and on-premise AI software for regulated industries, enabling secure deployment inside enterprise infrastructure without external cloud dependencies.

The project provides an API offering all the primitives required to build private, context-aware AI applications. It follows and extends the OpenAI API standard, and supports both normal and streaming responses.

The API is divided into two logical blocks:

High-level API, which abstracts all the complexity of a RAG (Retrieval Augmented Generation) pipeline implementation:

  • Ingestion of documents: internally managing document parsing, splitting, metadata extraction, embedding generation and storage.
  • Chat & Completions using context from ingested documents: abstracting the retrieval of context, the prompt engineering and the response generation.

Low-level API, which allows advanced users to implement their own complex pipelines:

  • Embeddings generation: based on a piece of text.
  • Contextual chunks retrieval: given a query, returns the most relevant chunks of text from the ingested documents.

In addition to this, a working Gradio UI client is provided to test the API, together with a set of useful tools such as bulk model download script, ingestion script, documents folder watch, etc.

🎞️ Overview

Warning

This README is not updated as frequently as the documentation. Please check it out for the latest updates!

Motivation behind PrivateGPT

Generative AI is a game changer for our society, but adoption in companies of all sizes and data-sensitive domains like healthcare or legal is limited by a clear concern: privacy. Not being able to ensure that your data is fully under your control when using third-party AI tools is a risk those industries cannot take.

Primordial version

The first version of PrivateGPT was launched in May 2023 as a novel approach to address the privacy concerns by using LLMs in a complete offline way.

That version, which rapidly became a go-to project for privacy-sensitive setups and served as the seed for thousands of local-focused generative AI projects, was the foundation of what PrivateGPT is becoming nowadays; thus a simpler and more educational implementation to understand the basic concepts required to build a fully local -and therefore, private- chatGPT-like tool.

If you want to keep experimenting with it, we have saved it in the primordial branch of the project.

It is strongly recommended to do a clean clone and install of this new version of PrivateGPT if you come from the previous, primordial version.

Present and Future of PrivateGPT

PrivateGPT is now evolving towards becoming a gateway to generative AI models and primitives, including completions, document ingestion, RAG pipelines and other low-level building blocks. We want to make it easier for any developer to build AI applications and experiences, as well as provide a suitable extensive architecture for the community to keep contributing.

Stay tuned to our releases to check out all the new features and changes included.

📄 Documentation

Full documentation on installation, dependencies, configuration, running the server, deployment options, ingesting local documents, API details and UI features can be found here: https://docs.privategpt.dev/

🧩 Architecture

Conceptually, PrivateGPT is an API that wraps a RAG pipeline and exposes its primitives.

The design of PrivateGPT allows to easily extend and adapt both the API and the RAG implementation. Some key architectural decisions are:

  • Dependency Injection, decoupling the different components and layers.
  • Usage of LlamaIndex abstractions such as LLM, BaseEmbedding or VectorStore, making it immediate to change the actual implementations of those abstractions.
  • Simplicity, adding as few layers and new abstractions as possible.
  • Ready to use, providing a full implementation of the API and RAG pipeline.

Main building blocks:

  • APIs are defined in private_gpt:server:<api>. Each package contains an <api>_router.py (FastAPI layer) and an <api>_service.py (the service implementation). Each Service uses LlamaIndex base abstractions instead of specific implementations, decoupling the actual implementation from its usage.
  • Components are placed in private_gpt:components:<component>. Each Component is in charge of providing actual implementations to the base abstractions used in the Services - for example LLMComponent is in charge of providing an actual implementation of an LLM (for example LlamaCPP or OpenAI).

💡 Contributing

Contributions are welcomed! To ensure code quality we have enabled several format and typing checks, just run make check before committing to make sure your code is ok. Remember to test your code! You'll find a tests folder with helpers, and you can run tests using make test command.

Don't know what to contribute? Here is the public Project Board with several ideas.

Head over to Discord #contributors channel and ask for write permissions on that GitHub project.

💬 Community

Join the conversation around PrivateGPT on our:

📖 Citation

If you use PrivateGPT in a paper, check out the Citation file for the correct citation.
You can also use the "Cite this repository" button in this repo to get the citation in different formats.

Here are a couple of examples:

BibTeX

@software{Zylon_PrivateGPT_2023,
author = {Zylon by PrivateGPT},
license = {Apache-2.0},
month = may,
title = {{PrivateGPT}},
url = {https://github.com/zylon-ai/private-gpt},
year = {2023}
}

APA

Zylon by PrivateGPT (2023). PrivateGPT [Computer software]. https://github.com/zylon-ai/private-gpt

🤗 Partners & Supporters

PrivateGPT is actively supported by the teams behind:

  • Qdrant, providing the default vector database
  • Fern, providing Documentation and SDKs
  • LlamaIndex, providing the base RAG framework and abstractions

This project has been strongly influenced and supported by other amazing projects like LangChain, GPT4All, LlamaCpp, Chroma and SentenceTransformers.

RELATED

同じカテゴリの他のツール