AI Agent Hub
AI エージェント / プラグイン情報メディア
← 一覧へ
AnythingLLM
OTHER

AnythingLLM

AnythingLLM

ドキュメント対話、AI エージェント機能、RAG を備えたオールインワンの AI 生産性ツール。プライバシー重視のローカル実行対応で、マルチユーザー環境もサポート。複雑な設定不要で、企業から個人利用まで幅広く活用できます。

原文: The all-in-one AI productivity accelerator. On device and privacy first with no annoying setup or configuration.
#AI エージェント#ローカル実行#RAG#ai-agents#custom-ai-agents#deepseek#kimi#llama3#llm#lmstudio#local-llm#localai
REPO STATS

リポジトリ統計

⭐ Stars
59.8k
🍴 Forks
6.5k
⚠️ Open Issues
355
🌿 Language
JavaScript
📄 License
MIT
🕒 最終更新
2026.05.09 (1日前)
📅 公開日
2023.06.04
🌿 Branch
master
README

ドキュメント

— AI による自動翻訳 (2026.05.11 更新)

AnythingLLM ロゴ

Mintplex-Labs%2Fanything-llm | Trendshift

AnythingLLM: 探していたオールインワン AI アプリです。
ドキュメントとチャットでき、AI Agents を使用でき、ハイパー設定可能で、マルチユーザー対応、セットアップ不要です。

Discord | ライセンス | ドキュメント | ホスト型インスタンス

English · 简体中文 · 日本語

👉 デスクトップ用 AnythingLLM (Mac, Windows, & Linux)! 今すぐダウンロード

ドキュメントとチャットでき、AI Agents で複雑なワークフローを自動化できます。ハイパー設定可能で、マルチユーザー対応、実績があり、デフォルトではローカルで実行され、セットアップ不要です。

チャット

デモを見る!

ビデオを見る

製品概要

AnythingLLM は、妥協なくプライベートな全機能搭載の ChatGPT を構築できるオールインワン AI アプリケーションです。お気に入りのローカルまたはクラウド LLM に接続し、ドキュメントを取り込み、数分でチャットを開始できます。ボックスの外から組み込み agents、マルチユーザーサポート、ベクターデータベース、ドキュメントパイプラインが利用でき、追加の設定は不要です。

AnythingLLM は複数ユーザーをサポートしており、インスタンスまたは知的財産のセキュリティやプライバシーを損なうことなく、ユーザーごとにアクセスと経験を制御できます。

AnythingLLM の素晴らしい機能

サポートされている LLM、エンベッダーモデル、音声モデル、およびベクターデータベース

大規模言語モデル(LLM):

エンベッダーモデル:

オーディオ文字起こしモデル:

TTS(テキスト音声変換)サポート:

STT(音声テキスト変換)サポート:

  • ネイティブブラウザビルトイン(デフォルト)

ベクターデータベース:

技術概要

このモノレポは 6 つの主要セクションで構成されています:

  • frontend: ViteJS + React フロントエンドです。LLM が使用できるすべてのコンテンツを簡単に作成・管理できます。
  • server: すべてのインタラクションを処理し、ベクターDB 管理と LLM インタラクションを行う NodeJS Express サーバーです。
  • collector: UI からドキュメントを処理・解析する NodeJS Express サーバーです。
  • docker: Docker 指示およびビルドプロセス + ソースからビルドするための情報です。
  • embed: Web 埋め込みウィジェット の生成と作成用のサブモジュールです。
  • browser-extension: Chrome ブラウザ拡張機能 用のサブモジュールです。

🛳 セルフホスティング

Mintplex Labs とコミュニティは、AnythingLLM をローカルで実行するために使用できる多数のデプロイ方法、スクリプト、テンプレートを提供しています。以下のテーブルを参照して、推奨される環境へのデプロイ方法または自動デプロイを読んでください。

Docker AWS GCP Digital Ocean Render.com
Deploy on Docker Deploy on AWS Deploy on GCP Deploy on DigitalOcean Deploy on Render.com
Railway RepoCloud Elestio Northflank
Deploy on Railway Deploy on RepoCloud Deploy on Elestio Deploy on Northflank

または Docker なしで本番環境の AnythingLLM インスタンスをセットアップしてください →

開発のためのセットアップ方法

  • yarn setup リポジトリのルートから、アプリケーションの各セクションで必要な .env ファイルを埋めます。
    • 進める前にそれらを埋めてください。server/.env.development が埋められていることを確認してください。そうしないと正常に動作しません。
  • yarn dev:server リポジトリのルートからローカルでサーバーをブートします。
  • yarn dev:frontend リポジトリのルートからローカルでフロントエンドをブートします。
  • yarn dev:collector リポジトリのルートからドキュメントコレクターを実行します。

ドキュメントについて学ぶ

テレメトリーとプライバシー

AnythingLLM by Mintplex Labs Inc には、匿名の使用情報を収集するテレメトリー機能が含まれています。

AnythingLLM のテレメトリーとプライバシーについてさらに詳しく

なぜですか?

この情報は、AnythingLLM の使用方法を理解し、新機能とバグ修正の作業の優先順位を付け、AnythingLLM のパフォーマンスと安定性を向上させるのに役立てています。

オプトアウト

テレメトリーからオプトアウトするには、サーバーまたは docker の .env 設定で DISABLE_TELEMETRY を「true」に設定します。また、サイドバー > Privacy に移動してテレメトリーを無効にすることで、アプリ内から行うこともできます。

具体的には何を追跡していますか?

製品とロードマップの決定に役立つ使用詳細のみを追跡します。具体的には:

  • インストールのタイプ(Docker または Desktop)

  • ドキュメントが追加または削除されたとき。ドキュメント自体に関する情報ではなく、イベントが発生したという事実だけです。これにより、使用状況の把握に役立ちます。

  • 使用中のベクターデータベースのタイプ。これにより、そのプロバイダーの更新が到着したときに変更の優先順位を付けるのに役立ちます。

  • 使用中の LLM プロバイダーとモデルタグのタイプ。これにより、そのプロバイダーまたはモデル、またはその組み合わせの更新が到着したときに変更の優先順位を付けるのに役立ちます。例:推論 vs 通常、マルチモーダルモデルなど。

  • チャットが送信されたとき。これは最も定期的な「イベント」であり、すべてのインストール全体でこのプロジェクトの日常的なアクティビティについての考えを提供します。繰り返しになりますが、イベントのみが送信されます。チャット自体の性質または内容についての情報はありません。

Telemetry.sendTelemetry が呼び出されているすべての場所を見つけることで、これらのクレームを検証できます。さらに、これらのイベントは出力ログに書き込まれるため、送信された特定のデータを確認することもできます(有効な場合)。IP またはその他の識別情報は収集されません。テレメトリーのプロバイダーは PostHog です。これはオープンソースのテレメトリー収集サービスです。

プライバシーを非常に真剣に受け取り、迷惑なポップアップ調査を使用せずにツールの使用方法を知りたいと考えていることをご理解いただきたいです。そうすることで、使用する価値のあるものを構築できます。匿名データは、決して第三者と共有されません。

[ソースコード内のすべてのテレメトリーイベントを表示](https://github.com/search?q=repo%3AMintplex-Labs%2Fanything-llm%20.sendTelemetry(&type=code)

その他の外部接続

テレメトリーを無効にしても、次のサービスへの外部接続は引き続き表示されます:

  • 外部ツール、LLM、埋め込みモデル、またはベクターデータベースを使用している場合、それぞれのサービスプロバイダーへの外部接続は引き続き表示されます。
  • cdn.anythingllm.com はミラー CDN からモデルをプルするためのものです。これはテレメトリーで追跡されておらず、VPN 制限地域にいる人にとって実際に役立ちます。
  • github/githubusercontent.com コンテキストウィンドウキャッシュのために、これらのドメインからダウンロードされるさまざまなフラットファイルがあります。

基本的に、テレメトリーが無効な場合、何も収集しません。ただし、設定によっては、外部接続が表示される場合があり、それぞれのサービスプロバイダーの利用規約に従います。

👋 貢献

💖 スポンサー

プレミアムスポンサー

User avatar: DCS DIGITAL

— GitHub から取得した原文(一部省略の場合あり)

AnythingLLM logo

Mintplex-Labs%2Fanything-llm | Trendshift

AnythingLLM: The all-in-one AI app you were looking for.
Chat with your docs, use AI Agents, hyper-configurable, multi-user, & no frustrating setup required.

Discord | License | Docs | Hosted Instance

English · 简体中文 · 日本語

👉 AnythingLLM for desktop (Mac, Windows, & Linux)! Download Now

Chat with your docs. Automate complex workflows with AI Agents. Hyper-configurable, multi-user ready, battle-tested—and runs locally by default with zero setup friction.

Chatting

Watch the demo!

Watch the video

Product Overview

AnythingLLM is the all-in-one AI application that lets you build a private, fully-featured ChatGPT—without compromises. Connect your favorite local or cloud LLM, ingest your documents, and start chatting in minutes. Out of the box you get built-in agents, multi-user support, vector databases, and document pipelines — no extra configuration required.

AnythingLLM supports multiple users as well where you can control the access and experience per user without compromising the security or privacy of the instance or your intellectual property.

Cool features of AnythingLLM

Supported LLMs, Embedder Models, Speech models, and Vector Databases

Large Language Models (LLMs):

Embedder models:

Audio Transcription models:

TTS (text-to-speech) support:

STT (speech-to-text) support:

  • Native Browser Built-in (default)

Vector Databases:

Technical Overview

This monorepo consists of six main sections:

  • frontend: A viteJS + React frontend that you can run to easily create and manage all your content the LLM can use.
  • server: A NodeJS express server to handle all the interactions and do all the vectorDB management and LLM interactions.
  • collector: NodeJS express server that processes and parses documents from the UI.
  • docker: Docker instructions and build process + information for building from source.
  • embed: Submodule for generation & creation of the web embed widget.
  • browser-extension: Submodule for the chrome browser extension.

🛳 Self-Hosting

Mintplex Labs & the community maintain a number of deployment methods, scripts, and templates that you can use to run AnythingLLM locally. Refer to the table below to read how to deploy on your preferred environment or to automatically deploy.

Docker AWS GCP Digital Ocean Render.com
Deploy on Docker Deploy on AWS Deploy on GCP Deploy on DigitalOcean Deploy on Render.com
Railway RepoCloud Elestio Northflank
Deploy on Railway Deploy on RepoCloud Deploy on Elestio Deploy on Northflank

or set up a production AnythingLLM instance without Docker →

How to setup for development

  • yarn setup To fill in the required .env files you'll need in each of the application sections (from root of repo).
    • Go fill those out before proceeding. Ensure server/.env.development is filled or else things won't work right.
  • yarn dev:server To boot the server locally (from root of repo).
  • yarn dev:frontend To boot the frontend locally (from root of repo).
  • yarn dev:collector To then run the document collector (from root of repo).

Learn about documents

Telemetry & Privacy

AnythingLLM by Mintplex Labs Inc contains a telemetry feature that collects anonymous usage information.

More about Telemetry & Privacy for AnythingLLM

Why?

We use this information to help us understand how AnythingLLM is used, to help us prioritize work on new features and bug fixes, and to help us improve AnythingLLM's performance and stability.

Opting out

Set DISABLE_TELEMETRY in your server or docker .env settings to "true" to opt out of telemetry. You can also do this in-app by going to the sidebar > Privacy and disabling telemetry.

What do you explicitly track?

We will only track usage details that help us make product and roadmap decisions, specifically:

  • Type of your installation (Docker or Desktop)

  • When a document is added or removed. No information about the document. Just that the event occurred. This gives us an idea of use.

  • Type of vector database in use. This helps us prioritize changes when updates arrive for that provider.

  • Type of LLM provider & model tag in use. This helps us prioritize changes when updates arrive for that provider or model, or combination thereof. eg: reasoning vs regular, multi-modal models, etc.

  • When a chat is sent. This is the most regular "event" and gives us an idea of the daily-activity of this project across all installations. Again, only the event is sent - we have no information on the nature or content of the chat itself.

You can verify these claims by finding all locations Telemetry.sendTelemetry is called. Additionally these events are written to the output log so you can also see the specific data which was sent - if enabled. No IP or other identifying information is collected. The Telemetry provider is PostHog - an open-source telemetry collection service.

We take privacy very seriously, and we hope you understand that we want to learn how our tool is used, without using annoying popup surveys, so we can build something worth using. The anonymous data is never shared with third parties, ever.

[View all telemetry events in source code](https://github.com/search?q=repo%3AMintplex-Labs%2Fanything-llm%20.sendTelemetry(&type=code)

Other outbound connections

If you disable telemetry, you would still see outbound connections to the following services:

  • If using an external tool, LLM, Embedding models, or Vector databases, you will still see outbound connections to the respective service provider.
  • cdn.anythingllm.com for pulling models from our mirror CDN. This is not tracked by telemetry and is actually useful for those in VPN restricted regions.
  • github/githubusercontent.com There are some various flat files that are downloaded from these domains for context window caching.

Basically, if telemetry is disabled we don't collect anything. However, depending on your setup you may still see outbound connections and would be subject to the terms of service of the respective service provider.

👋 Contributing

💖 Sponsors

Premium Sponsors

User avatar: DCS DIGITAL