AI Agent Hub
AI エージェント / プラグイン情報メディア
← 一覧へ
AIChat
OTHER

AIChat

AIChat

100以上の LLM を1つのコマンドラインで扱えるオールインワン CLI。チャット REPL・ロール・セッション・RAG・AI Tools・エージェント機能まで内蔵し、Rust 製で高速。

原文: All-in-one LLM CLI tool featuring Shell Assistant, Chat-REPL, RAG, AI Tools & Agents, with access to OpenAI, Claude, Gemini, Ollama, Groq, and more.
#CLI#multi-LLM#Rust#ai#ai-agents#chatbot#claude#cli#function-calling#gemini#llm#ollama
REPO STATS

リポジトリ統計

⭐ Stars
9.9k
🍴 Forks
694
⚠️ Open Issues
81
🌿 Language
Rust
📄 License
Apache-2.0
🕒 最終更新
2026.02.23 (2か月前)
📅 公開日
2023.03.03
🌿 Branch
main
README

ドキュメント

— AI による自動翻訳 (2026.05.07 更新)

AIChat: オールインワン LLM CLI ツール

CI Crates Discord

AIChat は、シェルアシスタント、CMD & REPL モード、RAG、AI ツール & エージェント等を備えたオールインワン LLM CLI ツールです。

インストール

パッケージマネージャー

  • Rust 開発者: cargo install aichat
  • Homebrew/Linuxbrew ユーザー: brew install aichat
  • Pacman ユーザー: pacman -S aichat
  • Windows Scoop ユーザー: scoop install aichat
  • Android Termux ユーザー: pkg install aichat

プリビルトバイナリ

GitHub Releases から macOS、Linux、Windows 用のプリビルトバイナリをダウンロードし、展開して aichat バイナリを $PATH に追加してください。

機能

マルチプロバイダ

統一されたインターフェースを通じて 20 以上の主要 LLM プロバイダとシームレスに統合します。サポートされるプロバイダには、OpenAI、Claude、Gemini(Google AI Studio)、Ollama、Groq、Azure-OpenAI、VertexAI、Bedrock、Github Models、Mistral、Deepseek、AI21、XAI Grok、Cohere、Perplexity、Cloudflare、OpenRouter、Ernie、Qianwen、Moonshot、ZhipuAI、MiniMax、Deepinfra、VoyageAI、および OpenAI 互換 API プロバイダが含まれます。

CMD モード

AIChat の CMD モードで強力なコマンドライン機能を探索します。

aichat-cmd

REPL モード

インタラクティブな Chat-REPL を体験できます。タブオートコンプリーション、複数行入力対応、履歴検索、設定可能なキーバインディング、カスタム REPL プロンプトなどの機能があります。

aichat-repl

シェル アシスタント

コマンドラインの効率を高めます。自然言語でタスクを説明すると、AIChat がそれを正確なシェルコマンドに変換してくれます。AIChat は OS とシェル環境に自動的に適応します。

aichat-execute

マルチフォーム入力

stdin、ローカルファイルやディレクトリ、リモート URL など、多様な入力形式に対応し、データ処理に柔軟性をもたらします。

入力 コマンド REPL
コマンド aichat hello
標準入力 cat data.txt | aichat
最後の返信 .file %%
ローカルファイル aichat -f image.png -f data.txt .file image.png data.txt
ローカルディレクトリ aichat -f dir/ .file dir/
リモート URL aichat -f https://example.com .file https://example.com
外部コマンド aichat -f '`git diff`' .file `git diff`
入力の組み合わせ aichat -f dir/ -f data.txt explain .file dir/ data.txt -- explain

ロール

ロールをカスタマイズして LLM の動作を調整し、インタラクション効率を高め、生産性を向上させることができます。

aichat-role

ロールはプロンプトとモデル設定で構成されています。

セッション

セッションを通じてコンテキスト認識会話を維持し、インタラクションの継続性を確保します。

aichat-session

左側はセッションを使用し、右側はセッションを使用していません。

マクロ

一連の REPL コマンドをカスタムマクロに組み合わせることで、反復的なタスクを簡素化します。

aichat-macro

RAG

外部ドキュメントを LLM 会話に統合して、より正確で文脈に関連した応答を得ます。

aichat-rag

関数呼び出し

関数呼び出しは、LLM を外部ツールとデータソースに接続することで、LLM を大幅に強化します。これにより無限の可能性が開かれ、LLM はコア機能の範囲を超えて、より広い範囲のタスクに取り組むことができます。

この機能を最大限に活用するために、新しいリポジトリ https://github.com/sigoden/llm-functions を作成しました。

AI Tools & MCP

外部ツールを統合して、ワークフロー内でタスクを自動化し、情報を取得し、アクションを直接実行できます。

aichat-tool

AI Agents (OpenAI GPTs の CLI 版)

AI Agent = 指示(Prompt)+ ツール(Function Callings)+ ドキュメント(RAG)。

aichat-agent

ローカルサーバーの機能

AIChat には、簡単にデプロイできる軽量な組み込み HTTP サーバーが含まれています。

$ aichat --serve
Chat Completions API: http://127.0.0.1:8000/v1/chat/completions
Embeddings API:       http://127.0.0.1:8000/v1/embeddings
Rerank API:           http://127.0.0.1:8000/v1/rerank
LLM Playground:       http://127.0.0.1:8000/playground
LLM Arena:            http://127.0.0.1:8000/arena?num=2

LLM API のプロキシ

LLM Arena はウェブベースのプラットフォームで、異なる LLM を並べて比較できます。

curl でテストします:

curl -X POST -H 

— GitHub から取得した原文(一部省略の場合あり)

AIChat: All-in-one LLM CLI Tool

CI Crates Discord

AIChat is an all-in-one LLM CLI tool featuring Shell Assistant, CMD & REPL Mode, RAG, AI Tools & Agents, and More.

Install

Package Managers

  • Rust Developers: cargo install aichat
  • Homebrew/Linuxbrew Users: brew install aichat
  • Pacman Users: pacman -S aichat
  • Windows Scoop Users: scoop install aichat
  • Android Termux Users: pkg install aichat

Pre-built Binaries

Download pre-built binaries for macOS, Linux, and Windows from GitHub Releases, extract them, and add the aichat binary to your $PATH.

Features

Multi-Providers

Integrate seamlessly with over 20 leading LLM providers through a unified interface. Supported providers include OpenAI, Claude, Gemini (Google AI Studio), Ollama, Groq, Azure-OpenAI, VertexAI, Bedrock, Github Models, Mistral, Deepseek, AI21, XAI Grok, Cohere, Perplexity, Cloudflare, OpenRouter, Ernie, Qianwen, Moonshot, ZhipuAI, MiniMax, Deepinfra, VoyageAI, any OpenAI-Compatible API provider.

CMD Mode

Explore powerful command-line functionalities with AIChat's CMD mode.

aichat-cmd

REPL Mode

Experience an interactive Chat-REPL with features like tab autocompletion, multi-line input support, history search, configurable keybindings, and custom REPL prompts.

aichat-repl

Shell Assistant

Elevate your command-line efficiency. Describe your tasks in natural language, and let AIChat transform them into precise shell commands. AIChat intelligently adjusts to your OS and shell environment.

aichat-execute

Multi-Form Input

Accept diverse input forms such as stdin, local files and directories, and remote URLs, allowing flexibility in data handling.

Input CMD REPL
CMD aichat hello
STDIN cat data.txt | aichat
Last Reply .file %%
Local files aichat -f image.png -f data.txt .file image.png data.txt
Local directories aichat -f dir/ .file dir/
Remote URLs aichat -f https://example.com .file https://example.com
External commands aichat -f '`git diff`' .file `git diff`
Combine Inputs aichat -f dir/ -f data.txt explain .file dir/ data.txt -- explain

Role

Customize roles to tailor LLM behavior, enhancing interaction efficiency and boosting productivity.

aichat-role

The role consists of a prompt and model configuration.

Session

Maintain context-aware conversations through sessions, ensuring continuity in interactions.

aichat-session

The left side uses a session, while the right side does not use a session.

Macro

Streamline repetitive tasks by combining a series of REPL commands into a custom macro.

aichat-macro

RAG

Integrate external documents into your LLM conversations for more accurate and contextually relevant responses.

aichat-rag

Function Calling

Function calling supercharges LLMs by connecting them to external tools and data sources. This unlocks a world of possibilities, enabling LLMs to go beyond their core capabilities and tackle a wider range of tasks.

We have created a new repository https://github.com/sigoden/llm-functions to help you make the most of this feature.

AI Tools & MCP

Integrate external tools to automate tasks, retrieve information, and perform actions directly within your workflow.

aichat-tool

AI Agents (CLI version of OpenAI GPTs)

AI Agent = Instructions (Prompt) + Tools (Function Callings) + Documents (RAG).

aichat-agent

Local Server Capabilities

AIChat includes a lightweight built-in HTTP server for easy deployment.

$ aichat --serve
Chat Completions API: http://127.0.0.1:8000/v1/chat/completions
Embeddings API:       http://127.0.0.1:8000/v1/embeddings
Rerank API:           http://127.0.0.1:8000/v1/rerank
LLM Playground:       http://127.0.0.1:8000/playground
LLM Arena:            http://127.0.0.1:8000/arena?num=2

Proxy LLM APIs

The LLM Arena is a web-based platform where you can compare different LLMs side-by-side.

Test with curl:

curl -X POST -H 
RELATED

同じカテゴリの他のツール