AIChat は、シェルアシスタント、CMD & REPL モード、RAG、AI ツール & エージェント等を備えたオールインワン LLM CLI ツールです。
- Rust 開発者:
cargo install aichat - Homebrew/Linuxbrew ユーザー:
brew install aichat - Pacman ユーザー:
pacman -S aichat - Windows Scoop ユーザー:
scoop install aichat - Android Termux ユーザー:
pkg install aichat
GitHub Releases から macOS、Linux、Windows 用のプリビルトバイナリをダウンロードし、展開して aichat バイナリを $PATH に追加してください。
統一されたインターフェースを通じて 20 以上の主要 LLM プロバイダとシームレスに統合します。サポートされるプロバイダには、OpenAI、Claude、Gemini(Google AI Studio)、Ollama、Groq、Azure-OpenAI、VertexAI、Bedrock、Github Models、Mistral、Deepseek、AI21、XAI Grok、Cohere、Perplexity、Cloudflare、OpenRouter、Ernie、Qianwen、Moonshot、ZhipuAI、MiniMax、Deepinfra、VoyageAI、および OpenAI 互換 API プロバイダが含まれます。
AIChat の CMD モードで強力なコマンドライン機能を探索します。
インタラクティブな Chat-REPL を体験できます。タブオートコンプリーション、複数行入力対応、履歴検索、設定可能なキーバインディング、カスタム REPL プロンプトなどの機能があります。
コマンドラインの効率を高めます。自然言語でタスクを説明すると、AIChat がそれを正確なシェルコマンドに変換してくれます。AIChat は OS とシェル環境に自動的に適応します。
stdin、ローカルファイルやディレクトリ、リモート URL など、多様な入力形式に対応し、データ処理に柔軟性をもたらします。
| 入力 | コマンド | REPL |
|---|---|---|
| コマンド | aichat hello |
|
| 標準入力 | cat data.txt | aichat |
|
| 最後の返信 | .file %% |
|
| ローカルファイル | aichat -f image.png -f data.txt |
.file image.png data.txt |
| ローカルディレクトリ | aichat -f dir/ |
.file dir/ |
| リモート URL | aichat -f https://example.com |
.file https://example.com |
| 外部コマンド | aichat -f '`git diff`' |
.file `git diff` |
| 入力の組み合わせ | aichat -f dir/ -f data.txt explain |
.file dir/ data.txt -- explain |
ロールをカスタマイズして LLM の動作を調整し、インタラクション効率を高め、生産性を向上させることができます。
ロールはプロンプトとモデル設定で構成されています。
セッションを通じてコンテキスト認識会話を維持し、インタラクションの継続性を確保します。
左側はセッションを使用し、右側はセッションを使用していません。
一連の REPL コマンドをカスタムマクロに組み合わせることで、反復的なタスクを簡素化します。
外部ドキュメントを LLM 会話に統合して、より正確で文脈に関連した応答を得ます。
関数呼び出しは、LLM を外部ツールとデータソースに接続することで、LLM を大幅に強化します。これにより無限の可能性が開かれ、LLM はコア機能の範囲を超えて、より広い範囲のタスクに取り組むことができます。
この機能を最大限に活用するために、新しいリポジトリ https://github.com/sigoden/llm-functions を作成しました。
外部ツールを統合して、ワークフロー内でタスクを自動化し、情報を取得し、アクションを直接実行できます。
AI Agent = 指示(Prompt)+ ツール(Function Callings)+ ドキュメント(RAG)。
AIChat には、簡単にデプロイできる軽量な組み込み HTTP サーバーが含まれています。
$ aichat --serve
Chat Completions API: http://127.0.0.1:8000/v1/chat/completions
Embeddings API: http://127.0.0.1:8000/v1/embeddings
Rerank API: http://127.0.0.1:8000/v1/rerank
LLM Playground: http://127.0.0.1:8000/playground
LLM Arena: http://127.0.0.1:8000/arena?num=2
LLM Arena はウェブベースのプラットフォームで、異なる LLM を並べて比較できます。
curl でテストします:
curl -X POST -H

















