デスクトップアプリの早期アクセスを取得 | ドキュメント
Open InterpreterはLLMにPython、Javascript、Shellなど、様々なプログラミング言語のコードをローカルで実行させることができます。インストール後に$ interpreterを実行することで、ターミナル内のChatGPT風インターフェースを通じてOpen Interpreterとチャットすることができます。
これにより、コンピュータの汎用機能への自然言語インターフェースが提供されます:
- 写真、動画、PDFなどを作成・編集する
- リサーチを実行するためにChrome ブラウザを制御する
- 大規模データセットをプロット、クリーニング、分析する
- など
Open.Interpreter.Demo.mp4
pip install git+https://github.com/OpenInterpreter/open-interpreter.gitオプション依存関係については、セットアップガイドを参照してください。
インストール後、単に interpreter を実行します。
interpreterOpen Interpreter は OpenAI の GPT-4o をデフォルトとして使用し、キーの入力を求めます。キーは OpenAI の API キーページから取得できます。他のプロバイダーまたはローカルモデルについては、以下を参照してください。
from interpreter import interpreter
interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chatこのリポジトリの GitHub ページで , キーを押すと、codespace を作成できます。しばらくすると、open-interpreter があらかじめインストールされたクラウド仮想マシン環境を受け取ります。その後、システムに損傷を与える心配なく、直接対話を開始し、実行を自由に確認できます。
OpenAI による GPT-4 の Code Interpreter のリリースは、ChatGPT を使用して実際のタスクを実現する素晴らしい機会を提示しています。
ただし、OpenAI のサービスはホスト型であり、クローズドソースで、厳しく制限されています。
- インターネットアクセスなし。
- プリインストールされているパッケージセットが限定的。
- 最大アップロード 100 MB、実行時間制限 120.0 秒。
- 環境が停止するとステート(生成されたファイルやリンクを含む)がクリアされます。
Open Interpreter はこれらの制限をローカル環境で実行することで克服します。インターネットへのフルアクセスを持ち、時間やファイルサイズで制限されず、任意のパッケージやライブラリを利用できます。
これは GPT-4 の Code Interpreter のパワーと、ローカル開発環境の柔軟性を組み合わせるものです。
ターミナルでインタラクティブなチャットを開始するには、コマンドラインから interpreter を実行してください:
interpreterまたは、.py ファイルから interpreter.chat() を実行します:
interpreter.chat()各チャンクをストリーミングすることもできます:
message = "What operating system are we on?"
for chunk in interpreter.chat(message, display=False, stream=True):
print(chunk)より細かい制御のため、メッセージを .chat(message) に直接渡すことができます:
interpreter.chat("Add subtitles to all videos in /videos.")
# ... Streams output to your terminal, completes task ...
interpreter.chat("These look great but can you make the subtitles bigger?")
# ...Python では、Open Interpreter は会話履歴を記憶します。新しく開始したい場合は、リセットできます:
interpreter.messages = []interpreter.chat() はメッセージのリストを返します。これを使用して interpreter.messages = messages で会話を再開できます:
messages = interpreter.chat("My name is Killian.") # Save messages to 'messages'
interpreter.messages = [] # Reset interpreter ("Killian" will be forgotten)
interpreter.messages = messages # Resume chat from 'messages' ("Killian" will be remembered)Open Interpreter のシステムメッセージを検査・設定して、機能を拡張したり、権限を変更したり、より多くのコンテキストを与えたりできます。
interpreter.system_message += """
Run shell commands with -y so the user doesn't have to confirm them.
"""
print(interpreter.system_message)Open Interpreter は LiteLLM を使用してホストされた言語モデルに接続します。
モデルパラメータを設定することでモデルを変更できます:
interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightlyPython では、オブジェクトにモデルを設定します:
interpreter.llm.model = "gpt-3.5-turbo"言語モデルの適切な「model」文字列をここで見つけてください。
Open Interpreter は OpenAI 互換のサーバーを使用してモデルをローカルで実行できます(LM Studio、Jan.ai、Ollama など)。
推論サーバーの api_base URL を使用して interpreter を実行してください。LM Studio の場合はデフォルトで http://localhost:1234/v1 です。
interpreter --api_base "http://localhost:1234/v1" --api_key "fake_key"また、サードパーティのソフトウェアをインストールせずに Llamafile を使用することもできます。
interpreter --local詳しくは Mike Bird によるこのビデオ をご確認ください。
LM Studio をバックグラウンドで実行する方法
- LM Studio をダウンロードして起動します。
- モデルを選択して ↓ Download をクリックします。
- 左側の
↔️ ボタン(💬 の下)をクリックします。 - 上部でモデルを選択してから Start Server をクリックします。
サーバーが起動したら、Open Interpreter との会話を開始できます。
注釈: ローカルモードは
context_windowを 3000 に、max_tokensを 1000 に設定します。モデルが異なる要件を持つ場合は、これらのパラメータを手動で設定してください(以下を参照)。
Python パッケージは、各設定をより詳細に制御できます。LM Studio に接続するには、次の設定を使用してください。
from interpreter import interpreter
interpreter.offline = True # Disables online features like Open Procedures
interpreter.llm.model = "openai/x" # Tells OI to send messages in OpenAI's format
interpreter.llm.api_key = "fake_key" # LiteLLM, which we use to talk to LM Studio, requires this
interpreter.llm.api_base = "http://localhost:1234/v1" # Point this at any OpenAI compatible server
interpreter.chat()