Ollama
このページでは、Ollama から OpenForge MCP に接続する方法を説明します。
Ollama とは
Ollama は、ターミナルから AI(大規模言語モデル)を実行できるツールです。コマンドひとつでモデルのダウンロードと実行ができ、完全にローカルで動作します。API 利用料金はかからず、インターネット接続がない環境でも使えます。
OpenForge MCP と接続すると、ターミナルでの会話を通じて Unity や Blender などの3Dアプリを操作できるようになります。
Ollama はターミナルで操作するツールです。グラフィカルな操作画面が欲しい場合は、LM Studio の方が使いやすいかもしれません。
事前準備
Ollama のインストール
ollama.com からインストーラーをダウンロードしてインストールしてください。
インストールが完了したら、ターミナルで以下のコマンドを実行して動作を確認します。
ollama --version
モデルのダウンロード
Ollama で AI を使うには、まずモデルをダウンロードする必要があります。
ollama pull llama3
このコマンドは「llama3 というモデルをダウンロードする」という意味です。モデルのサイズによっては数 GB のダウンロードが発生するため、少し時間がかかります。
おすすめモデル
| モデル名 | サイズ | 特徴 |
|---|---|---|
llama3 | 8B | バランスが良く、はじめての方におすすめ |
codellama | 7B | コード生成に強い。スクリプト作成と組み合わせたい場合に |
mistral | 7B | 軽量で高速。応答速度を重視する場合に |
より高性能なモデルを使いたい場合は、llama3:70b や qwen2.5:72b などの大型モデルも利用できます(GPU メモリ 24GB 以上推奨)。
セットアップ方法
自動セットアップ
ターミナルで以下のコマンドを実行すると、Essential Mode で設定が自動的に行われます。
npx openforge-mcp setup --client ollama --mode essential
「Setup complete」と表示されれば成功です。
手動セットアップ
Ollama から OpenForge MCP を利用するには、HTTP API を経由して接続します。
ステップ1: OpenForge MCP サーバーを起動する
ターミナルで以下のコマンドを実行して、OpenForge MCP を HTTP サーバーモードで起動します。
npx openforge-mcp start --transport http --mode essential
サーバーが起動すると、以下のようにエンドポイントの URL が表示されます。
OpenForge MCP HTTP server listening on http://localhost:24601
このターミナルウィンドウは閉じないでください。サーバーが動作し続ける必要があります。
ステップ2: Ollama でモデルを起動する
別のターミナルウィンドウを開いて、Ollama でモデルを起動します。
ollama run llama3
対話モードが開始されます。
Essential Mode について
ローカルで動く AI モデルは、クラウドの AI と比べるとコンテキスト(一度に処理できる情報量)が限られています。Essential Mode では、OpenForge MCP が提供するツールのうち、よく使われる約80のツールだけが読み込まれます。
これにより、ローカルモデルの限られたコンテキストでも快適に動作します。基本的な3D操作(オブジェクトの作成、移動、削除、マテリアル設定など)はすべてカバーされています。
使い方
OpenForge MCP サーバーが起動している状態で、Ollama の対話モードから操作を指示します。
使い方の例
$ ollama run llama3
> Unity のシーンにCubeを作って
Cube を作成しました。
> 位置を 0, 2, 0 に変更して
Cube の位置を (0, 2, 0) に変更しました。
> シーンのオブジェクト一覧を見せて
現在のシーンには以下のオブジェクトがあります:
- Main Camera
- Directional Light
- Cube
動作確認
OpenForge MCP サーバーを起動した状態で、別のターミナルから以下のコマンドを実行してください。
npx openforge-mcp test
「All tests passed」と表示されれば、OpenForge MCP は正しく動作しています。
次に、Ollama の対話モードで以下のように入力してみてください。
「OpenForge MCP のツール一覧を表示して」
ツールの情報が返ってくれば、接続は成功です。
トラブルシューティング
「Connection refused」と表示される
- OpenForge MCP の HTTP サーバーが起動しているか確認してください
- サーバーを起動したターミナルでエラーが出ていないか確認してください
- ポート番号(デフォルト: 24601)が正しいか確認してください
Ollama でモデルがダウンロードできない
- インターネット接続を確認してください(モデルのダウンロード時のみ必要です)
- ディスクの空き容量を確認してください。モデルは数 GB のサイズがあります
ollama listで、すでにダウンロード済みのモデルがあるか確認してください
AI がツールを正しく使えない
- より大きなモデル(13B 以上)を試してみてください。小さなモデルはツール呼び出しの精度が低い場合があります
- 指示をシンプルにしてみてください。一度にひとつの操作を指示するのがコツです
- Essential Mode が有効になっていることを確認してください
動作が遅い
- GPU が利用可能か確認してください。Ollama は GPU を自動検出しますが、ドライバーが古いと CPU で実行される場合があります
- より小さなモデルを試してください
ollama psで、現在実行中のモデルを確認できます。不要なモデルが動いている場合は、ollama stop モデル名で停止してください
npx コマンドが見つからない
Node.js がインストールされていない可能性があります。nodejs.org から LTS 版をダウンロードしてインストールしてください。
これで Ollama のセットアップは完了です。何か問題がある場合は、よくある質問も参照してみてください。