メインコンテンツまでスキップ

Ollama

このページでは、Ollama から OpenForge MCP に接続する方法を説明します。


Ollama とは

Ollama は、ターミナルから AI(大規模言語モデル)を実行できるツールです。コマンドひとつでモデルのダウンロードと実行ができ、完全にローカルで動作します。API 利用料金はかからず、インターネット接続がない環境でも使えます。

OpenForge MCP と接続すると、ターミナルでの会話を通じて Unity や Blender などの3Dアプリを操作できるようになります。

補足

Ollama はターミナルで操作するツールです。グラフィカルな操作画面が欲しい場合は、LM Studio の方が使いやすいかもしれません。


事前準備

Ollama のインストール

ollama.com からインストーラーをダウンロードしてインストールしてください。

インストールが完了したら、ターミナルで以下のコマンドを実行して動作を確認します。

ollama --version

モデルのダウンロード

Ollama で AI を使うには、まずモデルをダウンロードする必要があります。

ollama pull llama3

このコマンドは「llama3 というモデルをダウンロードする」という意味です。モデルのサイズによっては数 GB のダウンロードが発生するため、少し時間がかかります。

おすすめモデル

モデル名サイズ特徴
llama38Bバランスが良く、はじめての方におすすめ
codellama7Bコード生成に強い。スクリプト作成と組み合わせたい場合に
mistral7B軽量で高速。応答速度を重視する場合に

より高性能なモデルを使いたい場合は、llama3:70bqwen2.5:72b などの大型モデルも利用できます(GPU メモリ 24GB 以上推奨)。


セットアップ方法

自動セットアップ

ターミナルで以下のコマンドを実行すると、Essential Mode で設定が自動的に行われます。

npx openforge-mcp setup --client ollama --mode essential

「Setup complete」と表示されれば成功です。

手動セットアップ

Ollama から OpenForge MCP を利用するには、HTTP API を経由して接続します。

ステップ1: OpenForge MCP サーバーを起動する

ターミナルで以下のコマンドを実行して、OpenForge MCP を HTTP サーバーモードで起動します。

npx openforge-mcp start --transport http --mode essential

サーバーが起動すると、以下のようにエンドポイントの URL が表示されます。

OpenForge MCP HTTP server listening on http://localhost:24601
注意

このターミナルウィンドウは閉じないでください。サーバーが動作し続ける必要があります。

ステップ2: Ollama でモデルを起動する

別のターミナルウィンドウを開いて、Ollama でモデルを起動します。

ollama run llama3

対話モードが開始されます。


Essential Mode について

ローカルで動く AI モデルは、クラウドの AI と比べるとコンテキスト(一度に処理できる情報量)が限られています。Essential Mode では、OpenForge MCP が提供するツールのうち、よく使われる約80のツールだけが読み込まれます。

これにより、ローカルモデルの限られたコンテキストでも快適に動作します。基本的な3D操作(オブジェクトの作成、移動、削除、マテリアル設定など)はすべてカバーされています。


使い方

OpenForge MCP サーバーが起動している状態で、Ollama の対話モードから操作を指示します。

使い方の例

$ ollama run llama3

> Unity のシーンにCubeを作って

Cube を作成しました。

> 位置を 0, 2, 0 に変更して

Cube の位置を (0, 2, 0) に変更しました。

> シーンのオブジェクト一覧を見せて

現在のシーンには以下のオブジェクトがあります:
- Main Camera
- Directional Light
- Cube

動作確認

OpenForge MCP サーバーを起動した状態で、別のターミナルから以下のコマンドを実行してください。

npx openforge-mcp test

「All tests passed」と表示されれば、OpenForge MCP は正しく動作しています。

次に、Ollama の対話モードで以下のように入力してみてください。

「OpenForge MCP のツール一覧を表示して」

ツールの情報が返ってくれば、接続は成功です。


トラブルシューティング

「Connection refused」と表示される

  • OpenForge MCP の HTTP サーバーが起動しているか確認してください
  • サーバーを起動したターミナルでエラーが出ていないか確認してください
  • ポート番号(デフォルト: 24601)が正しいか確認してください

Ollama でモデルがダウンロードできない

  • インターネット接続を確認してください(モデルのダウンロード時のみ必要です)
  • ディスクの空き容量を確認してください。モデルは数 GB のサイズがあります
  • ollama list で、すでにダウンロード済みのモデルがあるか確認してください

AI がツールを正しく使えない

  • より大きなモデル(13B 以上)を試してみてください。小さなモデルはツール呼び出しの精度が低い場合があります
  • 指示をシンプルにしてみてください。一度にひとつの操作を指示するのがコツです
  • Essential Mode が有効になっていることを確認してください

動作が遅い

  • GPU が利用可能か確認してください。Ollama は GPU を自動検出しますが、ドライバーが古いと CPU で実行される場合があります
  • より小さなモデルを試してください
  • ollama ps で、現在実行中のモデルを確認できます。不要なモデルが動いている場合は、ollama stop モデル名 で停止してください

npx コマンドが見つからない

Node.js がインストールされていない可能性があります。nodejs.org から LTS 版をダウンロードしてインストールしてください。


これで Ollama のセットアップは完了です。何か問題がある場合は、よくある質問も参照してみてください。