ローカルLLM(自分専用生成AI)はいかが?(2:環境編)

Mac対応ローカルLLM環境

Macで利用可能なローカルLLM環境を調べてみました。Model Context Protocol(MCP)で外部ツールとつないでみたいのでMCPサーバーに接続できるかも調べてみました。


1. Ollama

ローカルでLLaMAやQwenなどを動作可能。MCP経由の連携にも利用されることがあります。

コマンドラインで使うタイプのソフトですね。

2. GPT4All

Mシリーズチップ搭載Macでも動く小型LLM。完全オフラインで動作 。

ただしデフォルトでMCP対応ではないため、別途MCPクライアントとの橋渡しが必要になります。

3. LM Studio

バージョン0.3.17以降でMCPクライアント機能を内蔵しており、自分で mcp.json を編集するかUIから追加すればMCPサーバーと連携できます。


今回試すのはLM Studio!

Ollamaも魅力的なのですが、MCPサーバーとの連携が簡単そうなので LM Studioを使ってMacでローカルLLMを試します。モデルは、Gemma 3n あたりから試せたらなと考えています!

さっそくインストール

インストールは簡単、LM Studio のWebサイト(https://lmstudio.ai)からインストーラーをダウンロードしてインストールするだけ!


起動すると最初に使うモデルをダウンロードするかなどを聞いてきました。Gemma 3nが使いたいのですが、選択する余地がなさそうなので、とりあえずそのまま続行。

早速、試しにPythonについて聞いてみました。遅すぎるわけでもなく、けっこう普通に使えています!!


次回は、モデルをGemma 3nに変更してみたいと思います。


コメント

コメントはまだありません。