ローカルLLM(自分専用生成AI)はいかが?(10:MCPで外部連携)

こんにちは

今回のブログでは前回ご紹介したMCPを準備し実際に使ってみようと思います。


今回MCPサーバーとして利用するのはContext 7です。

いきなり出てきたContext 7。何が良いのかというお話ですが、ずばり、コードに関する質問をLLMに投げる際に最新の答えを返してくれるということです。ローカルかどうかに関わらずLLMにコードに関する質問を投げかけると最新の情報より古いものを返してくることがあります。これはモデルの更新速度よりも各言語の更新が早く、モデルがそれに追いついていないことが原因です。

このContext7はMCPサーバーとしての機能だけでなく、最新版のコードに関する情報を引っ張ってきてくれます。感覚的には前々回扱ったRAGに近いように思いますが、自身の好きなLLM+Context7で最新のコードの情報が手に入る環境が作れます。


今回はいつも利用しているLM StudioでContext 7が使えるようにしてみました。

まずはContext 7の準備です。(LM Studioについては今までのブログで使用していた設定をベースに進めていきます。)


1、context 7の利用にはnode.jsのバージョン18以上をインストールします。

2、ターミナルから以下のコマンドを実行

npx -y @upstash/context7-mcp@latest

3、LM Studioを起動しチャット画面の右上"install"よりEdit map.jsonを選択。

mcp.jsonが編集できるようになるので以下の設定をそのままコピペしてください。

{
"mcpServers": {
"Context7": {
"command": "npx",
"args": [
"-y",
"@upstash/context7-mcp"
]
}
}
}

4、ここまでくれば準備はほとんど完了です。あとはチャットの開始時に入力欄の🔌ボタンからmcp/context7を選択することで質問が始められます。質問の最後に use context7と付け加えるだけで、最新の情報を参照してくれます。


コメント

コメントはまだありません。