ローカルLLM(自分専用生成AI)はいかが?(5:モデルのダウンロード)

前回の記事でなんとなくモデルの種類について理解してもらえたと思うので、今回はLM Studioに実際にモデルを追加してみましょう!!


モデルの追加画面を開くと、たくさんのモデルが表示されます。目的のモデルが決まっている方は検索してダウンロードをしてしまえばいいでしょう。しかし、"モデルの吟味なんてしたことがない"という読者の方々にはちんぷんかんぷのはず。それもそのはず。例えばMistralというモデル1つをとっても"Mistral Small", "Mistral Small 3.2"など、おもわず"何が違うねん!!"と突っ込みたくなるような似通った名前が一覧に表示されているからです。


モデルの選定には前回の記事に書いたように、利用するパソコンのスペックやモデルの性能を数値で比較して判断する方法ことも大事ですが、モデル毎の得手不得手をもとに選択するのも大アリなんです。例えば"GPT-4.5"より"Claude3.7"の方が複雑な推論や数学に優れている、など使用者のニーズによって変わります。


っと少し難しいお話をしましたが、"Chat GPTみたいなやつがローカルで動いてくれたら、ちょっと質問できて便利なのに!!"くらいの感覚であれば正直どのモデルでも大丈夫です!!


今回はそれなりに知名度もあるGoogle geminiの中からgemma-3-4bをダウンロードしてみます。ダウンロード後はチャット画面上部からモデルを選択することで利用できます。


コメント

コメントはまだありません。