情報通信白書の令和7年版にもローカルLLMの記述あり
白書でも、ローカル環境で動作するLLMについて触れられています。
(ウ)相対的に小規模な言語モデルの開発
LLMの開発競争が激化する一方で、LLMの中でも相対的に小規模なパラメータで構成されたモデル
の開発にも注目が集まっている。一般的にパラメータ数が多いLLMほど学習能力が高いが、大規模で
あるためクラウドサービス経由、あるいはAPI経由でのみサービス提供されることが多く、膨大な計
算処理によって応答に時間がかかる場合や、入力した情報がLLM提供事業者側のAI学習データとして
利用される場合がある。一方、小規模なモデルは、相対的に軽量で高速な処理が可能なため、ネット
ワークに接続しない環境(ローカル環境)や特定の用途に限った利用では、小規模なモデルに優位性が
ある場合があることから、積極的に開発が進められている。
例えば、Microsoftは、小規模モデルとして「Phi」シリーズを展開しており、2024年12月に140
億パラメータの「Phi-4」を公開している。Phi-4は、複雑な推論に対応したモデルであり、数学コン
テスト問題において、他社の同規模のモデルを上回る性能を見せたとされている。
-----------------
前回の白書でもそうでしたが、日本は米国などのAI先進国と比べてAIの利用がなかなか伸びないようですね。ローカルLLM情報局では、国内の中・小規模事業者でもAIを気軽に利活用するための情報を提供し、人手不足やビジネスに貢献することで、日本の活力アップを後押ししたいと考えています。

コメント
コメントはまだありません。