ローカルLLM(自分専用生成AI)はいかが?(7:RAG(検索拡張生成))

ここまでLM Studioの導入法や使い方について触れてきましたが今回はちょっと話の毛色がかわります。


今回は...RAG(ラグ)についてのお話です。


いきなり出てきた言葉なので"RAGってなんやねん"皆様感じられるでしょう。今回はそのさわりについてお伝えします。


一言で説明するとRAGはAIのお助けをしてくれる機能になります。さすがにこれでは情報量が少なすぎるのでもう少し突っ込んだ説明をしますね(笑)。

RAGはRetrieval Augmented Generationの略称で、日本語にすると"検索拡張生成"になります。生成AIがユーザーからの質問や指示に対して、外部データを用いて情報を検索し回答を生成する仕組みです。


ここで鋭い読者の方なら思うのではないでしょうか、"LLMと何が違うの?”と。Chat GPTのGPTなどをはじめとするLLMは、質問に対し人間らしい自然な回答を行なってくれます。しかし、この回答内容は学習により身につけられたものであり、当然その学習に質問の答えとして意図しているものが入っているかどうかはわかりません。それでもLLMは質問に対して答えを生成しようとします。そうすると結果的に、LLMは質問者に対して嘘をついてしまう可能性があるわけです。

LLMを使う人間側からすると誤った情報を返されるなんてたまったもんじゃありません。けれども求める答えが仕事の情報だったり、あまり公にしたくない情報だったらどうでしょうか?当然AIの学習データにそれらが組み込まれるわけにはいきませんよね!?そこで重要な役割を果たすのがRAGです。RAGを用いると、解答に必要なデータを外部の資料やデータベースから参照することが可能になります。したがって質問に対してより精度の高い回答を生成できるようになります。


最後に、

RAGを用いることで、情報の安全性を担保しながら生成された回答の信憑製を高めることができます。また同時に情報のソースがはっきりするというメリットもあります。LLMをより便利に使う補助ツールであるRAG、是非活用してみましょう!!


コメント

コメントはまだありません。