ローカルLLMとローカルDifyでチャットボット

OllamaとDifyをローカルで動かしてみた(とりあえずチャットだけ)


M1 Mac mini 16GBでは速くはないし、メモリを目一杯使うと不安定になる

古い機種なので、現行機種でメモリも多めのMacに変えれば改善するでしょう


コストを抑えて小さい会社や個人でもローカルAIを活用できる状況になれば良いですね




コメント

コメントはまだありません。