ローカルLLMとローカルDifyでチャットボット
OllamaとDifyをローカルで動かしてみた(とりあえずチャットだけ)
M1 Mac mini 16GBでは速くはないし、メモリを目一杯使うと不安定になる
古い機種なので、現行機種でメモリも多めのMacに変えれば改善するでしょう
コストを抑えて小さい会社や個人でもローカルAIを活用できる状況になれば良いですね
OllamaとDifyをローカルで動かしてみた(とりあえずチャットだけ)
M1 Mac mini 16GBでは速くはないし、メモリを目一杯使うと不安定になる
古い機種なので、現行機種でメモリも多めのMacに変えれば改善するでしょう
コストを抑えて小さい会社や個人でもローカルAIを活用できる状況になれば良いですね
コメント
コメントはまだありません。