Falconの思うままに

PASCAL好きが、気ままにマニアックなネタを

Local LLMで遊んだ

さて、ローカルLLMをご存知でしょうか?

Chat GPTなんかを自分のPCで動かせるやつです。

 

インターネットに繋がなくても処理ができて、機密情報を送らないので

安全、安心で処理してもらえるのです。

これが最大のメリットですが、CPUやGPUの環境がちゃんとしていないと

動かないんだというのを実証しました。

 

実際にはLMStudioというアプリを落としてきます。

こいつの中にモデルをダウンロードします。

Chat GPTのOSS版のgpt-ossというのをLMStudioがお勧めしてくるので、

ダウンロードすればLocal版Chat GTPが動きます。

ただ本当にPCスペックがないと動かないです。

3D CADが動くマシンなら大丈夫かと思い試しました。結果動きました。

数年前のCADマシンだと駄目でした。

やっぱり反応はちょっと遅いです。まあ当たり前ですかね。

 

ちょこっと動いたのですが、やりたいのはRAGです。

PDFを読み込んでもらって質問するというやつです。

これはちょっと準備が必要らしいので、まだできていません。

この魅力はAPIサーバーになるのでLAN内で1台建てておけばOKですね。

 

モデルもいろいろ選択できるようでGeminiと思われるLLMもありました。

比較もできますね。

 

こんなに手軽にできるとは思いませんでした。

VSCODE連携でコードを解析してもらうのもありですので夢は広がります。

 

楽しいですね。

 

ではでは。