【自分のPCでAI】ローカルLLMを構築してみた話。

この記事はプロモーションが含まれています。

ローカルLLMを使えば、自分のPCだけでAIが使えます。

オフラインでプライバシーに強く、何より無料で簡単にできるんです。

ということで、色々やってみたので備忘録。簡単にですが、ローカルLLMのやり方も解説。ChatGPTのようなAIをオフラインで使いたい人は、ぜひやってみて下さい。

こんな内容でお伝えします!
この記事でわかること
  • ローカルLLMとは何か?
  • ローカルLLMのやり方
  • 使えるの?使えないの?

\フォローお願いします! /

  • ガジェット歴10年以上
  • 実用性を重視した本音レビュー
  • 100台以上のレビュー経験
  • 最新トレンドも逃さずチェック
  • 役立つ情報をわかりやすく発信
Youtubeも活動中
やますぐ


目次

ローカルLLMのあれこれ

いきさつ

動画にコメントくださるaroooyさんが、Youtubeで「ローカルLLM用にグラボ買った話」をしていて、そこでふと私もやりたいなーと思って調べてみました。

ちなみに、aroooyさんのブログはこちら。

Captain's Log, Supplemental
Captain's Log, Supplemental Experimental field of PressSync

GoProなどめちゃくちゃ詳しいので、性能面などの深い考察を知りたい人は、とても参考になると思います。映像に関する知識量がかなりすごい。

ローカルLLMとは?

ローカルLLMとは、いわゆる自分のPCで構築するAI環境のこと。

ChatGPTみたいな大規模言語モデル(LLM)を 自分のPCやサーバーの中で動かす環境のことを指す。

おとこ

そんなことができるの?難しくないの?

実は、簡単にできる。

ローカルLLMの良いところと悪いところ

ローカルLLMには、当然ながらメリットとデメリット両方ある。

良い点悪い点
プライバシーが強い
オフラインでも使える
無料
PCの要求スペックが高い
パーツの消耗が激しい
最新AIと比べると性能が落ちる

特に良い所は、自分のPC内ですべて完結できるところ。データが外部に漏れないので、機密性の高い作業をやる場合には最適。

仕事などで外部に漏らしたくない情報がある場合には、重宝するだろう。

オンラインにあるAIは、情報流出が怖いですよね。学習されないようにすることはできるんだけど、どこまで信用して良いのやらって感じで。そういう人はやってみる価値あり。

最大のデメリットは、PCの要求スペックが高いことで、少なくともパーツ(特にGPU)に数十万の投資をしないとまともに動かせないこと。

とはいえ、試すことはできるので、興味のあるひとは以下をやってみて欲しい。

ということでやってみた

実際にやってみましたが、かなり簡単でした。

「LM Studio」というのを使えば、それだけで完結します。

ローカルLLMの構築の仕方

  • LM Studioをインストール
  • モデルを検索してダウンロード
  • チャット開始

たったこれだけです。まさかLM Studioだけで完結するとは思いませんでしたね。これがあれば、ChatGPTのような感じで使えます。

「LM Studio」は、下記のリンクからDL出来ます。無料です。

LM Studio
LM Studio - Local AI on your computer Run local AI models like gpt-oss, Llama, Gemma, Qwen, and DeepSeek privately on your computer.

日本語化

ちなみに、日本語化できます。

右下のアイコンから日本語に変更しておこう。

問題はモデル選び

難しいのはモデル選び。

おとこ

何が難しいの?

モデルの種類がたくさんあるからね。ぶっちゃけ調べながらやらないとわけがわからないよ。ここは、ChatGPTなどのオンラインのAIに頼ろう!

自分のPCのスペックをAIに言って、自分に合うレベルのモデルを入れる感じです。実際に動くかどうかは何度も確認する必要あり。

ちにみに、私のPCのスペックはこんな感じ。

CPUi9 14900K 3.2Ghz
メモリ64GB
グラフィックボードRTX 4070 Ti Super 16GB
ストレージM2 SSD

自作してます。

動画編集をやるので、かなり良いスペックにはしてあるんですが、LLMはこれでもちょっと厳しい感じです。「GPUもっと上のにしないと」って感じ。

モデルは検索からDLできる

LM Studioの検索から、モデルを自由にDLできます。

何個も入れてみて、動作がスムーズな奴を選びましょう。容量が結構多いので注意。

選んだモデル

私のPC環境下で、スムーズに動いたのは以下のモデル。

llma-3.1-swallow-8b Q6

これならわりとスムーズにいきました。長文もぎりいけます。ちょっと遅いけど。

gemma-3-12bもかなりスムーズでした。27bだと遅いですね。70はさらに遅い。

ぶっちゃけ使える?使えない?

これは用途によると思うけど、十分使えます。

試しに文章を校正させてみたところ、わりと望み通りになりますね。モデルによって得意不得意があるみたいですが、十分実用レベルかと。

現状、最高峰のモデルでも「ChatGPT4レベル」くらいらしいんですが、今のところローカルでも結構あたまいいなぁって印象ですね。

スペックさえ足りてればかなりロマンがあるとおもいます。もっと進化してくれたら最高だなぁ。

あなたも自分だけのAIを持ってみてはいかがでしょうか?

シェアありがとうございます!
  • URLをコピーしました!
目次