自宅で簡単LLM構築:LM Studioで始めるローカルAI環境
「ChatGPTみたいなLLMを、自宅PCでサクッと動かしたい」と思ったことはありませんか?
最近は LM Studio というデスクトップアプリを使うことで、Windows / macOS / Linux 上でLLMをかなり簡単に動かせるようになっています。
- LLMとローカル実行の概要
- LM Studioでできること
- インストール手順
- モデルのダウンロード〜チャットの始め方
- (おまけ)ローカルOpenAI互換APIとして使う方法
までをまとめます。
1. そもそもLLMと「ローカル実行」とは?
LLM(Large Language Model) は、日本語・英語などの文章を理解して生成できる大規模なAIモデルです。ChatGPTやClaudeなどは、クラウド側にあるLLMをインターネット越しに利用しています。
一方、「ローカル実行」はその名の通り、
- モデルのファイル(weights)を自分のPCにダウンロードして保存
- PCのCPU / GPUを使って、自分のマシンだけで推論する
というスタイルです。LM Studioは、この「ローカル実行」をGUIベースで簡単に扱えるようにしたアプリです。
ローカル実行のメリット
- プライバシー:会話内容やファイルが外部サーバーに送られない(基本は自分のPC内で完結)
- ランニングコスト削減:API従量課金が要らない(電気代とPCの減価のみ)
- 好きなモデルを試せる:Llama系・Qwen系・Gemma系・DeepSeek系など様々なモデルを選べる
もちろん、クラウドの巨大モデルほどの性能は出ないこともありますが、「プログラムの下書き」「質問への回答」「簡単な文章生成」レベルなら、ローカルLLMでも十分こなせるケースが多いです。
2. LM Studioとは?
LM Studioは、以下の特徴を持つローカルLLM用デスクトップアプリです。
- 対応OS:macOS(Apple Silicon)、Windows(x64 / ARM64)、Linux(x64)
- Hugging Face等からモデルを検索・ダウンロードできる「Discover」機能
- シンプルなチャットUIで、ローカルLLMと会話できる
- PDFなどのドキュメントを添付して、完全オフラインでRAG(ファイル質問)可能
- OpenAI互換のローカルAPIサーバーとして動作(
/v1/chat/completions等) - 公式SDK(TypeScript / Python)でプログラムから利用可能
個人利用だけでなく、仕事での利用も無料と明記されています(執筆時点)。
3. 必要なPCスペックの目安
公式ドキュメントや各種解説から、ざっくりした目安をまとめると以下の通りです。
| 項目 | 目安 | 補足 |
|---|---|---|
| OS | macOS (Apple Silicon) / Windows 10/11 x64 / Linux x64 | AVX2対応CPUが推奨 |
| CPU | 近年の4コア以上(AVX2対応) | Apple Silicon (M1以降) は特に相性良 |
| メモリ | 16GB以上推奨(8GBでも小型モデルなら可) | コンテキスト長を伸ばすとRAMを多く消費 |
| ストレージ | 空き容量 20〜50GB 以上推奨 | モデル1つで数GB〜十数GB |
| GPU | 必須ではないがあると高速 | Apple Siliconは専用ランタイムで高速化 |
※実際にどのサイズのモデルが動くかは、
「モデルのパラメータ数(7B, 8B, 14B, 70B…)」と「量子化(Q4, Q6など)」次第で変わります。
迷ったら最初は 7Bクラス & 軽めの量子化 を選ぶと安定しやすいです。
4. LM Studioのインストール手順
4-1. ダウンロード
- ブラウザで「LM Studio」と検索し、公式サイトにアクセス
- 画面の「Download for Windows / macOS / Linux」から自分のOSを選択してダウンロード
4-2. インストール
OSごとに標準的なインストール方法でOKです。
- Windows: ダウンロードした
.exeを実行 → ウィザードに従ってNext → Finish - macOS:
.dmgを開き、LM Studioアイコンを「Applications」にドラッグ - Linux: AppImage などの配布形態に従って実行権限付与 & 起動
初回起動時、モデルはまだ入っていないため、次のステップでダウンロードします。
5. 初回セットアップ:モデルのダウンロード
LM Studioのコンセプトはシンプルで、
- LM Studio本体をインストール
- モデル(weights)をダウンロード
- チャット画面で会話開始
という流れです。
5-1. Discoverタブからモデルを探す
- LM Studioを起動
- 画面上部またはサイドバーの「Discover」タブを開く
- 検索ボックスに「Llama」「Qwen」「DeepSeek」などのキーワードを入力して検索
多くの場合、LM Studio側であらかじめおすすめモデル(curated)が表示されています。
最初の1個としては、
- 7Bクラスの日本語対応モデル
- 「Instruct」や「Chat」と付いている対話向けモデル
を選ぶと扱いやすいです(具体的なモデル名は更新が早いので、この記事ではあえて固定名を挙げません)。
5-2. モデルダウンロード
- 使いたいモデルを選択
- 量子化(Q4, Q5など)を選ぶ
- 「Download」ボタンを押す
数GBのファイルをダウンロードするため、回線速度によっては時間がかかります。
ダウンロード完了後、モデルはローカルディスク上に保存され、LM Studio内の「My Models」一覧に表示されます。
6. チャット画面の基本的な使い方
6-1. モデルを選択してチャット開始
- LM Studioのチャット画面を開く
- 左側または上部のモデル選択欄から、ダウンロード済みモデルを選ぶ
- 画面下部の入力欄に質問や指示(プロンプト)を入力して送信
これだけで、インターネット接続なしでもLLMと会話できます。
例:
日本語で自己紹介して。20代エンジニア向けにフランクな感じで。
6-2. ドキュメントを読み込んで質問する(RAG)
LM Studioには、PDFやテキストファイルを添付して、その内容について質問できる機能があります。
一般的な操作イメージは以下の通りです(細かいUIはバージョンによって変わる可能性があります)。
- チャット画面で、ファイル添付用のボタン(クリップアイコンなど)を押す
- PDFやテキストファイルを選択してアップロード
- 「この資料の要点を箇条書きでまとめて」などと質問
処理はすべてローカルPC内で完結するため、機密資料や社内ドキュメントを安心して試しやすいのが大きな利点です。
7. LM StudioをローカルOpenAI互換APIとして使う(上級者向け)
プログラミングが分かる人向けに、LM Studioを「ローカル版OpenAI API」みたいに使う方法も用意されています。
7-1. ローカルサーバーを有効化
LM Studioの「Developer」タブ(またはServer関連の設定)から、
- 使用するモデルを選択
- 「Start server」やスイッチをONにする
ことで、ローカルAPIサーバーが起動します。
多くの解説では、デフォルトのエンドポイントは次のように紹介されています。
http://localhost:1234/v1
7-2. curlで試す例
以下は、OpenAI互換エンドポイントの代表的な例です。
curl http://localhost:1234/v1/chat/completions
-H "Content-Type: application/json" \
-d '{
"model": "(LM Studio側でロードしているモデル名)",
"messages": [
{"role": "user", "content": "ローカルLLMからの最初のメッセージです。自己紹介してください。"}
]
}'</code>OpenAIの /v1/chat/completions とほぼ同じ形式で使えるため、
「もともとOpenAI APIを叩いていたアプリ」をエンドポイントURLだけ差し替えてLM Studioに向けるといった使い方も可能です。
8. よくあるつまずきポイントと対処方針
8-1. モデルが重くて応答が遅い
- より小さいモデル(7Bクラス)に変える
- 量子化レベルが軽いもの(Q4など)を選ぶ
- 他のアプリを閉じてメモリを空ける
8-2. ダウンロード容量が足りない
- 不要になったモデルを「My Models」から削除する
- 外付けSSDを使う(ただし速度が遅いと推論も遅くなる可能性あり)
8-3. どういうモデルを選べばいいか分からない
これはバージョンや流行の変化が激しい領域なので、記事で特定モデルを固定でおすすめすることは避けます。
基本方針としては、
- まずはLM Studioの「おすすめ」や「curated」モデルから選ぶ
- 用途(会話、コード、長文要約など)に合わせたモデル説明を読む
- 7B〜9Bクラスを触って、足りなければもう少し大きいモデルを試す
というステップで試していくのが無難です。
9. まとめ:LM Studioなら「自宅LLM」はかなり現実的
最後にポイントを整理します。
- LM Studioは、ローカルLLMをGUIで簡単に扱えるデスクトップアプリ
- Windows / macOS / Linux対応で、16GB以上のRAMがあれば快適になりやすい
- Hugging Face連携の「Discover」から、モデルを検索・ダウンロードできる
- チャットUIだけでなく、ドキュメントRAGやOpenAI互換のローカルAPIなど、開発者向け機能も豊富
- クラウドLLMより性能は控えめなこともあるが、プライバシーとコスト面でのメリットは大きい
「自宅で簡単LLM構築」という観点では、
- LM Studioを入れる
- とりあえず7Bクラスのモデルを1つ落とす
- チャットで試しつつ、必要ならAPI連携やRAGにも手を出す
という3ステップで、かなり現実的なローカルAI環境が作れます。
あとは、自分の用途(ブログ下書き、コード補助、要件定義のたたき台作りなど)に合わせて、
どのモデルが一番使いやすいかを少しずつ検証していくのが良いと思います。