LM StudioでローカルLLMに入門したので使い方を自分用にメモ。
実行環境
- Macbook Air 13インチ M4 2025
- 16GB
- macOS Tahoe ver.26.2
最低システム要件は公式ドキュメントを参照のこと。
インストール
下記のページから。
日本語を有効化する
画面右下の設定(歯車のアイコン)をクリック。 General > 言語から日本語を選択する(執筆時点でBetaだったが問題なさそう)。
言語モデルのダウンロード
Discover(虫眼鏡のアイコン)をクリックするとモデルの検索ができる。 好きなモデルを検索して、右下のダウンロードボタンを押下してダウンロード。
チャットしてみる
Chat(吹き出しのアイコン)をクリックし、チャット画面を開く。 チャット画面上部のボックスをクリックするとダウンロードしたモデルをロードできる。 ロードが完了したらモデルとチャットができるようになる。
モデルの学習
モデルはチャットから学習しないらしい。
モデルはチャットから「学習」しません。モデルが「認識」するのは、チャット内に存在するコンテンツ、または「システムプロンプト」などの設定オプションを通じて提供されるコンテンツのみです。
ローカルサーバーの立ち上げ
Developer(ターミナルのアイコン)をクリックする。
Statusの横にトグルスイッチがあるので、それを押してステータスをRunningにする。
ステータスがRunningになるとDeveloper Logsにエンドポイントが表示されるのでアクセスするときにはこれを使う。
サーバーをストップする場合はもう一度トグルスイッチを押してステータスをStoppedに変更すればOK。
サーバーのポート番号はServer Settingsで変更できる。
モデルの設定
My Model(フォルダのアイコン)をクリックするとダウンロードしたモデルの一覧が表示される。 設定をしたいモデルのアクション > モデルのデフォルト設定の編集(歯車のアイコン)をクリックするとパラメータがいじれるようになる(ここは詳しくなければいじらないほうが吉)。
詳細はドキュメントを参照のこと。
他にもモデルの公開とかプロンプトライブラリの構築とかあるけど、自分にはまだ早いので割愛。