GitHub CopilotやCursorに課金しなくても、ローカルでLLM動かしてVSCodeから呼べばタダでAIによるコーディング支援を得られるという話。
対象環境はmacOSです。
まずはローカルLLMを準備する。
一番手っ取り早くインストールできそうなollamaを使用する。
ollamaのサイトでDLしたollama.appを開く。インストールウィザードが始まるので Next
をクリック
Install
表示されたコマンドをコピペしてターミナルで実行。llama3.1をインストールしてきて立ち上がる。
※LLMの言語モデルを落としてくるので、起動完了まで時間がかかる
以下のように立ち上がれば成功。あとでVSCodeから使用するために、このまま立ち上がった状態にしておく。
LLama3.1とはMeta社が開発したオープンソースの言語モデルで、ChatGPT超え(匹敵?)を謳っているらしい。
つぎに、VSCodeから使用するためにVSCode拡張のContinueを追加する。
サイドバーからContinueのアイコンをクリックし、 Select model
-> Add Model
でモデルを追加する。
選択肢が複数あるので、その中から Ollama
を選択
下にスクロールするとmodelを選べるので、先ほどインストールした llama3.1
をクリック
.continue/config.json
に設定が追加される。そのままだとmodel名が llama3.1-8b
になってしまうので、 llama3.1
に書き換えておく
"models": [
{
"title": "Llama3.1-8b",
"model": "llama3.1", // ←ココ
"contextLength": 4096,
"apiBase": "http://localhost:11434",
"provider": "ollama"
}
],
これでContinueのタブからローカルで起動しているllama3.1を使用できる。ファイルを指定してのチャットや、gitのdiffに対するレビューを行える等便利に使えるが。
自分はM1 MacBook Proのメモリ16GBで試したが、回答中はマシン負荷が高まり、回答結果が得られるまでそれなりに時間がかかるので多用はしないけど、コードレビューでちょいちょい使うかなという感触。
富山在住のプログラマー。
フルリモートで働いています。
Categories
AWS
Cloudflare
Docker
Github
go
html
JavaScript
microCMS
MySQL
Monthly Archives
2024/12 (1)
2024/11 (3)
2024/10 (1)
2024/09 (3)
2024/08 (7)
2024/07 (7)
2024/06 (4)
2024/05 (5)
2024/04 (6)