2024年8月26日月曜日 13:18VSCodeでローカルLLMを使用したコーディング支援GitHub CopilotやCursor [https://www.cursor.com/]に課金しなくても、ローカルでLLM動かしてVSCodeから呼べばタダでAIによるコーディング支援を得られるという話。 対象環境はmacOSです。 まずはローカルLLMを準備する。 一番手っ取り早くインストールできそうなollama [https://ollama.com/download]を使用する。 ollamaのサイトでDLしたollama.appを開く。インストールウィザードが始まるので Next をクリック Install 表示されたコマンドをコピペしてターミナルで実行。lVSCode