Waka blog.

  • Blog
  • About
  • Quotes
  • Sandbox
Description

waka.apps

富山在住のプログラマー。
フルリモートで働いています。

Blog
About
Quotes
Sandbox

#VSCode

1件

2024年8月26日月曜日 13:18

VSCodeでローカルLLMを使用したコーディング支援

GitHub CopilotやCursor [https://www.cursor.com/]に課金しなくても、ローカルでLLM動かしてVSCodeから呼べばタダでAIによるコーディング支援を得られるという話。 対象環境はmacOSです。 まずはローカルLLMを準備する。 一番手っ取り早くインストールできそうなollama [https://ollama.com/download]を使用する。 ollamaのサイトでDLしたollama.appを開く。インストールウィザードが始まるので Next をクリック Install 表示されたコマンドをコピペしてターミナルで実行。l
VSCode
Description

waka.apps

富山在住のプログラマー。
フルリモートで働いています。

Categories

AWS

Cloudflare

Docker

Github

go

Google

html

JavaScript

microCMS

MySQL

Monthly Archives

2025/03 (1)

2025/01 (1)

2024/12 (4)

2024/11 (3)

2024/10 (1)

2024/09 (3)

2024/08 (7)

2024/07 (7)

2024/06 (4)

2024/05 (5)

2024/04 (6)

© 2025 Waka blog. All rights reserved.