はじめに
以前「llama.cpp」を使って同様のことをしました。LLM(大規模言語モデル)をローカルで実行して、それを VScode から使う。これですこれ、やりたかったのは正にこれです。 - パソコン関連もろもろ
今回は「Ollama」を使います。
以前できなかったコード補完の機能も実装することができました。
PC環境
Windows 11
Ollamaのインストール
GitHubから「OllamaSetup.exe」をダウンロードして実行するだけでインストールは完了します。モデルのインストール
コマンドプロンプトで以下を実行します。ollama pull codellama:7b
ollama pull deepseek-coder:6.7b-base
インストールしたモデルは「ollama list」と入力すれば一覧で見ることができます。
インストールしたモデルを削除する場合は「ollama rm <モデル名>」です。
Continueのインストール
VSCodeの拡張機能「Continue」をインストールします。モデルの登録
歯車をクリックして「config.json」を開きます。「config.json」に以下を書き込みます。
"models": [ { "title": "CodeLlama-7b", "model": "codellama-7b", "apiBase": "http://localhost:11434", "provider": "ollama" } ],
"tabAutocompleteModel": { "title": "deepseek-coder", "model": "deepseek-coder:6.7b-base", "apiBase": "http://localhost:11434", "provider": "ollama" },
これだけでVSCodeにプログラミング支援機能が実装できます。
補足
PC起動と同時にOllamaが起動するのをやめる
Windows key + 「R」でファイル名を指定して実行を開いて「shell:startup」と入力すると以下のフォルダに移動します。C:\Users\ user name \AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup
その中からOllamaを削除すれば次回から自動的に起動しなくなります。