【Continue】VSCodeにAIによるプログラミング支援機能を付ける

はじめに

以前「llama.cpp」を使って同様のことをしました。
LLM(大規模言語モデル)をローカルで実行して、それを VScode から使う。これですこれ、やりたかったのは正にこれです。 - パソコン関連もろもろ


今回は「Ollama」を使います。

以前できなかったコード補完の機能も実装することができました。

PC環境

Windows 11

Ollamaのインストール

GitHubから「OllamaSetup.exe」をダウンロードして実行するだけでインストールは完了します。

モデルのインストール

コマンドプロンプトで以下を実行します。

ollama pull codellama:7b
ollama pull deepseek-coder:6.7b-base

インストールしたモデルは「ollama list」と入力すれば一覧で見ることができます。

インストールしたモデルを削除する場合は「ollama rm <モデル名>」です。

Continueのインストール

VSCodeの拡張機能「Continue」をインストールします。

モデルの登録

歯車をクリックして「config.json」を開きます。

「config.json」に以下を書き込みます。

  "models": [
    {
      "title": "CodeLlama-7b",
      "model": "codellama-7b",
      "apiBase": "http://localhost:11434",
      "provider": "ollama"
    }
  ],
  "tabAutocompleteModel": {
    "title": "deepseek-coder",
    "model": "deepseek-coder:6.7b-base",
    "apiBase": "http://localhost:11434",
    "provider": "ollama"
  },



これだけでVSCodeにプログラミング支援機能が実装できます。

補足

PC起動と同時にOllamaが起動するのをやめる

Windows key + 「R」でファイル名を指定して実行を開いて「shell:startup」と入力すると以下のフォルダに移動します。

C:\Users\ user name \AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup

その中からOllamaを削除すれば次回から自動的に起動しなくなります。

参考にさせて頂いたサイト

qiita.com




このエントリーをはてなブックマークに追加