vLLMとGooseを連携してローカルLLMでコーディング

先日このような記事を書きました。 devops-blog.virtualtech.jp これはOllamaとGooseをすべてローカルの環境にインストールして、アプリ開発に使うのを想定しました。 最近のクライアントは性能が高く、すべてローカルに閉じても十分活躍してくれると思いますが、開発用の環境はとにかく色々なものが同時に動いているため…