とことんDevOps | 日本仮想化技術のDevOps技術情報メディア
id:ytooyama
vLLMとGooseを連携してローカルLLMでコーディング
先日このような記事を書きました。 devops-blog.virtualtech.jp これはOllamaとGooseをすべてローカルの環境にインストールして、アプリ開発に使うのを想定しました。 最近のクライアントは性能が高く、すべてローカルに閉じても十分活躍してくれると思いますが、開発用の環境はとにかく色々なものが同時に動いているため…