ローカル LLM 環境を構築する - Qiita

以下のようなローカル LLM 環境を構築してみる。 Docker とは Docker はコンテナ仮想化技術の実装である。 Ollama とは Ollama はローカル LLM の実行環境である。いろんな LLM をローカルで動かせる。 Open WebUI と...