ローカルLLM環境を構築できるOllamaをためす その5:Dockerコンテナで動いているプロセスにPowerShellで接続

実際のところ ボディの設定 $body = @{ model = "llama3" # または選択したモデル名 prompt = "Tell me a short story about a robot learning to paint." } | ConvertTo-Json レスポンスの格納 $response = Invoke-RestMethod -Uri "http://localhost:11434/api/generate" -Method Post -ContentType "application/json" …