ローカルでLLMの推論を実行するのにOllamaがかわいい