WSL2でgpt2-large-japanese-charを試してみる|noguchi-shoji

「日本語 Wikipedia、CC-100 の日本語部分、および OSCAR の日本語部分で事前訓練された日本語の文字レベル GPT-2 Large (7 億 1700 万パラメーター) 言語モデル」であるgpt2-large-japanese-charを試してみます。 The training took about 8 months (with 7 interruptions) with a single NVIDIA A100 80GB GPU. とい…