Attention Is All You Need = Transformerをざっくり理解してみる。 - Qiita

#はじめに前回までにAttentionを整理したので、論文「Attention Is All You Need」=Transformerに挑戦しようと思います。ベクトル(行列)、コーディングレベル…