自然言語処理の巨獣「Transformer」のSelf-Attention Layer紹介
Transformer構造を過去の方法と比べた時の差、及びSelf-Attention Layer内のQuery, KeyとValueについての役割を説明してみました。