注意機構を用いた文ベクトルの計算方法は従来手法と何が違うのか

3つの要点✔️ BiLSTMの各タイムステップに対して注意機構を適用する手法を提案✔️ RNN/LSTMという強力なモデルに追加する形で適用できるため、汎用性が高い✔️ Max Poolingを適用するよりも注意機構を用いることで精度が向上A Structured Self-attentive Sentence Embeddingwritten by Zhouhan Lin,Minwei Feng,Cicero Noguei…