Attention in NLP(一)
Attention 前传NLP中Attention的基本思想是:当处理一个句子[^1] 的时候,不是平等地关注句子中所有的部分[^2],在每个时刻应该有选择地关注最应该关注的部分,而其他部分则相对地忽略。这种对不同部分关注程度不一样的机制就称为“attention”,它是通过赋予句子不同部分不同的权
...
此间且为等闲事,花开花谢不知年