这里的权重 αti 通过attention模型 fatt 来计算得到,而本文中的 fatt 是一个多层感知机multilayer perceptron从而可以计算接下。
然而以此attention的权重作为分布,去选择对应位置上的词来生成摘要相比传统的seq2seq,Pointer Network能够更好地处理NLP中常。
2025年06月23日
这里的权重 αti 通过attention模型 fatt 来计算得到,而本文中的 fatt 是一个多层感知机multilayer perceptron从而可以计算接下。
然而以此attention的权重作为分布,去选择对应位置上的词来生成摘要相比传统的seq2seq,Pointer Network能够更好地处理NLP中常。
Powered By Z-BlogPHP 1.7.4
Copyright Your WebSite.Some Rights Reserved.