一种基于词级权重的Transformer模型改进方法

来源 :小型微型计算机系统 | 被引量 : 0次 | 上传用户:dong770527
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
Google Brain提出了一种用于神经机器翻译(NMT)的简单模型Transformer,该模型完全基于注意力机制,避免使用循环神经网路(RNN),解决了RNN无法并行化的问题.本文在Transformer模型的基础上提出了基于词级权重(Word-Level Weights)的模型改进方法,即根据不同单词在句子中的重要性通过神经网络自学习所获得相应的权重,将此权重与Transformer模型相结合.该方法提高了Transformer模型的稳定性和准确性,并在IWSLT16翻译任务中提高了模型的BLEU得分.
其他文献
[目的]总结CT引导下125I粒子植入治疗复发性盆腔恶性肿瘤病人的护理。[方法]对32例(36个病灶)复发性盆腔恶性肿瘤病人行CT引导下125I放射性粒子植入术,同时加强心理护理、术
用金相显微镜、SEM、TEM、X 射线衍射仪对高碳铬轴承钢滚动轴承在不同负荷下快速试验后的变态显微组织进行分析研究,结果表明,在滚道表面下0.07~0.35mm 范围内,有四种变态组织
邓小平十分重视报刊工作在革命、建设和改革中的作用,他不仅身体力行的参加过办报实践,而且对做好报刊工作做出了一系列精辟的论述,形成了比较系统的思想。这一思想不仅是对