论文部分内容阅读
基于Encoder-Decoder 的神经机器翻译模型将源语言句子编码到一个语义空间,并基于这个语义空间的源语言句子表示来产生目标语言句子。相比与传统的统计机器翻译,基于隐式语义空间的Encoder-Decoder 模型能够产生更为流畅的句子,然而有的时候却并不能保证句子意义上的一致性。这种现象部分原因归结于隐式语义空间本质上仅仅学习了源语言句子和目标语言句子的共现信息,而没有能力来描述源语言和目标语言的语义映射。不同于隐式的语义空间,我们使用知识库和本体的信息来约束和定义一个显式的语义空间,并进一步的将Encoder-Decoder 的框架转换为源语言句子的自然语言理解(NLU)和目标语言句子的自然语言生成(NLG)两部分。前半部分能够将源语言句子中的关键信息映射到显式的语义空间,而第二部分则基于该语义的表示将目标语言句子生成出来,从而真正的实现了基于语义的机器翻译。