杭州做模板网站,软件开发app制作下载,潍坊 互联网公司,电商设计师自我介绍文章目录 Encoder-DecoderSeq2Seq (序列到序列#xff09; Encoder-Decoder 基础的Encoder-Decoder是存在很多弊端的#xff0c;最大的问题就是信息丢失。Encoder将输入编码为固定大小的向量的过程实际上是一个“信息有损的压缩过程”#xff0c;如果信息量越大#xff0c;… 文章目录 Encoder-DecoderSeq2Seq (序列到序列  Encoder-Decoder 基础的Encoder-Decoder是存在很多弊端的最大的问题就是信息丢失。Encoder将输入编码为固定大小的向量的过程实际上是一个“信息有损的压缩过程”如果信息量越大那么这个转化向量的过程对信息的损失就越大同时随着序列长度sequence length的增加意味着时间维度上的序列很长由于基础的Encoder-Decoder模型链接Encoder和Decoder的组件仅仅是一个固定大小的状态向量这就使得Decoder无法直接无关注输入信息的更多细节。为了解决这些缺陷随后又引入了Attention机制以及Bi-directional encoder layer等。Attention模型的特点是Encoder不再将整个输入序列编码为固定长度的中间向量而是编码成一个【向量序列】。这样在产生每一个输出的时候都能够做到充分利用输入序列携带的信息。而且这种方法在翻译任务中取得了非常不错的成果。 Seq2Seq (序列到序列 输入序列和输出序列的长度是可变的。Seq2Seq可以看作是Encoder-Decoder针对某一类任务的模型框架