目录
RNN简单理解
RNN n to n
Transformer N to M
LSTM
为什么出现Transformer:传统RNN的问题
信息丢失的后果
Rnn是顺序执行的效率不高:顺序执行
Attention(注意力机制)和Self-Attention(自注意力机制)区别
一、计算对象不同
二、应用场景不同
三、功能差异
目录
RNN简单理解
RNN n to n
Transformer N to M
LSTM
为什么出现Transformer:传统RNN的问题
信息丢失的后果
Rnn是顺序执行的效率不高:顺序执行
Attention(注意力机制)和Self-Attention(自注意力机制)区别
一、计算对象不同
二、应用场景不同
三、功能差异
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/921389.html
如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!