主推YouTuBe和Bilibili
深度学习博主推荐:
Umar Jamil - YouTubehttps://www.youtube.com/@umarjamilai
StatQuest with Josh Starmer - YouTubehttps://www.youtube.com/@statquest
RNN
Illustrated Guide to Recurrent Neural Networks: Understanding the Intuition (youtube.com)https://www.youtube.com/watch?v=LHXXI4-IEns
Pytorch学习
Learn PyTorch for deep learning in a day. Literally. (youtube.com)https://www.youtube.com/watch?v=Z_ikDlimN6A
自然语言处理NLP
词嵌入
(9 封私信 / 16 条消息) 如何最简单、通俗地理解word embedding? - 知乎 (zhihu.com)https://www.zhihu.com/question/445738869#:~:text=%E5%A6%82%E4%BD%95%E6%9C%80%E7%AE%80%E5%8D%95%E3%80%81%E9%80%9A%E4%BF%97%E5%9C%B0%E7%90%86%E8%A7%A3word%20embedding%EF%BC%9F%201%201%E3%80%81%E4%BB%80%E4%B9%88%E6%98%AF%E8%AF%8D%E5%B5%8C%E5%85%A5%EF%BC%9F%20%E8%AF%8D%E5%B5%8C%E5%85%A5%EF%BC%8C%E8%8B%B1%E6%96%87%20Word%20Embedding%EF%BC%8C%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E4%B8%AD%E7%9A%84%E4%B8%80%E9%A1%B9%E5%85%B3%E9%94%AE%E6%8A%80%E6%9C%AF%E3%80%82%20%E7%AE%80%E5%8D%95%E6%9D%A5%E8%AF%B4%EF%BC%8C%E5%AE%83%E5%B0%B1%E6%98%AF%E6%8A%8A%E5%8D%95%E8%AF%8D%E6%88%96%E6%B1%89%E5%AD%97%E8%BD%AC%E6%8D%A2%E6%88%90%E5%90%91%E9%87%8F%E7%9A%84%E8%BF%87%E7%A8%8B%E3%80%82,3%E3%80%81%E4%B8%80%E4%B8%AA%E4%BE%8B%E5%AD%90%20%E6%8E%A5%E4%B8%8B%E6%9D%A5%E7%9C%8B%E4%B8%80%E4%B8%AA%E4%BE%8B%E5%AD%90%EF%BC%8C%E6%9D%A5%E6%9B%B4%E7%9B%B4%E8%A7%82%E5%9C%B0%E7%90%86%E8%A7%A3%20word%20embedding%20%E7%9A%84%E4%BD%9C%E7%94%A8%E3%80%82%20%E5%81%87%E8%AE%BE%E6%88%91%E4%BB%AC%E8%A6%81%E5%AF%B9%E4%B8%80%E7%AF%87%E6%96%87%E7%AB%A0%E4%B8%AD%E7%9A%84%E5%8D%95%E8%AF%8D%E8%BF%9B%E8%A1%8C%E7%BC%96%E7%A0%81%EF%BC%8C%E6%9C%89%E5%9B%9B%E4%B8%AA%E5%8D%95%E8%AF%8D%EF%BC%9A%E2%80%9C%E7%8C%AB%E2%80%9D%E3%80%81%E2%80%9C%E7%8B%97%E2%80%9D%E3%80%81%E2%80%9C%E9%B1%BC%E2%80%9D%E3%80%81%E2%80%9C%E8%B7%91%E2%80%9D%E3%80%82%20%E9%A6%96%E5%85%88%EF%BC%8C%E7%94%A8%E6%95%B0%E5%AD%97%E8%A1%A8%E7%A4%BA%E8%BF%99%E4%BA%9B%E5%8D%95%E8%AF%8D%EF%BC%9A%20NLP(一)Word Embeding词嵌入 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/150556238Word Embedding and Word2Vec, Clearly Explained!!! (youtube.com)https://www.youtube.com/watch?v=viZrOnJclY0(14) A Complete Overview of Word Embeddings - YouTubehttps://www.youtube.com/watch?v=5MaWmXwxFNQ
Attention注意力机制和self-attention
Attention注意力机制与self-attention自注意力机制 - 知乎Attention注意力机制与self-attention自注意力机制为什么要因为注意力机制在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下: (1) 计算能力的限…https://zhuanlan.zhihu.com/p/265108616动图轻松理解Self-Attention(自注意力机制) - 知乎前言 Self - Attention是Transformer中最核心的思想。我们在阅读Transformer论文的过程中,最难理解的可能就是自注意力机制实现的过程和繁杂的公式。本文在 Illustrated: Self-Attention这篇文章的基础上,加上了…https://zhuanlan.zhihu.com/p/619154409
从RNN到Attention_短距离数据依赖模式是什么-CSDN博客文章浏览阅读845次,点赞2次,收藏16次。上次我们讲到,传统神经网络无法获取时序信息,但时序信息在自然语言处理任务中非常重要!例如 “我吃了一个苹果”这一句话,“苹果” 的词性和意思,取决于前面词的信息,如果没有 “我吃了一个” 这些词,“苹果”也可以翻译为乔布斯的“Apple”。RNN中的Attention注意力模型_短距离数据依赖模式是什么https://blog.csdn.net/weixin_68191319/article/details/129216141?spm=1001.2014.3001.5501
hkproj/pytorch-transformer: Attention is all you need implementation (github.com)https://github.com/hkproj/pytorch-transformerAttention 和 Self-Attention [一万字拆解 Attention,全网最详细的注意力机制讲解] - 知乎上一篇文章 从 RNN 到 Attention 我们在RNN的Encoder-Decoder框架下引入了Attention 机制,用来解决 RNN 模型中梯度下降以及性能瓶颈问题,如下图所示: 上图就是引入了 Attention 机制的 Encoder-Decoder 框架。…https://zhuanlan.zhihu.com/p/609523552nlp中的Attention注意力机制+Transformer详解 - 知乎JayJay有自己的公众号啦,以后文章都在那里哦,欢迎关注《高能AI》公众号本文以QA形式对自然语言处理中注意力机制(Attention)进行总结,并对Transformer进行深入解析。 目录一、Attention机制剖析 1、为什么要引…https://zhuanlan.zhihu.com/p/53682800
transfomer
Attention is all you need (Transformer) - Model explanation (including math), Inference and Training (youtube.com)https://www.youtube.com/watch?v=bCz4OMemCcA