前言:
这是用于自然语言处理中数据降维的一种方案。
我们希望用一个向量来表示每一个单词. 有不同的方案
目录:
- one-hot Encoding
- word-class
- 词的上下文表示
- count-based
- perdition-based
- CBOW
- Skip-Gram
- word Embedding 词向量相似度
一 one-hot Encoding
假设英文有10万个单词,那每个单词用1个10万维的one-hot 编码表示。
其中只有1个维度是1,其它维度是0.
问题:
1: 无法表示词汇之间的相互关系
比如 car 和 cars
二 word-class
比如dog ,cat ,bird 属于一类, ran jumped walk 属于class2,...
问题:
很多细节丢失了
三 单词上下文表示
3.1: 某个单词可以通过其上下文表示
如上图 早上,中午,晚上后面都接 打游戏,说明三者之间有一定的相关性。
如何定义上下文,有两种方案
count-based& perdition-based
四 count-based
流程:
预置条件:
通过通过一些文章,统计每个单词,之后或者之前出现的单词的概率
建立灰度共现矩阵.
训练
1 每个单词先进行one-hot 编码
2 通过神经网络得到 词向量 .
3 做内积,
输出
测值
损失函数:
其中 就是灰度共现矩阵里面的概率值
五 perdition-based
5.1 原理:
count-based 使用一个单词预测下一个单词得到词向量,这个是用前面几个单词预测下一个单词,得到词向量
我们属于一些单词,经过一个神经网络,预测下面出现的单词(one-hot)表示。
损失函数用cross entropy
5.2 应用
文字推理
: 推荐下一个单词出现的概率
5.3网络结构
5.4 训练流程:
1 每个单词先进行one-hot 编码
2 通过神经网络得到 (共用权重系数W ,同CNN 里面的卷积一样)词向量 .
3 通过softmax 函数输出
4 通过交叉熵训练网络参数W
5.5 注意事项
这个网络的发明者通过实践发现不需要深度的网络,只需要一两层的线性网络可以
把该模型训练的很好。另外一个理由该模型只是实现抽取特征,该特征是其它NLP模型
的输入,所以不需要多层神经网络去实现
它的标签是灰度共现矩阵
六 CBOW
CBOW是continuous bag of words的缩写,中文译为“连续词袋模型”。它是一种用于生成词向量的神经网络模型,由Tomas Mikolov等人于2013年提出 。词向量是一种将单词表示为固定长度的实数向量的方法,可以捕捉单词之间的语义和语法关系。
CBOW的基本思想是,给定一个单词的上下文(即窗口内的其他单词),预测该单词本身。例如,对于句子“The cat climbed up the tree”,如果窗口大小为5,那么当中心单词为“climbed”时,上下文单词为“The”、“cat”、“up”和“the”。CBOW模型要求根据这四个上下文单词,计算出“climbed”的概率分布。
七 Skip-gram
预测文本中某个字周围可能出现的词
我们在看一篇文章时,若是将一个词的周围几个词盖住让我们猜测,我们也能够大致的猜出被盖住部分原有的词语,因为文章中每个词语与其周围的词之间都是有关系的,也可以说,每个词都决定了和它相邻的词。skip-gram模型就是以此为动机来进行训练的。
为了完成上面的训练目标,skip-gram模型有一个长度为2c+1的滑动窗口(上图为5),这个窗口会在语料库中滑动,每滑动以此,被窗口包括在内的2c+1个词就会被用与模型的训练。窗口中心的词作为已知的词,而中心词前k个和后k个词
八 word Embedding 词向量相似度
我们可以通过Vec 之间的相减得到词之间的关系
14: Unsupervised Learning - Word Embedding_哔哩哔哩_bilibili