【基础1】文本分析-词频与余弦相似度

2019-04-14 17:20发布

通过计算两段文本的相似度,我们可以:
  • 对垃圾文本(比如小广告)进行批量屏蔽;
  • 对大量重复信息(比如新闻)进行删减;
  • 对感兴趣的相似文章进行推荐,等等。
那么如何计算两段文本之间的相似程度?我们已经了解到夹角余弦这个算法,其思想是:
  • 将两段文本变成两个可爱的小向量;
  • 计算这两个向量的夹角余弦cos(θ):
    • 夹角余弦为1,也即夹角为0°,两个小向量无缝合体,则相似度100%
    • 夹角余弦为0,也即夹角为180°,小向量可怜的两两不相见,则相似度为0%



本文会具体介绍如何计算文本的夹角余弦相似度,包括两部分:
  • 向量的夹角余弦如何计算
  • 如何构造文本向量:词频与词频向量
1. 向量的夹角余弦如何计算
在扯到文本之前,这个要先介绍一下。 余弦定理告诉我们(不记得的翻看书本):
然而对于两个向量a、b的夹角余弦呢?
它的公式为:
分子就是2个向量的内积,分母是两个向量的模长乘积。
用两个向量的坐标即可计算出来,简单了解一下这个推导:

这是两个二维向量,如果是两个n维向量的夹角余弦相似度,只要记得,分子依然是向量内积,分母是两个向量模长乘积。 知道了向量的夹角余弦相似度计算方法,现在只要想办法将文本变成向量就可以了。
2. 词频与词频向量 文本是由词组成的,我们一般通过计算词频来构造文本向量——词频向量。 比如有一句话:
我是数说君,我爱你们,你们爱我吗?
这段文本是由几个词组成的:
我/ 是/ 数说君  我/ 爱/ 你们 你们/ 爱/ 我/ 吗
其中“我”出现了3次,“是”出现一次......依次计算,我们就可以构造如下词频向量:
我3, 是1, 数说君1, 爱2, 你们2, 吗1 → (3,1,1,2,2,1)
这就是一个6维向量了。 需要注意的是,如果这时候有另一段文本需要跟它比较,比如就是:
我是数说君,我爱你们,你们爱我吧?
这时候我们应该这样分词:
我3, 是1, 数说君1, 爱2, 你们2, 吗0, 吧1 → (3,1,1,2,2,0,1)
这里“吗”这个维度也需要加上,相应的,别忘了第一句话中也要加上“吧”这个维度:
我3, 是1, 数说君1, 爱2, 你们2, 吗1, 吧0 → (3,1,1,2,2,1,0)
这就是两个7维向量了,现在可以将这两个文本向量进行夹角余弦的相似度比较,带入上面的公式: 两个向量内积=3*3+1+1+2*2+2*2=19 两个向量模长乘积=sqrt(9+1+1+4+4+1)*sqrt(9+1+1+4+4+1)=20 两个向量夹角余弦相似度=19/20=95% 所以这两段文本的相似度为95%。
这里有2个问题值得提一下: (1)当两个词频向量进行比较的时候,维度会扩大。 比如刚刚例子中,彼此没有出现的“吗”、“吧”两个维度会加进来,保证比较的两段文本维度统一。那么问题来了,如果两段很长的文本进行比较(比如上万字的文章),岂不是维度要扩增很多倍?而且矩阵会非常稀疏,就是很多取值都是0,计算开销大且效率低,怎么办? 因此需要寻求一种有效的特征降维方法,能够在不损伤核心信息的情况下降低向量空间的维数,比如TF-IDF算法。这就是后面会介绍的。 (2)英文文本的比较 与中文不同的是,英文不需要分词,因为英文天然就是由一个一个词组组成的。 I Love Shushuojun  → I/ Love/ Shushuojun
转载自:https://mp.weixin.qq.com/s/dohbdkQvHIGnAWR_uPZPuA