【基础1】文本分析-词频与余弦相似度
2019-04-14 17:20发布
生成海报
通过计算两段文本的相似度,我们可以:
-
对垃圾文本(比如小广告)进行批量屏蔽;
-
对大量重复信息(比如新闻)进行删减;
-
对感兴趣的相似文章进行推荐,等等。
那么如何计算两段文本之间的相似程度?我们已经了解到夹角余弦这个算法,其思想是:
-
将两段文本变成两个可爱的小向量;
-
计算这两个向量的夹角余弦cos(θ):
-
夹角余弦为1,也即夹角为0°,两个小向量无缝合体,则相似度100%
-
夹角余弦为0,也即夹角为180°,小向量可怜的两两不相见,则相似度为0%
本文会具体介绍如何计算文本的夹角余弦相似度,包括两部分:
-
向量的夹角余弦如何计算
-
如何构造文本向量:词频与词频向量
1. 向量的夹角余弦如何计算
在扯到文本之前,这个要先介绍一下。
余弦定理告诉我们(不记得的翻看书本):
然而对于两个向量a、b的夹角余弦呢?
它的公式为:
分子就是2个向量的内积,分母是两个向量的模长乘积。
用两个向量的坐标即可计算出来,简单了解一下这个推导:
这是两个二维向量,如果是两个n维向量的夹角余弦相似度,只要记得,分子依然是向量内积,分母是两个向量模长乘积。
知道了向量的夹角余弦相似度计算方法,现在只要想办法将文本变成向量就可以了。
2. 词频与词频向量
文本是由词组成的,我们一般通过计算词频来构造文本向量——词频向量。
比如有一句话:
我是数说君,我爱你们,你们爱我吗?
这段文本是由几个词组成的:
我/ 是/ 数说君 我/ 爱/ 你们 你们/ 爱/ 我/ 吗
其中“我”出现了3次,“是”出现一次......依次计算,我们就可以构造如下词频向量:
我3, 是1, 数说君1, 爱2, 你们2, 吗1 → (3,1,1,2,2,1)
这就是一个6维向量了。
需要注意的是,如果这时候有另一段文本需要跟它比较,比如就是:
我是数说君,我爱你们,你们爱我吧?
这时候我们应该这样分词:
我3, 是1, 数说君1, 爱2, 你们2, 吗0, 吧1 → (3,1,1,2,2,0,1)
这里“吗”这个维度也需要加上,相应的,别忘了第一句话中也要加上“吧”这个维度:
我3, 是1, 数说君1, 爱2, 你们2, 吗1, 吧0 → (3,1,1,2,2,1,0)
这就是两个7维向量了,现在可以将这两个文本向量进行夹角余弦的相似度比较,带入上面的公式:
两个向量内积=3*3+1+1+2*2+2*2=19
两个向量模长乘积=sqrt(9+1+1+4+4+1)*sqrt(9+1+1+4+4+1)=20
两个向量夹角余弦相似度=19/20=95%
所以这两段文本的相似度为95%。
这里有2个问题值得提一下:
(1)当两个词频向量进行比较的时候,维度会扩大。
比如刚刚例子中,彼此没有出现的“吗”、“吧”两个维度会加进来,保证比较的两段文本维度统一。那么问题来了,如果两段很长的文本进行比较(比如上万字的文章),岂不是维度要扩增很多倍?而且矩阵会非常稀疏,就是很多取值都是0,计算开销大且效率低,怎么办?
因此需要寻求一种有效的特征降维方法,能够在不损伤核心信息的情况下降低向量空间的维数,比如TF-IDF算法。这就是后面会介绍的。
(2)英文文本的比较
与中文不同的是,英文不需要分词,因为英文天然就是由一个一个词组组成的。
I Love Shushuojun → I/ Love/ Shushuojun
转载自:https://mp.weixin.qq.com/s/dohbdkQvHIGnAWR_uPZPuA
打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮