r - tm.package : findAssocs vs Cosine

标签 r math text-mining tm cosine-similarity

我是新来的,我的问题是数学性质的,而不是编程性质的,我想就我的方法是否有意义获得第二意见。

我试图使用函数 findAssocs 在我的语料库中找到单词之间的关联。 ,来自 tm包裹。尽管它在通过软件包提供的数据(例如纽约时报和美国国会)上表现得相当好,但我对它在我自己的不太整洁的数据集上的表现感到失望。它似乎很容易被包含相同单词的多次重复的罕见文档所扭曲,这似乎在它们之间建立了强烈的关联。我发现余弦度量可以更好地说明术语的相关性,即使基于文献,它也只倾向于用于测量文档而不是术语的相似性。让我们使用来自 RTextTools 的美国国会数据包来演示我的意思:

首先,我将设置所有...

data(USCongress)

text = as.character(USCongress$text)

corp = Corpus(VectorSource(text)) 

parameters = list(minDocFreq        = 1, 
                  wordLengths       = c(2,Inf), 
                  tolower           = TRUE, 
                  stripWhitespace   = TRUE, 
                  removeNumbers     = TRUE, 
                  removePunctuation = TRUE, 
                  stemming          = TRUE, 
                  stopwords         = TRUE, 
                  tokenize          = NULL, 
                  weighting         = function(x) weightSMART(x,spec="ltn"))

tdm = TermDocumentMatrix(corp,control=parameters)

假设我们有兴趣调查“政府”和“外国”之间的关系:
# Government: appears in 37 docs and between then it appears 43 times
length(which(text %like% " government"))
sum(str_count(text,"government"))

# Foreign: appears in 49 document and between then it appears 56 times
length(which(text %like% "foreign"))
sum(str_count(text,"foreign"))

length(which(text[which(text %like% "government")] %like% "foreign"))
# together they appear 3 times

# looking for "foreign" and "government"
head(as.data.frame(findAssocs(tdm,"foreign",0.1)),n=10)

             findAssocs(tdm, "foreign", 0.1)
countri                                 0.34
lookthru                                0.30
tuberculosi                             0.26
carryforward                            0.24
cor                                     0.24
malaria                                 0.23
hivaid                                  0.20
assist                                  0.19
coo                                     0.19
corrupt                                 0.19

# they do not appear to be associated

现在让我们添加另一个包含重复 50 次“外国政府”的文档:
text[4450] = gsub("(.*)",paste(rep("\\1",50),collapse=" "),"foreign government")
corp = Corpus(VectorSource(text)) 
tdm = TermDocumentMatrix(corp,control=parameters)

#running the association again:
head(as.data.frame(findAssocs(tdm,"foreign",0.1)),n=10)

             findAssocs(tdm, "foreign", 0.1)
govern                                  0.30
countri                                 0.29
lookthru                                0.26
tuberculosi                             0.22
cor                                     0.21
carryforward                            0.20
malaria                                 0.19
hivaid                                  0.17
assist                                  0.16
coo                                     0.16

如您所见,现在是一个不同的故事,一切都归结为一个文档。

在这里,我想做一些非常规的事情:使用余弦来查找文档空间中的术语之间的相似性。这种度量往往用于查找文档之间的相似性而不是术语,但我认为没有理由不能使用它来查找单词之间的相似性。在传统意义上,文档是向量,而术语是轴,我们可以根据这些文档之间的角度来检测它们的相似性。但是术语文档矩阵是文档术语矩阵的转置,类似地,我们可以在文档空间中投影术语,即让您的文档是轴,您的术语是可以测量角度的向量。它似乎没有与简单相关性相同的缺点:
cosine(as.vector(tdm["government",]),as.vector(tdm["foreign",]))
     [,1]
[1,]    0

除此之外,这两个措施似乎非常相似:
tdm.reduced = removeSparseTerms(tdm,0.98)

Proximity = function(tdm){ 
  d = dim(tdm)[1] 
  r = matrix(0,d,d,dimnames=list(rownames(tdm),rownames(tdm))) 
  for(i in 1:d){ 
    s = seq(1:d)[-c(1:(i-1))] 
    for(j in 1:length(s)){ 
      r[i,s[j]] = cosine(as.vector(tdm[i,]),as.vector(tdm[s[j],])) 
      r[s[j],i] = r[i,s[j]] 
    } 
  } 
  diag(r) = 0 
  return(r) 
}

rmat = Proximity(tdm.reduced)

# findAssocs method
head(as.data.frame(sort(findAssocs(tdm.reduced,"fund",0),decreasing=T)),n=10)

        sort(findAssocs(tdm.reduced, "fund", 0), decreasing = T)
use                                                         0.11
feder                                                       0.10
insur                                                       0.09
author                                                      0.07
project                                                     0.05
provid                                                      0.05
fiscal                                                      0.04
govern                                                      0.04
secur                                                       0.04
depart                                                      0.03

# cosine method
head(as.data.frame(round(sort(rmat[,"fund"],decreasing=T),2)),n=10)

       round(sort(rmat[, "fund"], decreasing = T), 2)
use                                              0.15
feder                                            0.14
bill                                             0.14
provid                                           0.13
author                                           0.12
insur                                            0.11
state                                            0.10
secur                                            0.09
purpos                                           0.09
amend                                            0.09

然而,令人惊讶的是,我还没有看到余弦被用来检测术语之间的相似性,这让我怀疑我是否遗漏了一些重要的东西。也许这种方法在我没有想到的方面存在缺陷。因此,对我所做的任何想法将不胜感激。

如果你已经做到了这一点,感谢您的阅读!!

干杯

最佳答案

如果我理解您的查询(我认为应该在堆栈交换上)。我相信问题在于 findAssocs 中的术语距离正在使用欧几里得测量。因此,仅将单词翻倍的文档就成为异常值,并且在距离测量中被认为有很大不同。
切换到余弦作为文档的度量被广泛使用,所以我怀疑术语也可以。我喜欢 skmeans用于通过余弦聚类文档的包。 Spherical K-Means 将直接接受 TDM 并以单位长度进行余弦距离。

video在 ~11m 处显示它,以防您不知道。
希望这有点帮助......最后我相信余弦是可以接受的。

关于r - tm.package : findAssocs vs Cosine,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21357656/

相关文章:

java - 为什么我的程序不能访问 Java 中的数学方法?

java - java中如何删除文件中的数字

html - R 解析网页中的不完整文本(HTML)

r - 在 R 中使用 iGraph 获取路径的权重

r - 使用逻辑向量进行向量索引

javascript - 将获得的积分转换为游玩时间(数学相关)

c# - 以可变速度找到目标时间

r - 文本分类-当训练数据和测试数据具有不同特征时该怎么办

r - 将 dplyr 转换为 data.table

r - 计算字符串的一部分的字符