r - 从斯坦福大学的 R coreNLP 包调用 initCoreNLP() 方法会引发错误

标签 r stanford-nlp

我正在尝试使用coreNLP包。我运行了以下命令并遇到了 超出 GC 开销限制 错误。

library(rJava)

downloadCoreNLP()

initCoreNLP()

错误是这样的:

Loading classifier from edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... Error in rJava::.jnew("edu.stanford.nlp.pipeline.StanfordCoreNLP", basename(path)) : java.lang.OutOfMemoryError: GC overhead limit exceeded Error during wrapup: cannot open the connection

我对 Java 不太了解,有人可以帮助我吗?

最佳答案

我找到了一个更通用的解决方案:增加rJava的堆空间,如here所述:

原因:依赖 rJava 的库的默认堆大小为 512MB。超过这个最大尺寸相对容易。

解决方案:增加 rJava 选项支持中的 JVM 堆大小:

options(java.parameters = "-Xmx4096m")

请注意,必须在加载任何包之前执行此步骤


然后我跑了:

initCoreNLP(mem = "4g")

...整个 CoreNLP 已成功加载并运行。

关于r - 从斯坦福大学的 R coreNLP 包调用 initCoreNLP() 方法会引发错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33015823/

相关文章:

r - 强制误差条位于条的中间

python - NLTK 无法找到 java 文件!用于斯坦福 POS 标记器

java - 如何将Stanford nlp中的CoreDocument保存到磁盘

hadoop - 如何使用Stanford NER CFR训练大型数据集

r - 集成直方图和密度曲线,一轴为频率,另一轴为密度

r - 如何对列名进行分组并为其添加后缀?

gradle - 使用 gradle 构建使用 stanford-corenlp 作为依赖项的 jar 文件时出错

java - 如何禁用斯坦福 POS 标记器的日志消息?

RStudio 正在执行我两次调用的每个电话

r - 使用 geom_segment 按因素分组数据