我正在尝试使用coreNLP
包。我运行了以下命令并遇到了 超出 GC 开销限制 错误。
library(rJava)
downloadCoreNLP()
initCoreNLP()
错误是这样的:
Loading classifier from edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... Error in rJava::.jnew("edu.stanford.nlp.pipeline.StanfordCoreNLP", basename(path)) : java.lang.OutOfMemoryError: GC overhead limit exceeded Error during wrapup: cannot open the connection
我对 Java 不太了解,有人可以帮助我吗?
最佳答案
我找到了一个更通用的解决方案:增加rJava的堆空间,如here所述:
原因:依赖 rJava 的库的默认堆大小为 512MB。超过这个最大尺寸相对容易。
解决方案:增加 rJava 选项支持中的 JVM 堆大小:
options(java.parameters = "-Xmx4096m")
请注意,必须在加载任何包之前执行此步骤。
然后我跑了:
initCoreNLP(mem = "4g")
...整个 CoreNLP 已成功加载并运行。
关于r - 从斯坦福大学的 R coreNLP 包调用 initCoreNLP() 方法会引发错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33015823/