我正在对接近 4500 万个数据建立索引。有关 solr 6.4.2 的文档。它主要由近 80 个奇数字段组成,其中一些是大型文本字段,一些是非常大的字段(文章或报告)。所有三个核心都位于单个 solr 实例上。我面临着在一个核心上提交数据的问题(主核心拥有 50% 的文档)。提交数据需要几个小时,其余工作正常。都有相同的配置。 cofig 参数都是默认的,并且禁用了 atocmommit、softcommit、tlog。如果您能给我指出一个寻找的方向,那将会非常有帮助。
最佳答案
问题是使用 6.4.1 编译的自定义过滤器工厂中的版本不匹配,导致添加文档出现延迟。我重新编译 它与 6.4.2 一起使用,并且按预期工作。
关于java - 在 solr 6.4.2 上提交数据时遇到问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43907335/