java - Hazelcast 不遵守分布式 map 的最大大小

标签 java out-of-memory hazelcast

Hazelcast 3.3 不考虑 Map 的 JVM 大小 (MaxSizePolicy.USED_HEAP_SIZE)。我们的示例中使用 MaxSize 20 MB 和 LRU 驱逐策略。

mapCfg.setEvictionPolicy(MapConfig.EvictionPolicy.LRU);
mapCfg.setEvictionPercentage(20); 
MaxSizeConfig maxSizeCfg = new MaxSizeConfig(20, MaxSizePolicy.USED_HEAP_SIZE); 
mapCfg.setMaxSizeConfig(maxSizeCfg);

这对我们来说是一个真正的问题,因为我们的数据多于堆,因此我们遇到了很多 OutOfMemoryError。

还有人有同样的经历吗?是不是我们的配置错了?这是一个已知问题吗?

最佳答案

新的 MaxSizeConfig(20, MaxSizePolicy.USED_HEAP_SIZE);认为你需要提高它

关于java - Hazelcast 不遵守分布式 map 的最大大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24278307/

相关文章:

hazelcast - 防止对 Hazelcast Community Edition 集群进行不必要的访问

java - HashMap 和 HashMultimap 有什么区别

java - JPA/Hibernate 删除实体不工作

java - 是否可以使用 java 在不读取行的情况下合并两个文本文件?

Java - 如何处理 OutOfMemoryError?

java - 如何不同步 Hazelcast 中服务之间的所有 map

java - 如何在没有网络的情况下创建嵌入进程内/内存中的 Hazelcast 实例?

java - 如何以编程方式填充Word文档的表格

java - 我在计算 MySQL 错误日志时遇到了很多麻烦

java - 捕获内存不足错误后如何执行命令/脚本?