我具有以下规格的ES 1.5.2集群:
问题是当我使用Kibana来查询某事(非常简单的查询)时,如果它是单个查询,就可以正常工作,但是如果我继续查询更多的东西- 弹性变得非常缓慢,最终由于JVM堆而卡住了(来自Marvel)的使用率达到87-95%。当我尝试加载一些Kibana仪表板时,也会发生这种情况,这种情况的唯一解决方案是在所有节点上 重新启动 服务。
(这在带有Kibana 4的ES 2.2.0,1节点上也发生)
怎么了,我想念什么?我想少查询吗?
编辑:
我不得不提到,我有很多空索引(0个文档),但是分片被计算在内。之所以这样,是因为我在4w的文档上设置了ttl,并且空索引将被策展人删除。
此外,我们尚未在1.5.2或2.2.0群集中禁用doc_values。准确的规格如下(1.5.2):
curl _cat / fielddata?v结果:
1.5.2:
total os.cpu.usage primaries.indexing.index_total total.fielddata.memory_size_in_bytes jvm.mem.heap_used_percent jvm.gc.collectors.young.collection_time_in_millis primaries.docs.count device.imei fs.total.available_in_bytes os.load_average.1m index.raw @timestamp node.ip_port.raw fs.total.disk_io_op node.name jvm.mem.heap_used_in_bytes jvm.gc.collectors.old.collection_time_in_millis total.merges.total_size_in_bytes jvm.gc.collectors.young.collection_count jvm.gc.collectors.old.collection_count total.search.query_total 2.1gb 1.2mb 3.5mb 3.4mb 1.1mb 0b 3.5mb 2.1gb 1.9mb 1.8mb 3.6mb 3.6mb 1.7mb 1.9mb 1.7mb 1.6mb 1.5mb 3.5mb 1.5mb 1.5mb 3.2mb 1.9gb 1.2mb 3.4mb 3.3mb 1.1mb 1.5mb 3.5mb 1.9gb 1.9mb 1.8mb 3.5mb 3.6mb 1.7mb 1.9mb 1.7mb 1.5mb 1.5mb 3.4mb 0b 1.5mb 3.2mb 2gb 0b 0b 0b 0b 0b 0b 2gb 0b 0b 0b 0b 0b 0b 0b 0b 0b 0b 0b 0b 0b
2.2.0:
total index_stats.index node.id node_stats.node_id buildNum endTime location.timestamp userActivity.time startTime time shard.state shard.node indoorOutdoor.time shard.index dataThroughput.downloadSpeed 176.2mb 0b 0b 0b 232b 213.5kb 518.8kb 479.7kb 45.5mb 80.1mb 1.4kb 920b 348.7kb 2.5kb 49.1mb
string
not_analyzed
doc_values
ttl