python - 如何使用 python 更新 Elastic Search ( Kibana ) 中可用的大量 Json 数据

标签 python json elasticsearch kibana

我尝试更新 kibana 中的 json 数据,由于数据量太大而抛出异常。

"statusCode": 413,
"error": "Request Entity Too Large",
"message": "Payload content length greater than maximum allowed: 1048576"

如何使用 python 以编程方式更新这个巨大的 json,而不是在 kibana 中直接更新?任何人都可以建议解决这个问题。提前致谢。

使用python连接kibana的代码:

from elasticsearch import Elasticsearch
import pandas as pd
import pymysql
es = Elasticsearch("https://pd-analytics.example.com")
if es.ping():
    print("Yeah connect")
else:
    print("couldn't connect")


from elasticsearch_dsl import Search
from elasticsearch_dsl import connections
connections.create_connection(hosts=['https://pd-analytics.example.com'])
s = Search(index="projectdetails")
response = s.scan()

最佳答案

您已达到 kibana.yml 中设置的限制。默认值设置为 1048576,这是您在响应中看到的内容。您可以编辑 server.maxPayloadBytes 字段来增加限制以满足您的条件。您可以查看配置文件 here 中可用的其他选项.

关于python - 如何使用 python 更新 Elastic Search ( Kibana ) 中可用的大量 Json 数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60408359/

相关文章:

python - 如何派生 Tkinter 小部件?

json - 如何从Elasticsearch的JSON日志中排除堆栈跟踪

sql - 使用Grails插件将SQL查询转换为Java Elasticsearch查询

elasticsearch - 提高跨度附近

python - 我如何找到勒让德符号?

python - 乘法作为基于另一个函数的重复加法?

python - 为什么 NumPy 数组优于标准库数组?

c# - 使用 json.net 解析嵌套的 json

php - 在 PHP 中处理 FQL 返回的大用户 ID

optimization - 使用ElasticSearch Scroll API时,如何现场优化时间参数?