我尝试更新 kibana 中的 json 数据,由于数据量太大而抛出异常。
"statusCode": 413,
"error": "Request Entity Too Large",
"message": "Payload content length greater than maximum allowed: 1048576"
如何使用 python 以编程方式更新这个巨大的 json,而不是在 kibana 中直接更新?任何人都可以建议解决这个问题。提前致谢。
使用python连接kibana的代码:
from elasticsearch import Elasticsearch
import pandas as pd
import pymysql
es = Elasticsearch("https://pd-analytics.example.com")
if es.ping():
print("Yeah connect")
else:
print("couldn't connect")
from elasticsearch_dsl import Search
from elasticsearch_dsl import connections
connections.create_connection(hosts=['https://pd-analytics.example.com'])
s = Search(index="projectdetails")
response = s.scan()
最佳答案
您已达到 kibana.yml
中设置的限制。默认值设置为 1048576
,这是您在响应中看到的内容。您可以编辑 server.maxPayloadBytes
字段来增加限制以满足您的条件。您可以查看配置文件 here 中可用的其他选项.
关于python - 如何使用 python 更新 Elastic Search ( Kibana ) 中可用的大量 Json 数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60408359/