我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,但收到以下错误。
“所选文件‘文件名’必须介于 1 到 2097152 字节之间”
选择的流单元数量为3。如何让流分析读取大的Json文件作为输入?
最佳答案
我认为这是ASA作业测试的限制,您只能在查询编辑器中上传2M以下的json文件。
基于statements在官方文档中。
For scenarios with large quantities of unstructured data to store in the cloud, Azure Blob storage offers a cost-effective and scalable solution. Data in Blob storage is usually considered data at rest; however, blob data can be processed as a data stream by Stream Analytics.
我建议您将大尺寸的 json 文件存储到 blob 存储中,它将作为数据流进行处理。
关于azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56036696/