azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入

标签 azure azure-stream-analytics stream-analytics

我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,但收到以下错误。

“所选文件‘文件名’必须介于 1 到 2097152 字节之间”

选择的流单元数量为3。如何让流分析读取大的Json文件作为输入?

最佳答案

我认为这是ASA作业测试的限制,您只能在查询编辑器中上传2M以下的json文件。

enter image description here

基于statements在官方文档中。

For scenarios with large quantities of unstructured data to store in the cloud, Azure Blob storage offers a cost-effective and scalable solution. Data in Blob storage is usually considered data at rest; however, blob data can be processed as a data stream by Stream Analytics.

我建议您将大尺寸的 json 文件存储到 blob 存储中,它将作为数据流进行处理。

关于azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56036696/

相关文章:

azure - 流分析查询联合

Azure 上的 Linux 虚拟机 - 如何应用 IP 限制

azure - Visual Studio 2013 和 Azure Web 应用程序

Azure 流分析 - 沿流查询

azure - 为什么 Azure 流分析将数据输出到单独的文件?

sql - Azure 流分析 - 计算线性回归

azure - 流分析无法立即处理,恒定 5 秒水印

azure - 发布工件任务不在文件共享路径上发布代码

请求 Azure Web 角色的方法时,C# HttpWebRequest.GetResponse() 挂起

Azure IoT + 使用 blob 数据进行流分析