google-cloud-platform - GCP Vertex AI 中的批量预测

标签 google-cloud-platform google-cloud-vertex-ai

在 GCP Vertex AI 中尝试对 AutoML 模型进行批量预测时,批量预测结果跨越多个文件(从用户角度来看这并不方便)。如果它是单个批量预测结果文件,即覆盖单个文件中的所有记录,则会使过程更加简单。

例如,我的输入数据集文件中有 5585 条记录。批量预测结果由21个文件组成,每个文件的记录范围为200-300条,总共5585条记录。

最佳答案

对图像、文本、视频、表格 AutoML 模型进行批量预测,使用分布式处理运行作业,这意味着数据分布在任意虚拟机集群中,并以不可预测的顺序进行处理,因此您将获得预测结果存储在 Cloud Storage 中的各种文件中。由于批量预测输出文件的生成顺序与输入文件不同,因此已提出功能请求,您可以从此 link 跟踪此请求的更新。 .

我们目前无法提供预计到达时间,但您可以在问题跟踪器中关注进度,并且可以“标记”该问题以接收自动更新并引用此 link 给予关注。 .

但是,如果您正在对 tabular AutoML model 进行批量预测,您可以选择 BigQuery 作为存储,其中所有预测输出将存储在单个表中,然后您可以将表数据导出到单个 CSV 文件。

关于google-cloud-platform - GCP Vertex AI 中的批量预测,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69689785/

相关文章:

node.js - 修改示例 Hello World Node.js 代码在 Google Compute Engine 中未生效

encryption - 加密存储在远程后端(如 GCS 存储桶)上的 Terraform 状态是否有用?

google-cloud-platform - 将 Google Dataproc 查询的输出重定向到文本文件

谷歌云顶点 AI 与 Golang : rpc error: code = Unimplemented desc = unexpected HTTP status code received from server: 404 (Not Found)

google-cloud-platform - 以编程方式启用 Vertex AI Managed Notebook 实例中已安装的扩展

google-cloud-platform - Vertex AI Endpoints 在增加副本数量之前先缩放至 0

python - 谷歌云函数 : How to get access tokens in cloud function for the required scope?

google-cloud-platform - GCP 顶点 - 获取已部署模型 ID 的直接方法

google-cloud-platform - 为什么我会收到 AttributeError : module 'google_cloud_pipeline_components.aiplatform' has no attribute 'EndpointDeleteOp' in GCP?

python - 混合使用 GAE 实例和 GCE VM