google-cloud-platform - Airflow 安装故障梁[gcp]

标签 google-cloud-platform google-cloud-dataflow airflow apache-beam

使用命令安装 Airflow 失败

sudo pip3 install apache-airflow[gcp_api]

昨天一切正常。今天我看到以下错误:

Could not find a version that satisfies the requirement apache-beam[gcp]==2.3.0 (from google-cloud-dataflow->apache-airflow[gcp_api]) (from versions: 0.6.0, 2.0.0, 2.1.0, 2.1.1, 2.2.0)
No matching distribution found for apache-beam[gcp]==2.3.0 (from google-cloud-dataflow->apache-airflow[gcp_api])

有人可以帮我解决这个问题吗?

提前致谢

最佳答案

我也遇到了同样的问题:(

为什么? 最有可能发生的是因为在 apache-beam 的新版本(2.3.0)中,他们实际上添加了对 python3 的限制 https://pypi.python.org/pypi/apache-beam/2.3.0 Requires Python: >=2.7,<3.0 以前的软件包没有这个限制,这就是它之前可以工作的原因(如果您没有使用来自 gcp 的数据流)。

如何解决?

卸载 google-cloud-dataflow

pip3 uninstall google-cloud-dataflow

并安装版本2.2.0,其中包含旧版本的apache beam

pip install google-cloud-dataflow==2.2.0

帮我解决了这个问题,希望对你也有帮助

关于google-cloud-platform - Airflow 安装故障梁[gcp],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49047778/

相关文章:

即使端点进程完成后,Airflow 任务仍在运行

amazon-s3 - 使用 gsutil 从 GCP 同步到 S3

google-cloud-platform - 在 Google Cloud Platform 中启用双因素身份验证

google-app-engine - 如何使用 golang 中的命名空间从数据存储中查询实体?

java - Google Cloud Dataflow 服务帐户未传播给工作人员?

python - 如何从 Airflow 中的文件执行 SQL 查询? (PostgresQL 运算符)

google-cloud-platform - GCP - 如何使用 gcloud 过滤启动磁盘?

java - 使用 Apache Beam 将 Kafka Stream 输出写入多个目录

google-bigquery - 使用多字符定界符将存储在谷歌云存储上的数据加载到 BigQuery

stored-procedures - OperationalError : (1414, 'OUT or INOUT argument 1 for routine ' 存储过程名称'不是 BEFORE 触发器中的变量或 NEW 伪变量')