python - 如何在 IBM 的 Spark 服务上列出预装的 Python 包

标签 python apache-spark ibm-cloud data-science-experience watson-studio

2019 年 8 月更新:此问题不再相关。它指的是已退役的 Apache Spark 即服务产品。 Watson Studio 中的当前 Spark 后端使用不同的技术。

在 Python 笔记本中,我可以执行 !pip freeze 来获取已安装包的列表。但是结果是一个空列表,或者只显示我自己安装的几个包。直到几周前,该命令会返回所有软件包的列表,包括 IBM 预安装的软件包。我现在如何获得完整列表?

最佳答案

!PIP_USER= pip freeze

IBM 设置环境变量 PIP_USER 以默认启用 --user 选项。那是因为许多用户忘记为 pip install 指定该选项。不幸的是,这也启用了 pip freeze 的选项,而这可能是不需要的。因此,您必须覆盖默认选项以获取已安装软件包的完整列表。

从环境变量中忽略默认选项的替代方法:

  • !pip freeze --isolated
  • !env -i pip freeze

关于python - 如何在 IBM 的 Spark 服务上列出预装的 Python 包,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38968367/

相关文章:

python - asyncio.Task 中的 "async with"不工作

performance - Apache Spark/Cassandra 集群上的过度分区(任务过多)

scala - 对于 ETL,ORC 性能真的比 Spark SQL 更好的 Tez 上的 Hive 吗?

mongodb - 将 Cloudant 服务与 Bluemix 分开

cloud-foundry - 当我看到对 `?/0` 命令的 `cf apps` 响应时,我的 Bluemix CF 应用程序是否正在运行?

testing - 通过 Bluemix DevOps 服务在容器内运行测试

python - 使用 Graph API 和 Python 发布到 Facebook 群组

python - 在文件中查找大于 32KB 的零个 block

python - 如何在执行某些操作时融化数据帧?

apache-spark - Spark : aggregate versus map and reduce