memory-management - Redshift 查询 : error xx000 disk full redshift

标签 memory-management out-of-memory amazon-redshift

我执行了下面的查询

select employee_name, max(employee_dept) as dept
from employeeDB 
where employee_name is not null and employee_name != ''
group by employee_name
order by employee_name asc
limit 1000

并收到错误 ERROR: XX000: Disk Full

通过执行以下查询进行调查后,我发现我有 94​​1 GB 的可用空间和 5000 GB 的已用空间。

select
  sum(capacity)/1024 as capacity_gbytes, 
  sum(used)/1024 as used_gbytes, 
  (sum(capacity) - sum(used))/1024 as free_gbytes 
from 
  stv_partitions where part_begin=0;

任何人都可以建议如何缓解这一挑战,以便我可以获得预期的结果吗?

最佳答案

可用磁盘空间对于在 Redshift 上执行查询很重要。这就是为什么 VACUUM 过程很重要并且应该定期执行的原因,尤其是对于经常发生删除的表。

你最近吸过你的 table 吗?

检查 VACUUM documentation并查看 Amazon Redshift at 100% disk usage due to VACUUM query StackOverflow 上的问题。

关于memory-management - Redshift 查询 : error xx000 disk full redshift,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42762587/

相关文章:

c++ - vector 的错误内存分配 C++

python - 内存使用情况,如何释放内存

Java堆空间不足: after -XmX1G

amazon-web-services - 如何从 Kinesis -> Redshift 批量复制数据

postgresql - 为 ASP.NET Core 5.0 配置 PostgreSQL 连接字符串 - EF Core 5.0 Web 应用程序在 MS 或 Linux 云上运行?

iphone - 核心数据 - 如何检查托管对象的属性是否已被释放?

c++ - GCD-> block ->C++->SQLCipher : Sqlite3MemMalloc memory does not release after task completion

java - 异常: java. lang.OutOfMemoryError,无法创建新的 native 线程

python Pycharm : Out of memory when loading large JSON files

sql - 使用 Amazon Redshift/PostgreSQL 进行漏斗查询