我使用 python 进行编码,使用 psql 保存数据。 我的问题是,当我写入数据库时,大约需要 2-3 分钟。 数据大小约为 1,200,000(行)和 3 列。
插入功能:
def store_data(cur,table_name,data):
cur.executemany(
"INSERT INTO"+" "+table_name+" "+"(name, date,id) VALUES (%s, %s, %s)",
[(data[i][0], data[i][1], data[i][2]) for i in xrange(0,len(data))]
)
cur.connection.commit()
如何加速函数?
最佳答案
使用COPY
命令。 Postgres Documentation 。另请查看 psycopg documentation复制。
一些数字:300万行的单独插入:3小时。使用 COPY:7 秒。
关于sql - 使用 PostgreSQL 加快数据库中插入表的速度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46014168/