我想将10行以上的数据插入到Task表中,因此我创建了这些记录的列表。除了我的表之外,我还有一个具有创建、更新等功能的存储库。所以我可以使用create一个函数来添加一条记录,但我想使用这个函数来批量插入数据。
case class Task (
idTask: Option[Long],
ownerId: Long,
name: String,
finished: Boolean
)
class TaskTable(tag: Tag) extends Table[Task](tag, "tasks"){
val idTask = column[Long]("id_task", O.PrimaryKey)
val ownerId = column[Long]("owner")
val name = column[String]("name")
val finished = column[Boolean]("finished")
val ownerFk = foreignKey("owner_id_fk", ownerId, TableQuery[UserTable])(_.idUser)
def * = (idTask.?, ownerId, name, finished) <> (Task.apply _ tupled, Task.unapply)
}
object TaskTable{
lazy val table = TableQuery[TaskTable]
}
class TaskRepository(db: Database) {
val taskTableQuery = TableQuery[TaskTable]
def create(task: Task): Future[Task] =
db.run(taskTableQuery returning taskTableQuery += task)
def createTasks(tasks: List[Task]): Future[Option[Task]] =
db.run(taskTableQuery ++= tasks)
def update(task: Task): Future[Int] =
db.run(taskTableQuery.filter(_.idTask === task.idTask).update(task))
def delete(task: Task): Future[Int] =
db.run(taskTableQuery.filter(_.idTask === task.idTask).delete)
def getById(task: Task): Future[Option[Task]] =
db.run(taskTableQuery.filter(_.idTask === task.idTask).result.headOption)
}
我尝试过做这样的事情:
val tasks = List(
Task(Some(1), 1,"Analyze logs with Spark", false),
Task(Some(2), 1,"Clean and process data", false),
...
)
val createTasks = tasks.map(taskRepository.create(_))
但是这个 createTasks 值的类型为 Unit,我无法使用 db.run
或 Await.result
运行它。由于返回类型不匹配,我的方法 createTasks 无法编译。
那么我该如何创建这种批量插入的方法或更改现有的方法呢?
我将非常感谢任何帮助!
最佳答案
如果您知道编译时的操作,请使用 DBIO.seq()链接数据库操作:
db.run(
DBIO.seq( taskTableQuery += Task(....),
taskTableQuery += Task(....),
taskTableQuery += Task(....)...
).transactionally
)
否则,使用DBIO.sequence
:
val taskSeq:Seq[Task] = ... however you get the tasks
db.run(
DBIO.sequence( taskSeq.map(t=>taskTableQuery+=t) ).transactionally
)
关于postgresql - 批量插入记录 Slick,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47490469/