<分区>
我目前正在开展一个项目,以提取有关 Wikipedia FR 中 Acadie 门户的定性和定量(统计)数据。有 1905 个条目和 16 个变量。
每次我使用以下代码加载所有统计数据时,加载都需要一些时间。 有没有办法将此 data.frame 保存在我的计算机上并再次加载它以备将来快速使用,同时保持其井井有条?
# Basic information ----
library("WikipediR")
# Function
# How to make function outside of apply: https://ademos.people.uic.edu/Chapter4.html#:~:targetText=vapply%20is%20similar%20to%20sapply,VALUE).&targetText=VALUE%20is%20where%20you%20specify,single%20numeric%20value%2C%20so%20FUN.
pageInfo_fun <- function(portalAcadie_titles){
page_info(language = "fr",
project = "wikipedia",
page = portalAcadie_titles,
properties = c("url"),
clean_response = T, Sys.sleep(0.0001))} # Syssleep to prevent quote violation.
pageInfo_data <- apply(portalAcadie_titles,1, pageInfo_fun)
# Transform into dataframe
library("tidyverse")
pageInfo_df <- data.frame(map_dfr(pageInfo_data, ~flatten(.)))
当我尝试将它保存到 csv,然后使用 ff 包和 read.csv.ffdf() 时,它没有给我一个可用的数据框。它将所有变量和观察结果合并为一个观察结果,其中包含 20 000 个左右的变量。