r - 如何避免在 R 中使用 keras 使用预训练/外部模型进行图像分类

标签 r deep-learning keras tidyverse

我有以下代码。数据集可下载herehere 。该数据集包含分类为 catdog 的图像。

这段代码的任务是训练猫和狗的图像数据。 因此,只要给定一张图片,它就可以分辨出这是猫还是狗。 正是出于这个page 。以下是完整运行的代码:

library(keras)


# Organize dataset --------------------------------------------------------
options(warn = -1)

# Ths input
original_dataset_dir <- "data/kaggle_cats_dogs/original/"


# Create new organized dataset directory ----------------------------------

base_dir <- "data/kaggle_cats_dogs_small/"
dir.create(base_dir)

train_dir <- file.path(base_dir, "train")
dir.create(train_dir)

validation_dir <- file.path(base_dir, "validation")
dir.create(validation_dir)

test_dir <- file.path(base_dir, "test")
dir.create(test_dir)

train_cats_dir <- file.path(train_dir, "cats")
dir.create(train_cats_dir)

train_dogs_dir <- file.path(train_dir, "dogs")
dir.create(train_dogs_dir)

validation_cats_dir <- file.path(validation_dir, "cats")
dir.create(validation_cats_dir)

validation_dogs_dir <- file.path(validation_dir, "dogs")
dir.create(validation_dogs_dir)

test_cats_dir <- file.path(test_dir, "cats")
dir.create(test_cats_dir)

test_dogs_dir <- file.path(test_dir, "dogs")
dir.create(test_dogs_dir)

# Copying files from original dataset to newly created directory
fnames <- paste0("cat.", 1:1000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames), 
          file.path(train_cats_dir)) 


fnames <- paste0("cat.", 1001:1500, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames), 
          file.path(validation_cats_dir))

fnames <- paste0("cat.", 1501:2000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(test_cats_dir))

fnames <- paste0("dog.", 1:1000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(train_dogs_dir))

fnames <- paste0("dog.", 1001:1500, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(validation_dogs_dir)) 

fnames <- paste0("dog.", 1501:2000, ".jpg")
dum <- file.copy(file.path(original_dataset_dir, fnames),
          file.path(test_dogs_dir))

options(warn = -1)

# Making model ------------------------------------------------------------


conv_base <- application_vgg16(
  weights = "imagenet",
  include_top = FALSE,
  input_shape = c(150, 150, 3)
)


model <- keras_model_sequential() %>% 
  conv_base %>%
  layer_flatten() %>% 
  layer_dense(units = 256, activation = "relu") %>% 
  layer_dense(units = 1, activation = "sigmoid")

summary(model)

length(model$trainable_weights)
freeze_weights(conv_base)
length(model$trainable_weights)



# Train model -------------------------------------------------------------

train_datagen = image_data_generator(
  rescale = 1/255,
  rotation_range = 40,
  width_shift_range = 0.2,
  height_shift_range = 0.2,
  shear_range = 0.2,
  zoom_range = 0.2,
  horizontal_flip = TRUE,
  fill_mode = "nearest"
)

# Note that the validation data shouldn't be augmented!
test_datagen <- image_data_generator(rescale = 1/255)  

train_generator <- flow_images_from_directory(
  train_dir,                  # Target directory  
  train_datagen,              # Data generator
  target_size = c(150, 150),  # Resizes all images to 150 × 150
  batch_size = 20,
  class_mode = "binary"       # binary_crossentropy loss for binary labels
)

validation_generator <- flow_images_from_directory(
  validation_dir,
  test_datagen,
  target_size = c(150, 150),
  batch_size = 20,
  class_mode = "binary"
)


# Compile model -----------------------------------------------------------

model %>% compile(
  loss = "binary_crossentropy",
  optimizer = optimizer_rmsprop(lr = 2e-5),
  metrics = c("accuracy")
)


# Evaluate  ---------------------------------------------------------------

history <- model %>% fit_generator(
  train_generator,
  steps_per_epoch = 100,
  epochs = 30,
  validation_data = validation_generator,
  validation_steps = 50
)


# Plot --------------------------------------------------------------------
plot(history)

上面的例子需要下载外部模型 (经过网络训练的 ImageNet)数据集采用 VGG16 架构,功能齐全。

conv_base <- application_vgg16(
  weights = "imagenet",
  include_top = FALSE,
  input_shape = c(150, 150, 3)
)


model <- keras_model_sequential() %>% 
  conv_base %>%
  layer_flatten() %>% 
  layer_dense(units = 256, activation = "relu") %>% 
  layer_dense(units = 1, activation = "sigmoid")

对于cat/dog数据集,这是合理的。因为VGG16还包含 猫和狗。

实际上,我正在执行相同的任务,对两种类型的生物细胞而不是两种动物进行分类。所以代码是合适的,除了,似乎我不能使用 VGG16 作为模型,因为内容不同。

如果没有conv_base,我该如何编写代码(合理的模型)? 如果我仍然必须使用外部模型,那么合理的替代方案是什么?

最佳答案

嗯......合理的模型可能是一个非常广泛且开放的问题。

您应该首先关注@Matias Valdenegro 的评论,如果您的结果不好,那么您可以尝试这些解决方案。

VGG16解决方案

首先,最简单的是,您可以使用 VGG16 模型而不卡住其权重,只需不调用 freeze_weights() 即可。

这将使 VGG16 模型重新训练以满足您的需求。但另一方面,你的训练将花费更长的时间,因为需要训练的重量要多得多。

在此选项中,您还可以选择不下载预训练的 VGG16 权重,方法是将 weights = "imagenet" 替换为 weights=None(或 R 版本“无”,我认为是NULL)。这将创建一个完全未经训练的 VGG16 模型。

创建自定义模型

现在,这确实是一个充满可能性的世界。无论您使用的是卷积层、密集层还是它们的混合,选择多少个过滤器、单元等。

一个建议是:访问 VGG16 代码并查看它的架构。这是一个很好的图像分类模型。您可以复制其代码,并且如果需要,可以进行一些更改,例如减少过滤器和/或图层的数量(因为对两种类型的单元格进行分类可能比对任何类型的图像进行分类要容易得多)。

你可以看到它有五个Conv2D+Conv2D+MaxPooling2D block 。您可以在模型中尝试 2 或 3 个模块,看看是否足以对细胞进行分类。

Python中的代码是here ,但是你大概可以理解如何在 R 中做到这一点,你只需要看看使用了哪些层。其他型号可在 applications folder 中找到。 .

关于r - 如何避免在 R 中使用 keras 使用预训练/外部模型进行图像分类,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48457896/

相关文章:

javascript - 未捕获( promise )错误 : Provided weight data has no target variable: block1_conv1_2/kernel

python - 一些 Python 对象未绑定(bind)到检查点值

python - 将 Matlab 连接到 TensorFlow

machine-learning - 批量归一化而不是输入归一化

Rstudio 加载工作区失败

deep-learning - CNN输入层有多少个神经元?

python - 尝试复制 Python 结果时 Keras 错误

r - 设置带有刻度的分类轴标签 "free"ggplot2

R 在 for 循环中使用 tryCatch 将带有错误值的行添加到输出

r - knitr:在报告中包含数字*和*输出数字以分隔文件