r - 在 MNIST 数字识别数据集上表现不佳

标签 r machine-learning pca mnist

我一直在研究 MNIST 数字识别数据集,但我有点卡住了。我阅读了一些研究论文并实现了我所理解的一切。基本上我所做的是,我首先创建训练集和交叉验证集来评估我的分类器,然后在测试集和训练集上运行 PCA,之后使用 KNN 和 SVM 执行分类任务。我面临的主要问题是,我应该在所有数据集上运行 PCA,然后将训练集和交叉验证集分开,还是将它们分开,然后在交叉验证测试和训练集上单独运行 PCA。我很抱歉询问我已经尝试过的事情,因为我已经尝试了这两种情况,在第一种情况下,我的分类器表现出色,因为我猜 PCA 在创建调整我的结果的主要组件时使用测试数据集,并且可能是这是我的模型存在偏差的原因,在其他情况下,性能大约为 20% 到 30%,这是非常低的。所以我有点困惑如何改进我的模型,非常感谢任何帮助和指导,我已将我的代码粘贴在下面以供引用。

library(ggplot2)
library(e1071)
library(ElemStatLearn)
library(plyr)
library(class)

import.csv <- function(filename){
  return(read.csv(filename, sep = ",", header = TRUE, stringsAsFactors = FALSE))
}

train.data <- import.csv("train.csv")
test.data <- train.data[30001:32000,]
train.data <- train.data[1:6000,]

#Performing PCA on the dataset to reduce the dimensionality of the data

get_PCA <- function(dataset){
  dataset.features <- dataset[,!(colnames(dataset) %in% c("label"))]
  features.unit.variance <- names(dataset[, sapply(dataset, function(v) var(v, na.rm=TRUE)==0)])
  dataset.features <- dataset[,!(colnames(dataset) %in% features.unit.variance)]
  pr.comp <- prcomp(dataset.features, retx = T, center = T, scale = T)
  #finding the total variance contained in the principal components
  prin_comp <- summary(pr.comp)
  prin_comp.sdev <- data.frame(prin_comp$sdev)
  #print(paste0("%age of variance contained = ", sum(prin_comp.sdev[1:500,])/sum(prin_comp.sdev)))
  screeplot(pr.comp, type = "lines", main = "Principal Components")
  num.of.comp = 50
  red.dataset <- prin_comp$x
  red.dataset <- red.dataset[,1:num.of.comp]
  red.dataset <- data.frame(red.dataset)
  return(red.dataset)
}

#Perform k-fold cross validation 

do_cv_class <- function(df, k, classifier){
  num_of_nn = gsub("[^[:digit:]]","",classifier)
  classifier = gsub("[[:digit:]]","",classifier)
  if(num_of_nn == "")
  {
    classifier = c("get_pred_",classifier)
  }
  else
  {
    classifier = c("get_pred_k",classifier)
    num_of_nn = as.numeric(num_of_nn)
  }
  classifier = paste(classifier,collapse = "")
  func_name <- classifier
  output = vector()
  size_distr = c()
  n = nrow(df)
  for(i in 1:n)
  {
    a = 1 + (((i-1) * n)%/%k)
    b = ((i*n)%/%k)
    size_distr = append(size_distr, b - a + 1)
  }

  row_num = 1:n
  sampling = list()
  for(i in 1:k)
  {
    s = sample(row_num,size_distr)
    sampling[[i]] = s
    row_num = setdiff(row_num,s)
  }
  prediction.df = data.frame()
  outcome.list = list()

  for(i in 1:k)
  {
    testSample = sampling[[i]]
    train_set = df[-testSample,]
    test_set = df[testSample,]    

    if(num_of_nn == "")
    {
      classifier = match.fun(classifier)
      result = classifier(train_set,test_set)
      confusion.matrix <- table(pred = result, true = test_set$label)
      accuracy <- sum(diag(confusion.matrix)*100)/sum(confusion.matrix)
      print(confusion.matrix)
      outcome <- list(sample_ID = i, Accuracy = accuracy)
      outcome.list <- rbind(outcome.list, outcome)
    }
    else
    {

      classifier = match.fun(classifier)
      result = classifier(train_set,test_set)
      print(class(result))
      confusion.matrix <- table(pred = result, true = test_set$label)
      accuracy <- sum(diag(confusion.matrix)*100)/sum(confusion.matrix)
      print(confusion.matrix)
      outcome <- list(sample_ID = i, Accuracy = accuracy)
      outcome.list <- rbind(outcome.list, outcome)
    }
  }
  return(outcome.list)
}

#Support Vector Machines with linear kernel

get_pred_svm <- function(train, test){
  digit.class.train <- as.factor(train$label)
  train.features <- train[,-train$label]
  test.features <- test[,-test$label]
  svm.model <- svm(train.features, digit.class.train, cost = 10, gamma =  0.0001, kernel = "radial")
  svm.pred <- predict(svm.model, test.features)
  return(svm.pred)
}

#KNN model
get_pred_knn <- function(train,test){
  digit.class.train <- as.factor(train$label)
  train.features <- train[,!colnames(train) %in% "label"]
  test.features <- test[,!colnames(train) %in% "label"]
  knn.model <- knn(train.features, test.features, digit.class.train)
  return(knn.model)
}

================================================== =========================

最佳答案

将 PCA 视为应用于数据的转换。您需要保留两件事:

  1. 由于测试集模拟了“现实世界”的情况,即您获得以前没有见过的样本,因此除了评估分类器之外,您不能使用测试集进行任何其他操作。
  2. 您需要对所有样本应用相同的转换。

因此,需要对训练集应用PCA,保留变换数据,这是两条信息:

  1. 为了集中样本而从样本中减去的平均值。
  2. 变换矩阵,即协方差矩阵的特征向量

并对测试集应用相同的转换。

关于r - 在 MNIST 数字识别数据集上表现不佳,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24176410/

相关文章:

matlab - PCA 在 3D 图像上获得 3 个主轴

linear-algebra - 如何使用 PCA 进行预测

python - Python 中 PCA 图中的项目变量

r - 如何使用lappy删除R中列表中元素的插槽

R 组按聚合

python - 通过线性回归进行 tensorflow 图像分割

python - 如何限制 TFLearn 中的 GPU 内存使用?

r - 如何使用dplyr复制使用自定义函数的ddply行为?

R - 提高插入符::训练函数的性能

python - 如何在 Keras 中实现 Sklearn Metric 作为 Metric?