python - 拟合中的神经网络 - 乳腺癌数据集

标签 python machine-learning neural-network deep-learning classification

我正在尝试创建一个神经网络,用于对乳腺癌数据集进行二元分类:

https://www.kaggle.com/uciml/breast-cancer-wisconsin-data

我的神经网络由 3 层组成(不包括输入层):

第一层:6 个具有 tanh 激活的神经元。

第二层:6 个具有 tanh 激活的神经元。

最后一层:1 个具有 sigmoid 激活的神经元。

不幸的是,我在训练示例中仅获得了约 44% 的准确率,在测试示例中仅获得了约 23% 的准确率。

这是我的Python代码:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

data = pd.read_csv("data.csv")
data = data.drop(['id'], axis = 1)
data = data.drop(data.columns[31], axis = 1)
data = data.replace({'M': 1, 'B': 0})

X = data
X = X.drop(['diagnosis'], axis = 1)
X = np.array(X)

X_mean = np.mean(X, axis = 1, keepdims = True)
X_std = np.std(X, axis = 1, keepdims = True)
X_n = (X - X_mean) / X_std
y = np.array(data['diagnosis'])
y = y.reshape(569, 1)
m = 378
y_train = y[:m, :]
y_test = y[m:, :]

X_train = X_n[:m, :]
X_test = X_n[m:, :]

def sigmoid(z):
  return 1 / (1 + np.exp(-z))

def dsigmoid(z):
  return np.multiply(z, (1 - z))

def tanh(z):
  return (np.exp(z) - np.exp(-z)) / (np.exp(z) + np.exp(-z))

def dtanh(z):
  return 1 - np.square(tanh(z))

def cost(A, Y):
  m = Y.shape[0]
  return -(1.0/m) *np.sum( np.dot(Y.T, np.log(A)) + np.dot((1 - Y).T, np.log(1-A)))

def train(X, y ,model, epocs, a):
  W1 = model['W1']
  W2 = model['W2']
  W3 = model['W3']

  b1 = model['b1']
  b2 = model['b2']
  b3 = model['b3']

  costs = []

  for i in range(epocs):

    #forward propagation

    z1 = np.dot(X, W1) + b1
    a1 = tanh(z1)

    z2 = np.dot(a1, W2) + b2
    a2 = tanh(z2)

    z3 = np.dot(a2, W3) + b3
    a3 = sigmoid(z3)

    costs.append(cost(a3, y))

    #back propagation

    dz3 = z3 - y
    d3 = np.multiply(dz3, dsigmoid(z3))
    dW3 = np.dot(a2.T, d3)
    db3 = np.sum(d3, axis = 0, keepdims=True)

    d2 = np.multiply(np.dot(d3, W3.T),  dtanh(z2))
    dW2 = np.dot(a1.T, d2)
    db2 = np.sum(d2, axis = 0, keepdims=True)

    d1 = np.multiply(np.dot(d2, W2.T), dtanh(z1))
    dW1 = np.dot(X.T, d1)
    db1 = np.sum(d1, axis = 0, keepdims=True)

    W1 -= (a / m) * dW1
    W2 -= (a / m) * dW2
    W3 -= (a / m) * dW3

    b1 -= (a / m) * db1
    b2 -= (a / m) * db2
    b3 -= (a / m) * db3

  cache = {'W1': W1, 'W2': W2, 'W3': W3, 'b1': b1, 'b2': b2, 'b3': b3}
  return cache, costs

np.random.seed(0)

model = {'W1': np.random.rand(30, 6) * 0.01, 'W2': np.random.rand(6, 6) * 0.01, 'W3': np.random.rand(6, 1) * 0.01, 'b1': np.random.rand(1, 6), 'b2': np.random.rand(1, 6), 'b3': np.random.rand(1, 1)}

model, costss = train(X_train, y_train, model, 1000, 0.1)

plt.plot([i for i in range(1000)], costss)
print(costss[999])
plt.show()



def predict(X,y ,model):
  W1 = model['W1']
  W2 = model['W2']
  W3 = model['W3']

  b1 = model['b1']
  b2 = model['b2']
  b3 = model['b3']

  z1 = np.dot(X, W1) + b1
  a1 = tanh(z1)

  z2 = np.dot(a1, W2) + b2
  a2 = tanh(z2)

  z3 = np.dot(a2, W3) + b3
  a3 = sigmoid(z3)

  m = a3.shape[0]
  y_predict = np.zeros((m, 1))

  for i in range(m):
    y_predict = 1 if a3[i, 0] > 0.5 else 0
  return y_predict

感谢您的帮助:)

最佳答案

我认为你的反向传播有问题(我做了一个快速测试,并在 Tensorflow 上尝试了你的模型,它在训练和测试数据上都达到了 92% 左右的准确率)。

我对您的代码进行了以下修改:

dz3 = a3 - y

d3 = np.multiply(dz3, dsigmoid(a3))

此外,您的函数预测仅返回一个数字,而它应该返回与示例一样多的数字,因此而不是

y_predict = np.zeros((m, 1)) 对于范围 (m) 内的 i: y_predict = 1 如果 a3[i, 0] > 0.5 否则 0 返回 y_预测

我将这部分更改为

y_predict[a3[:,0] > 0.5] = 1 返回 y_预测

我进行了 2000 个 epoch 的训练,并将学习率提高到 1 (a=1)

关于python - 拟合中的神经网络 - 乳腺癌数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52358505/

相关文章:

machine-learning - Tensorflow:恢复 session 后重新打开队列时遇到问题

c++ - 未调用 Caffe Layer 函数

python - 具有不同输入大小的 Keras 共享层

machine-learning - 神经网络小批量梯度下降

python - 如何仅预测标签而不是概率

python - 将值附加到序列化器数据

python - 如何在 python 中添加暂停而不干扰其他代码

python - 如何创建一个数据框,其中日期范围作为列中的值?

python - 拯救随机森林

python - 相同形式的数据集有两种不同的形状