python - 如何调整 MLPRegressor?

标签 python scikit-learn neural-network regression

我目前有一个包含变量和观察值的数据集。我想预测一个变量(需求),它是一个连续的变量,因此我需要使用回归模型。我尝试使用 Linear Regression,并使用 R2 指标对其进行评估,该指标约为 0.85。我想评估它与其他模型的性能,其中之一是 NNs。我相信神经网络更适合分类等其他任务,但我还是想尝试一下。

我决定使用 scikit-learn 主要是因为它提供了两种模型(线性回归和多层感知器),问题是 R2 指标太过分了与线性回归的相比差。因此,我得出结论,我遗漏了许多重要的配置。您可以在下面看到我的代码以及数据的来源。

我的数据有以下列,只有demand(这是我的标签),populationgdpdayyear 是数字连续的,其余的是分类的。

['demand','holy','gdp','population', 'day','year', 'f0', 'f1', 'f2', 'f3', 'f4','f5', 'f6', 'f7', 'f8', 'f9', 'f10', 'f11', 'f12', 'f13', 'f14', 'f15', 'f16', 'f17', 'f18', 'f19', 'f20', 'f21', 'f22', 'f23', 'g0', 'g1', 'g2', 'g3', 'g4', 'g5', 'g6', 'g7', 'g8', 'g9', 'g10', 'g11']

这就是我实际做的,我删除了一些输出。

import pandas as pd
import numpy as np
import math as math

from sklearn.linear_model import LinearRegression
from sklearn.neural_network import MLPRegressor
from sklearn.metrics import r2_score



training_data, validation_data = np.split(data.sample(frac=1), [int(.8*len(data))])

linear_model = LinearRegression().fit(training_data[[c for c in data.columns if c != "demand"]], training_data[["demand"]])

validation_data_predictions = linear_model.predict(validation_data[[c for c in training_data.columns if c != "demand"]])

validation_predictions_pd = pd.DataFrame(data=validation_data_predictions, 
                                         index=validation_data.index.values,
                                         columns=["prediction"])

# join both pandas
result_df = validation_data.join(validation_predictions_pd, how="inner")

r2_error = r2_score(y_true=result_df[["demand"]], y_pred=result_df[["prediction"]], multioutput="uniform_average")

print(r2_error) # outputs 0.85


# NN section
clf = MLPRegressor(hidden_layer_sizes=(10,), max_iter=100000)

neural_model = clf.fit(training_data[[c for c in training_data.columns if c != "demand"]], training_data[["demand"]])

validation_data_predictions = neural_model.predict(validation_data[[c for c in training_data.columns if c != "demand"]])

validation_predictions_pd = pd.DataFrame(data=validation_data_predictions, 
                                     index=validation_data.index.values,
                                     columns=["prediction"])

result_df = validation_data.join(validation_predictions_pd, how="inner")

r2_error = r2_score(y_true=result_df[["demand"]], y_pred=result_df[["prediction"]], multioutput="uniform_average")
print(r2_error) # outputs 0.23

因此,如您所见,NN 的性能非常差。我认为它的性能可以提高,有什么提示吗?

最佳答案

  1. MLP 对特征缩放很敏感。您是否对数据进行了标准化处理?

  2. 修改您的网络结构:添加更多隐藏层并更改每层的感知器数量

  3. 将激活函数改为sigmod/tanh/relu等

关于python - 如何调整 MLPRegressor?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41308662/

相关文章:

python - Scikit-learn 教程出现折旧错误,如何更新?

python - 如何编写带有预加载的 caffe python 数据层?

python - 将空格分隔的元素拆分为单独的行

python - tensorflow : slow startup

python - scikit-learn joblib 错误 : multiprocessing pool self. 值超出 'i' 格式代码的范围,仅适用于大型 numpy 数组

.net - 查找重复模式的最佳算法

python - Keras 中 Conv1D 的数据形状问题

python - 开发算法可视化/模拟

Python请求模块连接超时

python - 值错误 : Dimension mismatch