matlab - 逻辑回归 - 计算成本函数返回错误结果

标签 matlab machine-learning logistic-regression gradient-descent

我刚开始在 Machine Learning 上 Andrew Ng 的类(class)在 Coursera 上。 第三周的主题是逻辑回归,所以我尝试实现以下成本函数。

Cost function

假设定义为: Hypothesis

其中 g 是 sigmoid 函数: Sigmoid

这就是我的函数目前的样子:

function [J, grad] = costFunction(theta, X, y)

m = length(y); % number of training examples
S = 0;
J = 0;

for i=1:m
    Yi = y(i);
    Xi = X(i,:);
    H = sigmoid(transpose(theta).*Xi);
    S = S + ((-Yi)*log(H)-((1-Yi)*log(1-H)));
end

J = S/m;

end

给定以下值

X = [magic(3) ; magic(3)];
y = [1 0 1 0 1 0]';
[j g] = costFunction([0 1 0]', X, y)

j 返回 0.6931 2.6067 0.6931,即使结果应为 j = 2.6067。我假设 Xi 有问题,但我看不到错误。

如果有人能指出正确的方向,我将不胜感激。

最佳答案

您应该将 sigmoid 函数应用于参数向量 (theta) 和输入向量(Xi,在本例中为行向量)的点积。所以,你应该改变

H = sigmoid(transpose(theta).*Xi);

H = sigmoid(theta' * Xi'); % or sigmoid(Xi * theta)

当然,您需要确保将偏置输入 1 添加到您的输入中(一行 1 到 X)。

接下来,考虑如何将整个操作矢量化,以便可以在没有任何循环的情况下编写它。这样它会快得多。

关于matlab - 逻辑回归 - 计算成本函数返回错误结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31325834/

相关文章:

tensorflow - keras 训练的 DenseNet 模型的 TensorFlow-lite 转换的量化性能差异很大

python - 逻辑回归内存错误

matlab - 如何在 "clear all"之后恢复 MATLAB 中的断点?

matlab - 如何确定函数句柄的输入参数的大小

python - 如何使用 Keras 预训练 MLP 的最后一个隐藏层权重作为新 MLP(迁移学习)的输入?

python-3.x - 逻辑回归,混淆矩阵第二列显示零

r - R 中逻辑回归的交叉验证函数

python - 将无法向量化的 `for`循环转换为稀疏矩阵

matlab - 我可以及时向后运行 ode45 吗?

tensorflow - 我必须将数据集转换为 Google Cloud ML Engine 的 TFRecords 吗?