我是 TensorFlow 框架的新手,我正在尝试应用 TensorFlow 来预测基于泰坦尼克号数据集的幸存者:https://www.kaggle.com/c/titanic/data。
import tensorflow as tf
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
#%%
titanictrain = pd.read_csv('train.csv')
titanictest = pd.read_csv('test.csv')
df = pd.concat([titanictrain,titanictest],join='outer',keys='PassengerId',sort=False,ignore_index=True).drop(['Name'],1)
#%%
def preprocess(df):
df['Fare'].fillna(value=df.groupby('Pclass')['Fare'].transform('median'),inplace=True)
df['Fare'] = df['Fare'].map(lambda x: np.log(x) if x>0 else 0)
df['Embarked'].fillna(value=df['Embarked'].mode()[0],inplace=True)
df['CabinAlphabet'] = df['Cabin'].str[0]
categories_to_one_hot = ['Pclass','Sex','Embarked','CabinAlphabet']
df = pd.get_dummies(df,columns=categories_to_one_hot,drop_first=True)
return df
df = preprocess(df)
df = df.drop(['PassengerId','Ticket','Cabin','Survived'],1)
titanic_trainandval = df.iloc[:len(titanictrain)]
titanic_test = df.iloc[len(titanictrain):] #test after preprocessing
titanic_test.head()
# split train into training and validation set
labels = titanictrain['Survived']
y = labels.values
test = titanic_test.copy() # real test sets
print(len(test), 'test examples')
我在这里尝试对数据进行预处理:
1.Drop Name column and Do one hot coding both on the train and test set
2.为了简单起见,删除 ['PassengerId','Ticket','Cabin','Survived']。
- 拆分火车并按照原始顺序进行测试
"""# model training"""
from tensorflow.keras.layers import Input, Dense, Activation,Dropout
from tensorflow.keras.models import Model
X = titanic_trainandval.copy()
input_layer = Input(shape=(X.shape[1],))
dense_layer_1 = Dense(10, activation='relu')(input_layer)
dense_layer_2 = Dense(5, activation='relu')(dense_layer_1)
output = Dense(1, activation='softmax',name = 'predictions')(dense_layer_2)
model = Model(inputs=input_layer, outputs=output)
base_learning_rate = 0.0001
model.compile(loss=tf.keras.losses.BinaryCrossentropy(from_logits=True), optimizer=tf.keras.optimizers.Adam(lr=base_learning_rate), metrics=['acc'])
history = model.fit(X, y, batch_size=5, epochs=20, verbose=2, validation_split=0.1,shuffle = False)
submission = pd.DataFrame()
submission['PassengerId'] = titanictest['PassengerId']
然后我把训练集X放到模型中得到结果。但是,历史显示以下结果:
无论我如何改变学习率和批量大小,结果都不会改变,损失始终是'nan',基于测试集的预测也始终是'nan'。
谁能解释一下问题出在哪里并给出一些可能的解决方案?
最佳答案
乍一看,您的代码中有两个主要问题:
您的输出层必须是
Dense(2, activation='softmax')
。这是因为您的问题是二元分类问题,如果您使用 softmax 生成概率,则输出 dim 必须等于类数。 (您可以将一个输出维度与sigmoid
激活一起使用)你必须改变你的损失函数。对于 softmax 和数字编码目标,使用
sparse_categorical_crossentropy
。 (您可以将 binary_crossentropy 与sigmoid
一起使用,默认情况下使用 from_logits=False)
PS:确保在开始拟合之前删除原始数据中的所有 NaN
关于python - 预测 Nans 的 Tensorflow 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62911831/