Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/fortran/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Keras 凯拉斯:为什么训练时准确度不变_Keras - Fatal编程技术网

Keras 凯拉斯:为什么训练时准确度不变

Keras 凯拉斯:为什么训练时准确度不变,keras,Keras,我尝试在Keras中运行该文件,但不支持模型学习。这是我的密码: #-*-编码:utf-8-*- 进口干酪 从keras.models导入顺序 从keras.layers导入稠密 从keras.optimizers导入新加坡元 作为pd进口熊猫 将numpy作为np导入 #从CSV文件读取,将分类值转换为一个热编码,并将结果转换为numpy数组 df=pd.read\u csv(“chorn\u modeling.csv”) X=pd.get_dummies(df,columns=['Geogr

我尝试在Keras中运行该文件,但不支持模型学习。这是我的密码:

#-*-编码:utf-8-*-
进口干酪
从keras.models导入顺序
从keras.layers导入稠密
从keras.optimizers导入新加坡元
作为pd进口熊猫
将numpy作为np导入
#从CSV文件读取,将分类值转换为一个热编码,并将结果转换为numpy数组
df=pd.read\u csv(“chorn\u modeling.csv”)
X=pd.get_dummies(df,columns=['Geography','Gender'])
X=X[[‘信用评分’、‘年龄’、‘任期’、‘余额’、‘NumOfProducts’、‘HasCrCard’、‘IsActiveMember’、‘EstimatedSalary’、‘法国地理’、‘德国地理’、‘西班牙地理’、‘性别女性’、‘性别男性’、‘退出’]
数据集=X.作为矩阵()
X_train=数据集[:,0:13]
Y_train=数据集[:,13]
模型=顺序()
添加(密集(26,输入尺寸=13,激活=relu'))
#model.add(密集(15,activation='relu'))
model.add(密集型(1,激活='sigmoid'))
新加坡元=新加坡元(lr=0.02)
compile(loss='binary\u crossentropy',optimizer=sgd,metrics=['accurity'])
模型拟合(X序列、Y序列、验证分割=0.05、历次=10、批量=200)
这是我得到的输出: 培训9500个样本,验证500个样本

1/10纪元
9500/9500[============================================================-0s-损耗:3.7996-附件:0.7637-损耗:2.8045-损耗:0.8260
纪元2/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元3/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元4/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元5/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元6/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元7/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元8/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元9/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260
纪元10/10
9500/9500[============================================================]0s-损耗:3.3085-附件:0.7947-损耗:2.8045-损耗:0.8260

即使我用100个纪元运行程序,我仍然得到相同的结果val_acc:0.8260。谢谢你

如果重新调整训练集的比例,准确率会略微提高86%。我使用了以下代码:

from sklearn.preprocessing import MinMaxScaler
scaler = MinMaxScaler(feature_range=(0, 1))
rescaledX_train = scaler.fit_transform(X_train)

如果减少批量大小会发生什么?也许会降到24岁,谢谢。我将批量大小更改为24,并删除一个性别列和类似此模型的softmax激活函数。但是输出的准确性和损失没有改变。你能尝试使用
categorical\u crossentropy
而不是
binary\u crossentropy
(因为你已经使用了一个热向量)吗?如果你想进行二元分类,你可以将输出
y
保持为categorical(0或1),带
二元交叉熵的sigmoid将很好地工作。因此,请理解:您有一个小数据集(10000条记录),用一个小的神经网络建模,您在二元分类中的验证精度达到了约83%。。。你抱怨模型“没有学习”???