não Keras autoencoder precisão / perda não mudar

votos
2

Aqui está o meu código:

AE_0 = Sequential()

encoder = Sequential([Dense(output_dim=100, input_dim=256, activation='sigmoid')])
decoder = Sequential([Dense(output_dim=256, input_dim=100, activation='linear')])

AE_0.add(AutoEncoder(encoder=encoder, decoder=decoder, output_reconstruction=True))
AE_0.compile(loss='mse', optimizer=SGD(lr=0.03, momentum=0.9, decay=0.001, nesterov=True))
AE_0.fit(X, X, batch_size=21, nb_epoch=500, show_accuracy=True)

X tem uma forma (537,621, 256). Estou tentando encontrar uma maneira de compactar os vetores de tamanho 256 a 100, em seguida, para 70, em seguida, para 50. Eu tenho feito isso é lasanha mas em Keras parece ser mais fácil de trabalhar w / Autoencoders.

Aqui está a saída:

Epoch 1/500 537621/537621 [==============================] - 27s - perda: 0,1339 - acc: 0,0036
Epoch 2/500 537621/537621 [==============================] - 32s - perda: 0,1339 - acc: 0,0036
Epoch 3 / 500 252336/537621 [=============> ................] - ETA: 14s - perda: 0,1339 - acc: 0,0035

E continua assim por diante ..

Publicado 07/01/2016 em 14:31
fonte usuário
Em outras línguas...                            


1 respostas

votos
0

É agora fixos em questões mestre :) openning às vezes é melhor escolha https://github.com/fchollet/keras/issues/1604

Respondeu 31/01/2016 em 00:23
fonte usuário

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more