Загрузить веса для последнего слоя (выходной слой) в новую модель из обученной сети

Aug 18 2020

Можно ли загрузить веса на последний слой в моей новой модели из обученной сети, используя схемы set_weights и get_weights? Дело в том, что я сохранил вес каждого слоя в виде файла mat (после обучения), чтобы произвести некоторые вычисления в Matlab, и я хочу, чтобы только измененные веса последнего слоя загружались в последний слой в моей новой модели и других слоях. получить те же веса, что и обученная модель. Это немного сложно, так как сохраненный формат матовый.

weights1 = lstm_model1.layers[0].get_weights()[0]
biases1 = lstm_model1.layers[0].get_weights()[1]
weights2 = lstm_model1.layers[2].get_weights()[0]
biases2 = lstm_model1.layers[2].get_weights()[1]
weights3 = lstm_model1.layers[4].get_weights()[0]
biases3 = lstm_model1.layers[4].get_weights()[1]
# Save the weights and biases for adaptation algorithm 
savemat("weights1.mat", mdict={'weights1': weights1})  
savemat("biases1.mat", mdict={'biases1': biases1})      
savemat("weights2.mat", mdict={'weights2': weights2})   
savemat("biases2.mat", mdict={'biases2': biases2})      
savemat("weights3.mat", mdict={'weights3': weights3}) 
savemat("biases3.mat", mdict={'biases3': biases3})  

Как я могу загрузить только старые веса других слоев в новую модель (без последнего слоя) и модифицированные веса последнего слоя в последний слой в новом?

Ответы

1 RyanRudes Aug 24 2020 at 13:41

Если он был сохранен в формате файла .h5, это работает. Однако насчет .mat я не уверен:

Для простоты вам просто нужно вызвать get_weightsнужный слой и аналогично set_weightsсоответствующий слой другой модели:

last_layer_weights = old_model.layers[-1].get_weights()
new_model.layers[-1].set_weights(last_layer_weights)

Вот более полный пример кода:

# Create an arbitrary model with some weights, for example
model = Sequential(layers = [
    Dense(70, input_shape = (100,)),
    Dense(60),
    Dense(50),
    Dense(5)])

# Save the weights of the model
model.save_weights(“model.h5”)

# Later, load in the model (we only really need the layer in question)
old_model = Sequential(layers = [
    Dense(70, input_shape = (100,)),
    Dense(60),
    Dense(50),
    Dense(5)])

old_model.load_weights(“model.h5”)

# Create a new model with slightly different architecture (except for the layer in question, at least)
new_model = Sequential(layers = [
    Dense(80, input_shape = (100,)),
    Dense(60),
    Dense(50),
    Dense(5)])

# Set the weights of the final layer of the new model to the weights of the final layer of the old model, but leaving other layers unchanged.
new_model.layers[-1].set_weights(old_model.layers[-1].get_weights())

# Assert that the weights of the final layer is the same, but other are not.
print (np.all(new_model.layers[-1].get_weights()[0] == old_model.layers[-1].get_weights()[0]))
>> True

print (np.all(new_model.layers[-2].get_weights()[0] == old_model.layers[-2].get_weights()[0]))
>> False