PyTorch - Xử lý trình tự với các chuyển đổi
Trong chương này, chúng tôi đề xuất một cách tiếp cận thay thế dựa trên một mạng nơ ron tích tụ 2D duy nhất trên cả hai chuỗi. Mỗi lớp trong mạng của chúng tôi mã lại mã nguồn trên cơ sở chuỗi đầu ra được tạo cho đến nay. Do đó, các thuộc tính giống như sự chú ý được phổ biến trên toàn mạng.
Ở đây, chúng tôi sẽ tập trung vào creating the sequential network with specific pooling from the values included in dataset. Quá trình này cũng được áp dụng tốt nhất trong “Mô-đun nhận dạng hình ảnh”.
Các bước sau được sử dụng để tạo mô hình xử lý trình tự với các chuyển đổi bằng PyTorch:
Bước 1
Nhập các mô-đun cần thiết để thực hiện xử lý trình tự bằng cách sử dụng chuyển đổi.
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
import numpy as np
Bước 2
Thực hiện các thao tác cần thiết để tạo một mẫu theo trình tự tương ứng bằng cách sử dụng đoạn mã dưới đây:
batch_size = 128
num_classes = 10
epochs = 12
# input image dimensions
img_rows, img_cols = 28, 28
# the data, split between train and test sets
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train = x_train.reshape(60000,28,28,1)
x_test = x_test.reshape(10000,28,28,1)
print('x_train shape:', x_train.shape)
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')
y_train = keras.utils.to_categorical(y_train, num_classes)
y_test = keras.utils.to_categorical(y_test, num_classes)
Bước 3
Biên dịch mô hình và phù hợp với mô hình trong mô hình mạng nơ-ron thông thường được đề cập như hình dưới đây:
model.compile(loss =
keras.losses.categorical_crossentropy,
optimizer = keras.optimizers.Adadelta(), metrics =
['accuracy'])
model.fit(x_train, y_train,
batch_size = batch_size, epochs = epochs,
verbose = 1, validation_data = (x_test, y_test))
score = model.evaluate(x_test, y_test, verbose = 0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])
Đầu ra được tạo ra như sau: