PyTorch - Thuật ngữ
Trong chương này, chúng ta sẽ thảo luận về một số thuật ngữ được sử dụng phổ biến nhất trong PyTorch.
PyTorch NumPy
Một tenxơ PyTorch giống hệt một mảng NumPy. Tensor là một mảng n chiều và đối với PyTorch, nó cung cấp nhiều chức năng để hoạt động trên các tensor này.
Các bộ căng của PyTorch thường sử dụng GPU để tăng tốc tính toán số của chúng. Những tensors này được tạo ra trong PyTorch có thể được sử dụng để điều chỉnh một mạng hai lớp với dữ liệu ngẫu nhiên. Người dùng có thể thực hiện thủ công chuyển tiếp và chuyển tiếp qua mạng.
Biến và Autograd
Khi sử dụng autograd, chuyển tiếp mạng của bạn sẽ xác định computational graph - các nút trong biểu đồ sẽ là các Tensors, và các cạnh sẽ là các hàm tạo ra Tensors đầu ra từ Tensors đầu vào.
PyTorch Tensors có thể được tạo dưới dạng các đối tượng biến trong đó một biến đại diện cho một nút trong đồ thị tính toán.
Đồ thị động
Đồ thị tĩnh rất đẹp vì người dùng có thể tối ưu hóa đồ thị trước. Nếu các lập trình viên đang sử dụng lặp đi lặp lại cùng một biểu đồ, thì việc tối ưu hóa trước có thể tốn kém này có thể được duy trì khi cùng một biểu đồ được chạy đi chạy lại nhiều lần.
Sự khác biệt chính giữa chúng là đồ thị tính toán của Tensor Flow là tĩnh và PyTorch sử dụng đồ thị tính toán động.
Gói tối ưu
Gói tối ưu trong PyTorch tóm tắt ý tưởng về một thuật toán tối ưu hóa được thực hiện theo nhiều cách và cung cấp các hình ảnh minh họa về các thuật toán tối ưu hóa thường được sử dụng. Điều này có thể được gọi trong câu lệnh nhập.
Đa xử lý
Đa xử lý hỗ trợ các hoạt động giống nhau, do đó tất cả các bộ căng hoạt động trên nhiều bộ xử lý. Hàng đợi sẽ chuyển dữ liệu của chúng vào bộ nhớ dùng chung và sẽ chỉ gửi một xử lý đến một tiến trình khác.