ニューラルネットワークの数学的構成要素
数学はあらゆる機械学習アルゴリズムに不可欠であり、特定の方法で適切なアルゴリズムを設計するための数学のさまざまなコアコンセプトが含まれています。
機械学習とデータサイエンスにおける数学のトピックの重要性を以下に示します-
ここで、自然言語処理の観点から重要な機械学習の主要な数学的概念に焦点を当てましょう。
ベクトル
ベクトルは、連続または離散の数の配列と見なされ、ベクトルで構成される空間はベクトル空間と呼ばれます。ベクトルの空間次元は有限または無限のいずれかですが、機械学習とデータサイエンスの問題は固定長のベクトルを扱うことが観察されています。
ベクトル表現は以下のように表示されます-
temp = torch.FloatTensor([23,24,24.5,26,27.2,23.0])
temp.size()
Output - torch.Size([6])
機械学習では、多次元データを扱います。したがって、ベクトルは非常に重要になり、予測問題ステートメントの入力特徴と見なされます。
スカラー
スカラーは、1つの値のみを含むゼロ次元を持つと呼ばれます。PyTorchに関しては、次元がゼロの特別なテンソルは含まれていません。したがって、宣言は次のように行われます。
x = torch.rand(10)
x.size()
Output - torch.Size([10])
行列
構造化データのほとんどは、通常、テーブルまたは特定のマトリックスの形式で表されます。ボストンハウスプライスと呼ばれるデータセットを使用します。これは、Pythonscikit-learn機械学習ライブラリですぐに利用できます。
boston_tensor = torch.from_numpy(boston.data)
boston_tensor.size()
Output: torch.Size([506, 13])
boston_tensor[:2]
Output:
Columns 0 to 7
0.0063 18.0000 2.3100 0.0000 0.5380 6.5750 65.2000 4.0900
0.0273 0.0000 7.0700 0.0000 0.4690 6.4210 78.9000 4.9671
Columns 8 to 12
1.0000 296.0000 15.3000 396.9000 4.9800
2.0000 242.0000 17.8000 396.9000 9.1400