신경망의 수학적 구성 요소

수학은 모든 기계 학습 알고리즘에서 중요하며 특정 방식으로 설계된 올바른 알고리즘을 얻기위한 다양한 핵심 수학 개념을 포함합니다.

기계 학습 및 데이터 과학에 대한 수학 주제의 중요성은 다음과 같습니다.

이제 자연어 처리 관점에서 중요한 기계 학습의 주요 수학적 개념에 초점을 맞 춥니 다.

벡터

벡터는 연속적이거나 이산적인 숫자의 배열로 간주되며 벡터로 구성된 공간을 벡터 공간이라고합니다. 벡터의 공간 차원은 유한하거나 무한 할 수 있지만 기계 학습 및 데이터 과학 문제가 고정 길이 벡터를 처리하는 것으로 관찰되었습니다.

벡터 표현은 아래와 같이 표시됩니다.

temp = torch.FloatTensor([23,24,24.5,26,27.2,23.0])
temp.size()
Output - torch.Size([6])

기계 학습에서 우리는 다차원 데이터를 다룹니다. 따라서 벡터는 매우 중요하며 모든 예측 문제 설명에 대한 입력 특성으로 간주됩니다.

스칼라

스칼라는 하나의 값만 포함하는 차원이 0 개라고합니다. PyTorch의 경우 차원이 0 인 특수 텐서를 포함하지 않습니다. 따라서 선언은 다음과 같이 작성됩니다.

x = torch.rand(10)
x.size()
Output - torch.Size([10])

행렬

대부분의 구조화 된 데이터는 일반적으로 표 또는 특정 행렬의 형태로 표현됩니다. Python scikit-learn 기계 학습 라이브러리에서 쉽게 사용할 수있는 Boston House Price라는 데이터 세트를 사용합니다.

boston_tensor = torch.from_numpy(boston.data)
boston_tensor.size()
Output: torch.Size([506, 13])
boston_tensor[:2]
Output:
Columns 0 to 7
0.0063 18.0000 2.3100 0.0000 0.5380 6.5750 65.2000 4.0900
0.0273 0.0000 7.0700 0.0000 0.4690 6.4210 78.9000 4.9671
Columns 8 to 12
1.0000 296.0000 15.3000 396.9000 4.9800
2.0000 242.0000 17.8000 396.9000 9.1400