벡터 — 기계 학습 관점

Nov 28 2022
Physics Perspective : 벡터는 공간을 가리키는 화살표입니다. 벡터를 정의하는 것은 길이와 벡터가 가리키는 방향입니다.
Unsplash에 있는 Antoine Dautry의 사진

Physics Perspective : 벡터는 공간을 가리키는 화살표입니다. 벡터를 정의하는 것은 길이와 벡터가 가리키는 방향입니다. 평면의 벡터는 2차원이고 넓은 공간의 벡터는 3차원입니다.

Computer Science Perspective : 벡터는 순서가 지정된 숫자 목록입니다. 목록의 길이가 2이면 벡터는 2차원입니다.

수학 관점 : 벡터는 크기와 방향을 모두 가진 객체입니다. 크기는 벡터의 크기를 정의합니다. 화살표가 있는 선으로 표시되며 선의 길이는 벡터의 크기이고 화살표는 방향을 나타냅니다. 유클리드 벡터 또는 기하학적 벡터 또는 공간 벡터 또는 간단히 벡터 라고도 합니다.

벡터

벡터 대수학의 특성

정확히 벡터 는 스칼라와 달리 적어도 두 개의 구성 요소가 있는 데이터 구조입니다. 스칼라 는 숫자일 뿐입니다. 우리는 그것들을 우리가 사용하는 일반 값처럼 생각할 수 있습니다.

벡터의 좌표는 기본적으로 원점에 있는 벡터의 꼬리에서 끝까지 가는 방법에 대한 지침을 제공하는 한 쌍의 숫자입니다. 벡터에서 각 좌표는 스칼라입니다.

벡터의 좌표 표현

벡터 추가 및 스케일링

벡터 추가
Scaling — 벡터의 스칼라 곱셈

선형 결합은 벡터를 함께 더하는 것을 의미합니다. 벡터의 범위는 벡터 모든 선형 조합으로 설정됩니다.

V, W, U의 선형 조합은 aV+ bW+ cU

이러한 벡터의 범위는 가능한 모든 선형 조합의 집합입니다.

3개의 자유롭게 변화하는 스칼라는 완전한 3차원 공간에 접근할 수 있게 합니다.

벡터 중 하나는 다른 벡터의 선형 조합으로 표현될 수 있으며 선형 종속입니다.

u=aV+bW

각 벡터가 범위에 다른 차원을 추가하면 선형적으로 독립적입니다.

W!= aV(a의 모든 값에 대해)

벡터 공간 의 기저 는 전체 공간에 걸쳐 있는 선형 독립 벡터 집합입니다.

벡터의 내적

두 벡터 A와 B 사이의 내적은 A의 원점과 끝을 통과하는 선에 w를 투영합니다.

A·B = | 에이| × |비| × cos(θ)

내적 = (투영된 A의 길이) * (투영된 B의 길이)

  • 2개의 벡터가 같은 방향을 가리키고 내적은 양수입니다.
  • 2개의 벡터가 수직이면 내적은 0입니다.
  • 2개의 벡터가 반대 방향을 가리키면 내적은 음수입니다.

벡터의 외적

두 벡터의 외적은 두 원래 벡터에 수직인 세 번째 벡터입니다. 그것의 크기는 그것들 사이의 평행사변형의 면적에 의해 주어지고 그것의 방향은 오른손 엄지 법칙에 의해 결정될 수 있습니다. 두 벡터의 외적은 벡터의 외적 결과가 벡터량이므로 벡터 곱이라고도 합니다. 외적은 벡터 a와 b가 같은 방향 또는 반대 방향을 가리킬 때 길이가 0이고 벡터 a b가 직각일 때 최대 길이 도달 합니다 .

A × B= |A| |비| 죄 θ

외적

외적은 벡터를 출력으로 제공합니다.

코사인 유사성

코사인 유사도는 내적 공간의 0이 아닌 2개의 벡터 사이 각도의 코사인을 측정합니다. 이 유사성 측정은 특히 크기보다는 방향과 관련이 있습니다. 같은 방향으로 정렬된 2개의 코사인 벡터는 유사도 측정값이 1인 반면 수직으로 정렬된 두 벡터의 유사도는 0입니다. -1입니다.

코사인 유사도

벡터 정규화

벡터는 크기를 가지며 다른 벡터는 다른 크기를 가질 수 있습니다. 때때로 우리는 벡터의 크기에 대해 신경 쓰지 않고 방향에만 관심이 있습니다. 크기에 전혀 관심이 없다면 각 벡터를 같은 크기로 만들 수 있습니다. 각 벡터를 크기로 나누어 각 벡터의 크기를 1로 만들거나 단위 벡터로 변환합니다.

벡터 정규화

기계 학습의 벡터 대수학

  1. 기계는 우리처럼 텍스트를 읽거나 이미지를 볼 수 없습니다. 숫자로 변환하거나 인코딩하려면 입력이 필요합니다. 벡터 및 행렬은 텍스트 및 이미지와 같은 입력을 숫자로 나타내므로 모델을 교육하고 배포할 수 있습니다.
  2. 대부분의 ML 프로젝트의 목표는 일부 기능을 수행하는 모델을 만드는 것입니다. 딥 러닝 모델에서 이는 신경망 계층이 매개변수를 조정하기 위해 선형 대수(예: 행렬 및 벡터 곱셈)를 사용하는 신경망을 통해 달성됩니다. 여기에서 벡터의 수학적 정의가 ML과 관련됩니다. 여기에는 벡터 공간에 대한 이해와 벡터 공간이 ML에 중요한 이유가 포함됩니다.
  3. ML 모델의 출력은 목표에 따라 다양한 엔터티일 수 있으며 벡터일 수도 있습니다. 예를 들어 NLP 모델은 텍스트를 받아들인 다음 문장을 나타내는 벡터(임베딩이라고 함)를 출력합니다. 그런 다음 이 벡터를 사용하여 다양한 작업을 수행하거나 다른 모델에 대한 입력으로 사용할 수 있습니다. 수행할 수 있는 작업 중에는 벡터 공간에서 유사한 문장을 함께 클러스터링하거나 코사인 유사성과 같은 작업을 사용하여 서로 다른 문장 간의 유사성을 찾는 작업이 있습니다.
  4. 차원 축소는 대부분의 정보를 데이터에 유지하면서 고차원 데이터를 저차원 데이터로 변환하는 것입니다. 이를 통해 더 큰 데이터 세트에서 작업하고 데이터의 가장 관련성이 높은 기능을 식별할 수 있습니다.
  5. 차원 감소 알고리즘

참조