13 Sat
[인공지능을 위한 선형대수] CHAPTER 3. Least Square
Orthogonal Projection I
Prjection Perspective
한 평면으로 수직인 수선의 발
Orthonormal Sets
정의 : 각 벡터가 모두 수직 => 임의의 두개의 벡터의 내적이 항상 0
Ortho. Basis
각 평면의 기저벡터 찾기
Gram-Schmidt process를 통해 찾을 수 있음

기저벡터식은 위와 같으며 아래 식은 u가 1일 경우(기저벡터일 경우(의 식

두 개의 벡터 스페이스가 있을 경우 y_hat은 위와 같이 표현될 수 있음
근데 우리는 y에서 y1-hat 이랑 y2-hat을 구하려는게 아니라 붕 떠있는 점 y'에서 바로 구하고 싶은 것
y는 단순히 y1-hat과 y2-hat의 합
Orthogonal Projection II
잘 이해 못했다. 어렵다
Orthogonal Projection

그람-슈미트 직교화와 QR 분해
수직이 아니고 선형적으로 독립한 두 벡터를 수직한 벡터로 나타내기

x1은 로 나누고 x2는 로 나누기
놈이 1인 기저벡터로 만드는 것
스팬은 그대로 유지
어렵다
Last updated
Was this helpful?