Gram Matrix
•
Gram Matrix 가 identity 면 는 orthonormal
Skew Symmetric Matrix
•
Transpose 가 negative 과 같은 matrix
•
Symmetric 은
•
Cross product 는 skew symmetric matrix 로 표현될 수 있음
◦
이런 식의 표현이 중요한 이유는 모든 것을 matrix multiplication 으로 통합하여 표현할 수 있도록 해주기 때문
Null Space
•
Matrix 의 nullspace 는 해당 matrix 와 right multiplication 을 했을 때 0 이 나오는 모든 벡터의 set
•
중요한 이유는 많은 AI 문제에서 가 주어졌을 때 optimal 한 를 구하는 경우가 많기 때문
•
SVD 를 이용해서 null space 를 찾을 수 있음!
•
Rank-Nullity Theorem
Determinant
•
•
•
에 대해서 은 가 singular 인 것이랑 동치임
•
에 대해서 가 non-singular 이면
Quadratic Forms
•
Quadratic Forms 로 표현되는 matrix 는 symmetric 임
•
Conic 의 quadratic form 표현
Positive Semidefinite
•
Positive Definite (PD)
•
Positive Semidefinite (PSD)
•
Negative Definite (ND)
•
Negative Semidefinite (NSD)
•
Indefinite
PSD 도, NSD 도 아닌 경우
Eigenvalues and Eigenvectors
•
Square matrix 에 대해서 위 식을 만족하는 nonzero vector 와 쌍이 존재하면 를 eigenvector, 를 해당 eigenvector 의 eigenvalue 라고 함
•
가 eigenvector 면 도 eigenvector 이기 때문에 보통은 을 가정하고 eigenvector 를 정의함
•
Characteristic polynomial
◦
의 non-zero solution 가 존재하려면 이어야 함
◦
위 식을 characteristic polynomial of 라고 함
•
•
•
rank of 는 non-zero eigenvalues of 의 개수와 같음
•
가 non-singular 하고 라는 eigenvalue 를 가지면 은 라는 eigenvalue 를 가짐
•
Diagonal matrix 의 eigen value 는 그냥 diagonal term 들임
Eigen Value Decomposition
•
이고 를 의 n 개의 eigenvector 를 column 에 모아둔 matrix 라 하자
•
Eigenvector, eigenvalue 의 정의 때문에 다음이 성립함
•
최종적으로 는 다시 다음과 같이 표현할 수 있음
◦
가정에 의해 는 invertible 함 (linearly independent 한 개의 column)
•
모든 symmetric matrix 는 개의 orthonormal 한 eigenvector 를 가지고, eigenvalue 는 모두 real 임 → real valued eigenvector 및 eigenvalue 로 Eigen Value Decomposition 가능!
◦
는 unit space 를 방향으로 만큼 scaling 한 것과 같음
•
Convention 에 따라서 diagonal matrix 는 descending order 로 정렬됨
•
0 인 eigenvalue 가 존재하면 해당 matrix 는 singular 함. ( 인 nonzero 가 존재하는 것이기 때문)
•
Positive Definite Revisited
◦
가 positive definite 하면, 모든 eigenvalue 는 positive 함
◦
가 positive semidefininte 하면, 모든 eigenvalue 는 non-negative 함
Singular Value Decomposition
•
: orthonormal matrix
•
: orthonormal matrix
•
: diagnoal matrix
•
가 non-square 이면 Eigen Value Decomposition 이 정의되지 않음
•
SVD non-square 에도 적용될 수 있는 형태의 decompostion
Reduced SVD
•
•
◦
가 보다 크기가 크고 는 아래쪽 영역이 모두 0이 됨
◦
Reconstruction 만 생각한다면 의 좌측, 의 위만 잘라서 사용가능
•
◦
가 보다 크기가 작고 는 우측 영역이 모두 0이 됨
◦
Reconstruction 만 생각한다면 의 위, 의 좌측만 잘라서 사용가능
Relation between SVD and Eigen Value Decomposition
•
로 SVD 가 이루어졌다고 가정하자
•
의 column 은 의 eigenvector 들임
•
의 diagonal term 은 의 eigenvalue 들임
•
마찬가지로, 의 column 은 의 eigenvector 들임
•
Singular value 는 항상 nonnegative
◦
의 eigenvalue 의 square root 로 볼 수 있는데 가 positive semidefinite 이기 때문에 eigenvalue 가 0 이상임!
Understanding Transformation via SVD
Applications of SVD
•
Matrix 의 rank 를 판단할 수 있음
◦
nonzero singular value 의 개수가 rank
◦
zero singular value 가 없으면 의 full rank 를 가짐
•
Pseudo-inverse (left inverse of ) 를 쉽게 나타낼 수 있음
◦
가 square 라면 로 표현할 여지도 있음
◦
라고 하면 는 다음과 같이 표현됨
•
Low-Rank Approximation
◦
◦
Rank 를 줄이면서 비슷한 matrix 를 만드는 과정
◦
가장 좋은 approximation 은 미만의 크기를 가지는 index 의 singular vector 및 singular value 를 버리는 것
▪
▪
◦
Image Compression 등에 사용
Polynomial Fitting
•
Sample 을 polynomial model 로 설명하려는 경우를 생각해볼 수 있음
•
를 Vandermonde Matrix 라고 부름
•
를 구함에 있어 데이터로 구성된 matrix 를 활용함!