Directional Derivative in Multivariate Functions
Gradient and Partial Derivative
Jacobian
•
의 derviate matrix
Hessian Matrix
•
의 second derivative matrix
Taylor Series
•
함수를 polynomial 로 근사하는 방법론
•
Multivariable Function 의 2nd-order approximation
◦
형태
Optimization Problem
•
minimize subject to , 과 같은 문제들
Convex Functions
•
A function is called convex if and only if:
•
함숫값의 평균이 평균의 함숫값보다 큼!
•
Convexity of a Function (다음 4 개는 동치)
1.
A function is called convex
2.
The epigraph of f is a convex set
3.
Jensen’s inequality satisfies
•
이고 인 에 대해서
4.
가 두 번 미분가능하고, Hessian 가 모든 에 대해서 positive semidefinite
How to Recognize a Minimum
•
가 전 범위에서 differentiable 하고 unconstrained 하면 다음과 같은 세 경우가 있음
◦
Strictly Convex → Global Minimum 을 가짐
◦
Neither Concave nor Convex → Saddle-Point or Local Minimum/Maximum
◦
Strictly Concave → Global Maximum 을 가짐
Gradient Descent
•
Initial point 에서 gradient 의 negative 방향으로 iterative 하게 갱신해가는 방법론
◦
을 만족할 때까지 반복함
◦
Convergence 가 보장되지는 않으며, 이를 위해서는 부가적인 line search 가 필요함
◦
Line search: gradient direction 앞에 붙을 상수 를 heuristic 하게 구하는 과정
▪
부터 시작해서 0.5 씩 곱해가면서 다음을 만족할 때까지 진행함
▪
정도로 설정함
▪
가 0에 가까우면 큰 horizontal step 을 허용
▪
가 1에 가까우면 작은 horizontal step 만을 허용
Newton’s Method for Root-Finding
•
을 만족하는 를 구하는 방법론
•
Initial point 에서 시작하여 다음과 같은 iterative update 를 사용함
◦
특정 점에서 의 linearization 이 abscissa 와 만나는 지점을 새로운 로 변경
•
Optimization 문제에서 을 만족하는 을 찾으려고 하는 것이니, 의 derivative 에 Newton’s Method 를 적용하는 것을 생각할 수 있음!
◦
Iterative Minimization of 2nd degree Taylor Series 로도 생각할 수 있음
◦
Gradient descent 와 마찬가지로 부가적인 line search 가 필요할 수 있음
◦
Gradient descent 에 비교해서의 장점은 적은 iteration 으로 수렴할 수 있다는 것임
◦
다만, inverse of Hessian 이 필요하고, 이는 computationally expensive ()
◦
다른 방법으로는 Quasi-Newton Methods, Conjugate Gradient Method 등이 있지만, 여기서 다루지는 않음
Least-Squares Problem
•
Analytic Solutions
◦
Cholesky Factorization
◦
QR Factorization
◦
SVD
•
Non-linear Least-Squares: via iterative methods
◦
Gauss-Newton Method: A modified Newton’s method
◦
Levenberg-Marquardt Method: Trust-region strategy
Linear Least-Squares Problem
•
와 에 대해서 다음을 만족하는 를 찾는 문제
•
을 가정하면 다음과 같이 변형할 수 있음
•
최솟값을 구하기 위해 로 미분하는 것을 생각해볼 수 있음!
◦
◦
◦
Hessian 을 계산하면 인데, 이는 positive semidefinite 함
◦
즉, 는 convex function
◦
가능한 solution 은 다음과 같음
▪
: Pesudo-inverse of A
Homogeneous Least-squares
•
가 아닌, 의 문제는 homogeneous least-squares 문제로 부름
•
와 에 대해서 다음을 만족하는 를 찾는 문제
•
, (trivial solution 을 제거하기 위해) 을 가정
•
Lagrange Multiplier 를 사용하여 다음과 같이 변형할 수 있음
•
이후 SVD 를 사용해 로 변형하여 의 마지막 column 을 찾으면 됨! (증명은 16강 PCA 에 있음!)