Duplicate

세미나 15 | Adaptive and Trustworthy Machine Learning

수강 일자
2022/12/13
교수
문태섭 교수님

Continual (Lifeling) Learning

Sequential 하게 들어오는 task 에 대해서 학습을 해야 하는데, 과거의 데이터를 모두 가지고 있을 수는 없다는 가정이 있음. 이전 데이터를 다 사용하지 않으면서 새로운 데이터만으로 연속적으로 학습하되, 새로운 task 도 잘하되 이전에 하던 task 도 잊어버리지 않고 잘 하는 것이 Continual Learning 의 목표라고 볼 수 있음.
첫 번째 task 에서는 0, 1 만 구별하면 되었는데, 다음으로 2, 3 이 들어오면서 2, 3 도 구별할 수 있어야 하는 task 가 추가적으로 들어옴. 매번 새로운 데이터가 들어올때마다 처읍부터 학습해야 하는 것을 해결하기 위해서 Continual Learning 이 떠올랐는데, 사실 사람도 매번 새로운 것을 학습할 때마다 이전에 학습했던 것을 한꺼번에 같이 학습하지는 않음.
다른 task 가 들어왔을 때 이전에 학습한 모델을 가지고 와서 fine-tuning 하듯이 진행해서 일반적으로 neural netork 의 plasticity 는 되게 높다고 할 수 있음. 하지만, 이전 task 를 유지하는 능력인 stability 는 상대적으로 부족한 경우가 많음. 이들 사이의 조절을 하는 것이 중요함.

AGS-CL Algorithm

Weight Term 에 regularization 을 하는 것이 아닌, Node Term 에 regularization 을 하는 방법론. 중요한 Node 의 경우에는 이전의 task 까지 학습했던 결과와의 차이가 크지 않도록 regularizer 를 설정하고, 중요하지 않은 Node 의 경우에는 단순한 L2 norm regularizer 를 설정함. Node Level 로 regularization 을 진행하기에 저장해야하는 메모리가 적음.

Continuous-valued data denoising

Typical 하게 가정하는 것은 additive noise 와 reconstruction 을 잘하는지 측정하는 metric 을 MSE Loss 임. 여기서도 Deep Learning based 방법론이 들어옴. Clean Image 에 gaussian noise 를 더해서 noisy image 를 만들고 이를 training set 으로 하여 CNN 을 통과시켜 원래 clean image 를 만들도록 함. 이러한 denoising 을 어떻게 adpative 하게 만들 수 있을까에 대해서 고민할 수 있음.

Interpretable ML

어디를 보고 classification 을 했는지를 알면 동작 원리를 어느정도 설명할 수 있을 것임. 이런 것을 saliency map 기반의 설명방법이라고 하고 자주 사용됨. 이러한 방법을 토대로 역으로 모델의 unfair bias 를 찾아낼 수도 있고, 모델을 고치지 않고 설명만 fooling 하는 것을 만들 수 있지 않을까? 에 대한 의문을 품고 연구를 진행함. 이게 된다면 이 설명가능함 자체를 믿을 수 없다는 결과에 이르게 됨. 학습한 모델의 parameter 를 조금만 바꾸면 prediction 은 그대로인데, 특성을 찾는 영역을 달리할 수 있다는 것을 보였음. 모델이 변한 것이 아니라 설명만 변한 것이라는 것을 실험적으로 보였음. 이 것에 대한 future works 로 이러한 방법으로 fooling 이 안되는 XAI 방법론을 어떻게 하면 만들 수 있을까가 있음.