논문리뷰 (3) 썸네일형 리스트형 [논문리뷰] Using Self-Supervised Learning Can Improve Model Robustness and Uncertainty 논문 링크 :https://arxiv.org/abs/1906.12340https://ojs.aaai.org/index.php/AAAI/article/view/5966 Self-Supervised Learning for Generalizable Out-of-Distribution Detection | Proceedings of the AAAI Conference on Artifici ojs.aaai.org 최근 OOD(out-of-distribution) detection에 관심이 생겨서 이와 관련된 다양한 논문을 survey 중에 해당 논문을 발견했다. 해당 논문은 NIPS 2019 논문으로 Self-supervised learning을 accuracy관점이 아닌 모델의 Robustness 관점에서 바라.. [논문리뷰] Regularization With Stochastic Transformation and Perturbations for Deep Semi-Supervised Learning 논문 링크 : https://proceedings.neurips.cc/paper/2016/hash/30ef30b64204a3088a26bc2e6ecf7602-Abstract.html Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning Requests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this ca.. [논문리뷰] Learning Without Forgetting(ECCV 2016) 해당 논문은 ECCV 2016에 실린 초창기 Continual learning에 관한 paper이다. 해당 논문은 새로운 task에 대해서 Continual한 상황에서 학습하는 방법을 제안한다. 이때 여러가지 방법을 사용할 수 있는데 기존의 method인 Fine-tuning, Feature Extraction, Joint Training과 논문에서 제안한 Learning without forgetting의 성능과 장단점을 비교한다. -Feature extraction 공유된 파라미터와 old task 파라미터는 건드리지 않고, 1개 또는 하나 이상의 output layer가 새로운 task에 대한 feature로써 사용되어진다. 이때, 새로운 task에 대해서 성능을 발휘하지 못하는데, 그 이유는 공유.. 이전 1 다음