분류 전체보기 (55) 썸네일형 리스트형 [논문리뷰] Enhancing The Reliability of Out-Of-Distribution Image Detection In Neural Networks 논문 링크 : https://arxiv.org/abs/1706.02690 Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks We consider the problem of detecting out-of-distribution images in neural networks. We propose ODIN, a simple and effective method that does not require any change to a pre-trained neural network. Our method is based on the observation that using temperatu arxiv.org 해당 논문은.. [Jupyter Notebook] 주피터 노트북 폴더 옮기기 주피터 노트북에서 폴더를 통째로 서버나 로컬에 옮겨야 하는 상황, 혹은 다른 디렉토리로 통째로 옮겨야 하는 경우가 있습니다. 이 때, 리눅스 명령어를 통해 옮기고 싶은 폴더를 압축하여 옮기는 방법을 소개합니다. 다음과 같은 방법으로 진행됩니다. 1. 옮기고 싶은 폴더가 보이는 위치에서 주피터 노트북 파일(.ipynb) 생성 오른쪽 Notebook 생성시 kernel은 아무거나 상관없음. 2. 셀에 아래 명령어 입력 !tar -cvf [파일명.tar] [옮기고싶은_폴더명] 3. [파일명.tar] 압축 파일 download 4. 옮기고 싶은 위치에서 [파일명.tar] 압축 파일 upload 5. 옮기고 싶은 폴더가 보이는 위치에서 주피터 노트북 파일(.ipynb) 생성 6. 셀에 아래 명령어 입력 !tar .. [논문리뷰] A Baseline for Detecting Misclassified and Out-Of-Distribution Examples in Neural Networks 논문 링크 : https://arxiv.org/abs/1610.02136 A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks We consider the two related problems of detecting if an example is misclassified or out-of-distribution. We present a simple baseline that utilizes probabilities from softmax distributions. Correctly classified examples tend to have greater maximum softmax arxiv.org.. [논문리뷰] Using Self-Supervised Learning Can Improve Model Robustness and Uncertainty 논문 링크 :https://arxiv.org/abs/1906.12340https://ojs.aaai.org/index.php/AAAI/article/view/5966 Self-Supervised Learning for Generalizable Out-of-Distribution Detection | Proceedings of the AAAI Conference on Artifici ojs.aaai.org 최근 OOD(out-of-distribution) detection에 관심이 생겨서 이와 관련된 다양한 논문을 survey 중에 해당 논문을 발견했다. 해당 논문은 NIPS 2019 논문으로 Self-supervised learning을 accuracy관점이 아닌 모델의 Robustness 관점에서 바라.. [논문리뷰] A Simple Framework for Contrastive Learning of Visual Representations 논문 링크 : https://arxiv.org/abs/2002.05709 A Simple Framework for Contrastive Learning of Visual Representations This paper presents SimCLR: a simple framework for contrastive learning of visual representations. We simplify recently proposed contrastive self-supervised learning algorithms without requiring specialized architectures or a memory bank. In order to under arxiv.org 해당 논문은 MoCo와 같이 self.. [논문리뷰] Momentum Contrast for Unsupervised Visual Representation Learning 논문링크 : https://arxiv.org/abs/1911.05722 Momentum Contrast for Unsupervised Visual Representation Learning We present Momentum Contrast (MoCo) for unsupervised visual representation learning. From a perspective on contrastive learning as dictionary look-up, we build a dynamic dictionary with a queue and a moving-averaged encoder. This enables building a large a arxiv.org 해당 논문은 Facebook AI Resera.. 이전 1 2 3 4 5 6 ··· 10 다음